Стартапы заявляют, что новые программы, подобные ChatGPT, могли бы заполнить для них документацию врачей. Но некоторые эксперты опасаются, что врожденная предвзятость и склонность к фабрикации фактов могут привести к ошибкам.

ER Productions Limited / Getty Images

скрыть заголовок

переключить заголовок

ER Productions Limited / Getty Images

Стартапы заявляют, что новые программы, подобные ChatGPT, могли бы заполнить для них документацию врачей. Но некоторые эксперты опасаются, что врожденная предвзятость и склонность к фабрикации фактов могут привести к ошибкам.

ER Productions Limited / Getty Images

Когда Дерек Пол учился на врача в Калифорнийском университете в Сан-Франциско, он не мог поверить, насколько устарела больничная документация. Компьютерные системы выглядели так, будто они переместились во времени из 1990-х годов, и многие медицинские записи все еще хранились на бумаге.

«Я был просто потрясен тем, насколько аналоговыми были вещи, — вспоминает Пол.

Этот опыт вдохновил Пола на создание небольшого стартапа в Сан-Франциско под названием Стекло Здоровье. Glass Health сейчас входит в число немногих компаний, которые надеются использовать чат-ботов с искусственным интеллектом для оказания услуг врачам. Эти фирмы утверждают, что их программы могут значительно уменьшить бумажную нагрузку, с которой врачи сталкиваются в своей повседневной жизни, и значительно улучшить отношения между врачом и пациентом.

«Нам нужны эти люди не в выгоревших состояниях, пытающиеся заполнить документацию», — говорит Пол. «Пациентам нужно больше 10 минут со своим врачом».

Но некоторые независимые исследователи опасаются, что спешка с внедрением новейших технологий искусственного интеллекта в медицину может привести к ошибкам и предвзятым результатам, которые могут нанести вред пациентам.

«Я думаю, что это очень интересно, но я также очень скептичен и очень осторожен», — говорит Пирс Кин, профессор искусственного медицинского интеллекта в Университетском колледже Лондона в Соединенном Королевстве. «Все, что связано с принятием решений об уходе за пациентом, — это то, к чему в настоящее время следует относиться с особой осторожностью».

Мощный двигатель для медицины

Пол стал соучредителем Glass Health в 2021 году вместе с Грэмом Рэмси, предпринимателем, который ранее основал несколько технологических компаний в области здравоохранения. Компания начала с предложения электронной системы ведения медицинских записей. По словам Пола, когда в прошлом году на сцене появился ChatGPT, он не обратил на него особого внимания.

«Я посмотрел на это и подумал: «Чувак, это напишет несколько плохих постов в блоге. Кого это волнует? вспоминает.

Но Пола продолжали спрашивать молодые врачи и студенты-медики. Они использовали ChatGPT и сказали, что он довольно хорошо отвечает на клинические вопросы. Затем об этом начали спрашивать пользователи его программного обеспечения.

В целом, врачи не должны использовать ChatGPT для медицинской практики, предупреждает Марк Суччиврач Массачусетской больницы общего профиля, который проведенные оценки того, как чат-бот выполняет диагностику пациентов. Он говорит, что при представлении гипотетических случаев ChatGPT может точно поставить правильный диагноз на уровне, близком к уровню студента-медика третьего или четвертого курса. Тем не менее, добавляет он, программа также может галлюцинировать результаты и фабриковать источники.

«Я бы выразил большую осторожность, используя это в клиническом сценарии по любой причине на текущем этапе», — говорит он.

Но Пол считал, что базовую технологию можно превратить в мощный двигатель медицины. Пол и его коллеги создали программу под названием «Glass AI», основанную на ChatGPT. Врач рассказывает чат-боту Glass AI о пациенте, и он может предложить список возможных диагнозов и план лечения. Вместо того, чтобы работать с необработанной информационной базой ChatGPT, система искусственного интеллекта Glass использует виртуальный медицинский учебник, написанный людьми, в качестве основного источника фактов — что, по словам Пола, делает систему более безопасной и надежной.

«Мы работаем над тем, чтобы врачи могли вставлять краткое описание пациента, а также чтобы мы могли создать первый набросок клинического плана для этого врача», — говорит он. «Итак, какие тесты они назначат и какое лечение они назначат».

Пол считает, что Glass AI помогает решить огромную потребность в эффективности в медицине. Врачи повсюду, и он говорит, что работа с документами их замедляет.

«Качество жизни врача действительно, очень тяжелое. Бремя документации огромно», — говорит он. «Пациенты не чувствуют, что их врачи имеют достаточно времени, чтобы проводить с ними».

Боты у кровати

На самом деле, по словам Кина, ИИ уже пришел в медицину. Кин также работает офтальмологом в глазной больнице Мурфилдс в Лондоне и говорит, что его область была одной из первых, где алгоритмы искусственного интеллекта начали работать. В 2018 году Управление по санитарному надзору за качеством пищевых продуктов и медикаментов (FDA) утвердил систему ИИ который мог бы считывать сканирование глаз пациента для выявления диабетической ретинопатии, состояния, которое может привести к слепоте.

Александр Лебрен из Наблы говорит, что искусственный интеллект может «автоматизировать все это время, которое врачи тратят впустую на заполнение медицинских записей и оформление документов».

Дельфина Гролл/Набла

скрыть заголовок

переключить заголовок

Дельфина Гролл/Набла

Александр Лебрен из Наблы говорит, что искусственный интеллект может «автоматизировать все это время, которое врачи тратят впустую на заполнение медицинских записей и оформление документов».

Дельфина Гролл/Набла

Эта технология основана на искусственном интеллекте, предшествующем современным системам чат-ботов. Если он выявляет возможный случай ретинопатии, он направляет пациента к специалисту. Кин говорит, что технология потенциально может упростить работу в его больнице, где пациенты выстраиваются в очередь, чтобы увидеть специалистов.

«Если у нас будет система искусственного интеллекта, которая находится где-то на этом пути, которая помечает людей с заболеванием, угрожающим зрению, и направляет их к специалисту по сетчатке, то это, вероятно, приведет к гораздо лучшим результатам для наших пациентов», — говорит он. .

Другие аналогичные программы искусственного интеллекта были одобрены для таких специальностей, как радиология и кардиология. Но эти новые чат-боты потенциально могут использоваться всеми врачами, лечащими самых разных пациентов.

Александр Лебрен — генеральный директор французского стартапа под названием Набла. Он говорит, что цель программы его компании — сократить часы, которые врачи тратят на написание своих заметок.

«Мы пытаемся полностью автоматизировать все это потерянное время с помощью ИИ», — говорит он.

Лебрен открыто говорит о том, что у чат-ботов есть некоторые проблемы. Они могут выдумывать источники, ошибаться и вести себя хаотично. На самом деле ранние эксперименты его команды с ChatGPT привели к странным результатам.

Например, когда фальшивый пациент сказал чат-боту, что у него депрессия, ИИ предложил:переработка электроники» как способ поднять настроение.

Несмотря на эти мрачные консультации, Лебрен считает, что есть узкие, ограниченные задачи, в которых чат-бот может реально изменить ситуацию. Компания Nabla, соучредителем которой он является, в настоящее время тестирует систему, которая может в режиме реального времени прослушивать разговор между врачом и пациентом и предоставлять краткую информацию о том, что они сказали друг другу. Врачи заранее информируют своих пациентов о том, что система используется, и в качестве меры конфиденциальности она фактически не записывает разговор.

«Он показывает отчет, а затем врач подтверждает его одним щелчком мыши, и в 99% случаев это правильно и работает», — говорит он.

Резюме может быть загружено в систему больничной документации, что экономит драгоценное время врача.

Аналогичного подхода придерживаются и другие компании. В конце марта Nuance Communications, дочерняя компания Microsoft, объявила, что развертывание собственного сервиса ИИ предназначен для упрощения ведения заметок с использованием последней версии ChatGPT, GPT-4. Компания заявляет, что продемонстрирует свое программное обеспечение в конце этого месяца.

ИИ отражает человеческие предубеждения

Но даже если ИИ сможет сделать это правильно, это не значит, что он будет работать для каждого пациента, говорит он. Марзие Гассеми, ученый-компьютерщик, изучающий искусственный интеллект в здравоохранении в Массачусетском технологическом институте. Ее исследование показывает, что ИИ может быть предвзятым.

«Когда вы берете самые современные методы и системы машинного обучения, а затем оцениваете их на разных группах пациентов, они не работают одинаково», — говорит она.

Это потому, что эти системы обучаются на огромном количестве данных, созданных людьми. И будь то данные из Интернета или медицинские исследования, они содержат все человеческие предубеждения, которые уже существуют в нашем обществе.

Проблема, по ее словам, в том, что эти программы часто отражают эти предубеждения врач их использует. Например, ее команда попросила чат-бота с искусственным интеллектом, обученного работе с научными статьями и медицинскими заметками, закончить предложение из медицинской карты пациента.

«Когда мы говорили: «Белый или кавказский пациент был воинственным или агрессивным», модель заполнила пробел. [with] «Пациент был отправлен в больницу», — говорит она. «Если мы говорили: «Черный, афроамериканец или африканский пациент был воинственным или агрессивным», модель заканчивала заметку. [with] «Пациент был отправлен в тюрьму».

Гассеми говорит, что подобные результаты были получены во многих других исследованиях. Она опасается, что медицинские чат-боты будут повторять предубеждения и плохие решения врачам, и они просто соглашаются с этим.

ChatGPT может правильно ответить на многие медицинские вопросы, но эксперты предостерегают от использования его для медицинских консультаций.

МАРКО БЕРТОРЕЛЛО/AFP через Getty Images

скрыть заголовок

переключить заголовок

МАРКО БЕРТОРЕЛЛО/AFP через Getty Images

ChatGPT может правильно ответить на многие медицинские вопросы, но эксперты предостерегают от использования его для медицинских консультаций.

МАРКО БЕРТОРЕЛЛО/AFP через Getty Images

«В нем есть блеск объективности: «ChatGPT говорит, что вам не следует принимать это лекарство. Это не я — этот выбор сделала модель, алгоритм», — говорит она.

И дело не только в том, как отдельные врачи используют эти новые инструменты, добавляет Сону Тадани Исраниисследователь из Стэнфордского университета, который недавно был сопредседателем Исследование Национальной медицинской академии по ИИ.

«Я не знаю, разрабатываются ли разрабатываемые инструменты для снижения нагрузки на врача или для реального увеличения пропускной способности системы», — говорит она. Намерение окажет огромное влияние на то, как новая технология повлияет на пациентов.

Регуляторные органы стремятся не отставать от потока заявок на новые программы искусственного интеллекта. FDA, которое наблюдает за такими системами как «медицинскими устройствами», заявило в заявлении для NPR, что оно работает над тем, чтобы любое новое программное обеспечение ИИ соответствовало его стандартам.

«Агентство тесно сотрудничает с заинтересованными сторонами и следит за наукой, чтобы убедиться, что американцы получат выгоду от новых технологий по мере их дальнейшего развития, обеспечивая при этом безопасность и эффективность медицинских устройств», — заявил в электронном письме представитель Джим МакКинни.

Но не совсем понятно, в какую категорию FDA конкретно попадают чат-боты, поскольку, строго говоря, их работа заключается в синтезе информации из других источников. Лебрен из Nabla говорит, что его компания будет добиваться сертификации FDA для своего программного обеспечения, хотя, по его словам, в самой простой форме система ведения заметок Nabla этого не требует. Дерек Пол говорит, что Glass Health в настоящее время не планирует добиваться сертификации FDA для Glass AI.

Врачи дают чат-ботам шанс

И Лебрен, и Пол говорят, что хорошо осведомлены о проблемах предвзятости. И оба знают, что чат-боты иногда могут фабриковать ответы из воздуха. Пол говорит, что врачи, использующие систему искусственного интеллекта его компании, должны ее проверить.

«Вы должны контролировать это, как мы контролируем студентов-медиков и резидентов, а это значит, что вы не можете лениться», — говорит он.

Обе компании также заявляют, что работают над снижением риска ошибок и предвзятости. Учебник Glass Health, составленный людьми, написан командой из 30 клиницистов и клиницистов, проходящих обучение. ИИ полагается на него при написании диагнозов и планов лечения, что, по утверждению Пола, должно сделать его безопасным и надежным.

Лебрен говорит, что в Nabla он обучает программное обеспечение просто сжимать и подводить итоги разговора, не предоставляя какой-либо дополнительной интерпретации. Он считает, что строгое правило поможет снизить вероятность ошибок. Команда также работает с разнообразным набором врачей, расположенных по всему миру, чтобы исключить предвзятость в их программном обеспечении.

Несмотря на возможные риски, врачи, похоже, заинтересованы. Пол говорит, что в декабре в его компании было около 500 пользователей. Но после того, как они представили своего чат-бота, эти цифры подскочили.

«Мы закончили январь с 2000 активных пользователей в месяц, а в феврале у нас было 4800», — говорит Пол. Еще тысячи зарегистрировались в марте, так как перегруженные работой врачи выстраиваются в очередь, чтобы попробовать ИИ.



Source link