«Программа искусственного интеллекта в сфере здравоохранения может привести пациентов и врачей ближе друг к другу»

«Искусственный интеллект в медицине объединение пациентов и врачей»

10 ноября 2023 года – Возможно, вы уже использовали ChatGPT-4 или одного из других новых искусственных интеллектовых чатботов, чтобы задать вопрос о вашем состоянии здоровья. Или, может быть, ваш врач использует ChatGPT-4, чтобы составить сводку о том, что произошло на вашем последнем визите. Возможно, ваш врач даже позволяет чатботу проверить диагноз вашего состояния.

Но на данном этапе развития этой новой технологии, как говорят эксперты, и потребителям, и врачам стоит быть осторожными. Несмотря на уверенность, с которой искусственный интеллект чатбота предоставляет запрошенную информацию, она не всегда является точной.

По мере распространения использования чатботов на основе искусственного интеллекта как в сфере здравоохранения, так и в других областях, начинают звучать все больше призывов о государственном регулировании этой технологии для защиты общества от возможных непредвиденных последствий, связанных с искусственным интеллектом.

Недавно федеральное правительство сделало первый шаг в этом направлении, когда Президент Джо Байден подписал указ, требующий от правительственных органов разработать способы регулирования использования искусственного интеллекта. В области здравоохранения указ направлен на Министерство здравоохранения и социального обслуживания с целью продвижения ответственной инновации в области искусственного интеллекта, которая «содействует благополучию пациентов и работников сектора здравоохранения».

Среди прочих задач, агентство должно будет создать рабочую группу по применению искусственного интеллекта в здравоохранении в течение года. Эта рабочая группа будет разрабатывать план регулирования использования искусственного интеллекта и приложений на его основе в области предоставления медицинской помощи, общественного здравоохранения, исследований и разработок лекарственных средств и медицинских изделий, а также их безопасности.

Стратегический план также будет затрагивать «долгосрочное обеспечение безопасности и мониторинг результативности технологий на основе искусственного интеллекта в реальных условиях». Министерство также должно будет разработать способ определения того, соответствуют ли технологии на основе искусственного интеллекта «соответствующим стандартам качества». И совместно с другими организациями и государственными учреждениями по обеспечению безопасности пациентов, Министерство здравоохранения и социального обслуживания должно будет создать рамки для выявления ошибок, «вызванных использованием искусственного интеллекта в клинических условиях».

Исполнительный указ Байдена – «хороший первый шаг», сказала Ида Сим, доктор медицины, доктор философии, профессор медицины и информатики в области прецизионного здравоохранения, а также главный научный информационный офицер Университета Калифорнии в Сан-Франциско.

Джон У. Эйерс, доктор философии, заместитель директора по информатике в Исследовательском институте Альтмана по клиническим и трансляционным исследованиям в Университете Калифорнии в Сан-Диего, согласился. Он сказал, что, хотя здравоохранение подвержено строгому контролю, нет конкретных правил регулирования использования искусственного интеллекта в этой области.

«Эта особенная ситуация обусловлена быстрым развитием искусственного интеллекта, и регуляторы не всегда успевают за ним», – сказал он. Он отметил, что важно двигаться осторожно в этой области, чтобы новые правила не препятствовали медицинскому прогрессу.

Проблема «галлюцинаций» преследует искусственный интеллект

За год, с момента появления ChatGPT-4, удивившего своим говорящим образом и знаниями на различные темы, чатбот и подобные ему уже прочно зарекомендовали себя в области здравоохранения. По одному исследованию, 14% врачей уже применяют эти «разговорные агенты», чтобы помочь в диагностике пациентов, разрабатывать планы лечения и взаимодействовать с пациентами онлайн. Чатботы также используются для анализа информации из медицинских записей перед приемом пациентов и составления сводки для пациентов.

Потребители также начали использовать чатботов для поиска информации о здоровье, понимания уведомлений об условиях страхования и анализа результатов лабораторных испытаний.

Основная проблема заключается в том, что искусственный интеллект чатботов не всегда прав. Иногда они выдумывают то, чего на самом деле нет – они «галлюцинируют», как говорят некоторые наблюдатели. В соответствии с недавним исследованием, проведенным стартапом Vectara, основанным бывшими сотрудниками Google, чатботы придумывают информацию не менее 3% времени – и порой до 27% времени, в зависимости от бота. Другой отчет пришел к подобным выводам.

Это не означает, что чатботы не чрезвычайно точны в своих ответах большую часть времени. В одном исследовании 33 врачей 17 специализаций задавали чатботам 284 вопроса медицинского характера различной сложности и оценивали их ответы. Более половины ответов были оценены как практически правильные или полностью правильные. Но на ответы по 15 вопросам была поставлена оценка полностью неправильных.

Google создал чат-бот по имени Med-PaLM, который основан на медицинских знаниях. Этот чат-бот, успешно сдавший медицинский экзамен, имеет точность в 92,6% отвечающих на медицинские вопросы, примерно так же, как у врачей, согласно исследованию Google.

Айерс и его коллеги провели исследование, сравнивающее ответы чат-ботов и врачей на вопросы пациентов, заданные онлайн. Здравственные работники оценивали ответы и предпочитали ответ чат-бота почти в 80% случаев. Ответы врачей были оценены ниже как по качеству, так и по эмпатии. Исследователи предположили, что врачи могли менее эмпатично отвечать из-за напряжения практической работы.

Сортируй мусор

Чат-боты могут использоваться для определения редких диагнозов или объяснения необычных симптомов, а также для консультации, чтобы убедиться, что врачи не пропускают очевидные диагностические возможности. Для этого они должны быть встроены в электронную систему записей о здоровье клиники. Microsoft уже встроил ChatGPT-4 в самую распространенную систему электронных записей о здоровье от Epic Systems.

Одна из проблем для любого чат-бота заключается в том, что записи могут содержать некорректную информацию или быть неполными. Многие диагностические ошибки связаны с неправильно взятыми анамнезами и скетчевыми физическими осмотрами, задокументированными в электронной системе записей о здоровье. Эти записи обычно не содержат достаточно или вообще никакой информации из записей других практикующих врачей, видевших пациента. Исходя только из недостаточной информации в записи пациента, быть и врачу, и искусственному интеллекту сложно сделать правильное заключение в конкретном случае. Об этом сказал Айерс. Вот где опыт и знания врача о пациентах очень ценны.

Однако, как показало исследование Айерса, чат-боты довольно хороши в общении с пациентами. При наличии контроля со стороны человека у таких разговорных агентов, как сказал он, вероятно, возможность снять с плеч врачей бремя онлайн переписки с пациентами. И, сказал он, это может улучшить качество ухода.

«Разговорный агент – это не просто что-то, что может обрабатывать ваш почтовый ящик или разгрузить его. Это может превратить ваш почтовый ящик в исходящий через активные сообщения пациентам», – сказал Айерс.

Боты могут отправлять пациентам персональные сообщения, адаптированные к их записям и тому, что врачи считают нужным для них. «Что бы это сделало для пациентов?» – сказал Айерс. «Здесь огромный потенциал изменить взаимодействие пациентов с медицинскими работниками».

Плюсы и минусы чат-ботов

Если чат-боты могут использоваться для генерации сообщений для пациентов, они также могут играть важную роль в управлении хроническими заболеваниями, которые затрагивают до 60% всех американцев.

Сим, которая также является врачом первичного ухода, объясняет это так: «Хроническое заболевание – это то, что у вас есть 24/7. Я вижу своих самых больных пациентов 20 минут каждый месяц в среднем, так что я делаю небольшую часть управления хроническими заболеваниями».

Она говорит своим пациентам заниматься физическими упражнениями, контролировать свой вес и принимать лекарства по назначению.

«Но я не оказываю никакой поддержки дома», – говорит Сим. – «Из-за их возможности использовать естественный язык, разговорные агенты на искусственном интеллекте могут быть находиться с пациентами способом, которым мы, врачи, не можем».

Как сказала она, помимо предоставления советов пациентам и их опекунам, разговорные агенты также могут анализировать данные от мониторирующих датчиков и задавать вопросы о состоянии пациента от дня к дню. Хотя ничто из этого не произойдет в ближайшем будущем, это представляет огромные возможности.

Айерс согласился, но предупредил, что следует проводить случайные контролируемые исследования, чтобы установить, действительно ли сервис сообщений с искусственным интеллектом может улучшить результаты лечения пациентов.

«Если на этих разговорных агентах мы не проводим ответственные открытые научные исследования, я могу представить себе ситуации, когда они будут внедрены и вызовут вред», – сказал он.

В целом, сказал Айерс, национальная стратегия по искусственному интеллекту должна быть ориентирована на пациентов, а не на то, как чат-боты помогают врачам или снижают административные расходы.

С точки зрения потребителя, Айерс сказал, что он опасается, что программы искусственного интеллекта могут давать “универсальные рекомендации пациентам, которые могут быть незначительными или даже вредными”.

Сим также подчеркнул, что потребители не должны полагаться на ответы, которые дает чат-бот на вопросы о здоровье.

“Вокруг этого нужно быть очень осторожным. Эти вещи настолько убедительны в использовании естественного языка. Я думаю, это огромный риск. Как минимум, общественности следует сообщать: “Здесь есть чат-бот, и он может быть неправильным”.