Почему вам не стоит полагаться на нейросеть в вопросах здоровья: разбираемся с педиатром Фёдором Катасоновым

Раньше мы гуглили свои симптомы, а сегодня обращаемся за диагнозом и советом к нейросетям. Это быстро и бесплатно, но далеко не всегда полезно и безопасно.
Может ли нейросеть правильно поставить диагноз
Иногда искусственный интеллект неплохо справляется с диагностикой. В одном учёные отправили 100 клинических случаев с жалобами и симптомами в чат-бот приложения Babylon Health и дали эту же информацию врачам. ИИ правильно определил заболевания в 80% историй болезни, а врачи — в 84% случаев.
Авторы другого проверили восемь приложений для диагностики и выяснили, что некоторые из них — Ada, Babylon и Buoy — хоть и не догнали врачей по точности, по крайней мере к ним приблизились.
Возможно, в будущем нейросети не только станут хорошими помощниками для врачей, но и полностью заменят некоторых специалистов.
Многие врачи пользуются нейросетями для работы с текстами и презентациями. Я, надо сказать, не из них: я не могу получить ту точность, которую хочу, и предпочитаю пока что работать вручную.
Сертифицированных ИИ для практических медицинских задач я пока не видел. Но вариантов применения искусственного интеллекта очень много. Самый базовый — это документооборот. Если ИИ будет заполнять все формы, направления и истории болезни, это уже сильно освободит врача для общения с пациентом.
Кроме того, ИИ могут хорошо оценивать изображения, если их заточить на это. Это означает описание всей визуальной диагностики (рентген, МРТ и прочее), описание ЭКГ и других графических методов. Уже сейчас компьютер может это делать лучше человека.
Возможно, ИИ скоро освоит и первичную интерпретацию анализов, анализ формально собранного анамнеза и многие другие технические действия, включая, например, создание индивидуального календаря прививок, которым я сейчас занимаюсь вручную.
В будущем ИИ точно заменит поликлинику, уверен, что заменит психотерапевтов, а со временем — и хирургов. В целом, я вполне верю в кибермедицину, как в сай-фай-фильмах, когда роботы проводят всю диагностику и лечение.
Кроме того, современные технологии позволяют вынести многие медицинские события за пределы клиник. С помощью носимых датчиков и систем анализа в реальном времени, а также систем доставки лекарств ИИ смогут оказывать часть помощи прямо на дому.
С точки зрения эффективности медицинской системы в целом, я думаю, что она выиграет от полной замены докторов на ИИ, когда ИИ станет точнее больше половины врачей. Если этот момент ещё не настал, то он близок.
Однако всё это, возможно, произойдёт в будущем и будет касаться специальных инструментов, разработанных для медицинской диагностики. Сейчас же чат-боты, популярные у обычных пользователей, не так хороши в распознавании болезней и выборе методов лечения.
Почему не стоит доверять нейросети постановку диагноза и выбор лечения
Есть несколько причин не доверять искусственному интеллекту своё здоровье.
Нейросеть не всегда ставит правильные диагнозы
Приложения, которые использовались в упомянутых , были созданы для диагностики заболеваний. ChatGPT и многие другие инструменты на основе искусственного интеллекта не на работу в здравоохранении и могут опираться на сомнительные источники информации.
Более того, хоть системы и обучаются, это не значит, что диагностика становится точнее. В 2018 году авторы одного выбрали несколько систем для проверки симптомов и ввели признаки трёх офтальмологических состояний: глаукомы, повреждения роговицы и синдрома сухого глаза. То же самое повторили через два года и сравнили результаты. Вот что получилось в итоге:
- Ada в 2018 году правильно распознала глаукому, но в 2020 году по тем же симптомам определила кластерную головную боль.
- Babylon при глаукоме рекомендовала срочно лечиться, но не поставила диагноз, а при сухом глазе — состоянии, которое не требует немедленной помощи врача, советовала записаться на приём в тот же день.
- Bouy, разработанная Гарвардской медицинской школой, не смогла определить синдром сухого глаза, а вместо повреждения сетчатки предположила катаракту и заболевание костей.
В другом авторы отметили, что для постановки верного диагноза очень важно, на какую выборку опирается искусственный интеллект. Например, если большая часть информации о заболевании получена от мужчин, возрастает риск ошибок при постановке диагноза женщинам. То же касается этнической группы и даже социально-экономического статуса людей.
Нейросеть может галлюцинировать и выдумывать факты
Существует такое явление, как галлюцинации искусственного интеллекта. Это грубые фактические нейросети — её выводы, не основанные на реальных данных. Такое случиться, если модель выбирает только часть имеющейся информации и игнорирует другую, более важную.
По разным данным, галлюцинаций у моделей ИИ варьируется от 8 до 20% в зависимости от сложности модели и качества данных, на которых она тренируется.
Поиск в Google — это худший вариант самодиагностики. ИИ-чаты обычно справляются лучше, но на сегодня массовые продукты так много галлюцинируют и врут, что их я бы тоже не советовал использовать. Уверен, появятся хорошие ИИ-диагносты, но это будут нейросети, тонко заточенные под эту работу, а не языковые модели.
Я проверял ChatGPT по базовым педиатрическим вопросам — он даёт дельные конвенциональные советы, лучше, чем средний врач в поликлинике. Но за пределами самых частых проблем начинаются выдумки. Поэтому этот ИИ я бы точно для диагностики не предлагал.
А ещё искусственный интеллект создавать синтетические данные — искусственно сгенерированную информацию, которая только имитирует настоящие факты, но не опирается на то, что было в реальности. Таким образом нейросеть может создать несуществующие истории болезни, симптомы и лечение, а затем снова их переработать, что создаст ещё больше дезинформации.
Мы неправильно вводим информацию и плохо выбираем из предложенных вариантов
В исследованиях, где нейросети диагностировали болезни не хуже, чем доктора, описание клинической картины врачи. Если то же самое будет делать человек без медицинского образования, пытаясь выяснить у чат-бота, почему болит глаз или кружится голова, результаты могут быть другими.
Люди вообще плохо понимают, как устроено и как работает тело. Это проблема школьного образования. Hо если говорить конкретно про описание симптомов, то этому легко обучиться при желании. Ничего сложного в этом нет.
Другое дело, что человек, который не может описать свои симптомы, наверняка не сможет верифицировать данные ему рекомендации. В таком случае безопаснее, возможно, сходить к врачу.
Есть одно интересное , пока что не опубликованное в рецензируемом научном журнале. Во время эксперимента учёные набрали 1 298 человек, разделили их на четыре группы и попросили участников из трёх использовать разные модели искусственного интеллекта: GPT-4o, Llama 3 или Command R+. Контрольной группе достался обычный поиск в интернете.
Врачи составили для участников 10 медицинских сценариев и подробно расписали там симптомы и жалобы. Людям оставалось ввести это в чат-бот, выяснить свой диагноз и дальнейшие действия — полечиться дома, сходить к врачу или звонить в неотложку.
Оказалось, что результаты диагностики сильно зависят от того, кто вводит информацию и интерпретирует полученные сведения. Когда к чат-ботам обращались врачи, нейросети ставили правильный диагноз в 95% случаев, а подходящие советы давали в 56% случаев. Но когда искусственный интеллект использовали испытуемые, точность прогнозов сильно снижалась. Модели определяли состояние менее чем в 34% случаев, а верный курс действий — не чаще, чем в 44%. Когда люди просто искали ответ в интернете, без искусственного интеллекта, точность самодиагностики возрастала до 47%.
Учёные решили, что ошибки в диагностике возникали по двум причинам:
- Люди не давали нейросети полную информацию, хоть она у них и была.
- Участники не использовали правильные предположения в своих выводах. Чат-бот обычно даёт 2–3 варианта ответа, и люди плохо выбирают, что из них больше подходит к их состоянию.
Другое показало, что пользователям чат-ботов нелегко определить, насколько им плохо на самом деле, и ещё сложнее правильно рассказать об этом боту. В разговоре с живым человеком проще описать симптомы, их тяжесть и частоту проявления.
Кроме того, в отличие от бота, врач может сочувствовать, поддерживать диалог и считывать невербальные сигналы. В общем, применять все инструменты человеческого взаимодействия, которые помогают нам понимать друг друга.
Нейросеть даёт туманные советы, которым мало кто следует
Недавно вышло , в котором учёные проверили способность GPT-4о ставить верные диагнозы и давать рекомендации. Авторы работы вводили вопросы, которые могли появиться у пользователей, а студенты-медики проверяли ответы нейросети. Оказалось, что только 37% диагнозов были верными. Более того, около 60% ответов, вне зависимости от того, правильными они были или нет, показались людям туманными и неясными.
Авторы другого отметили, что хоть людям и нравится использовать инструменты для проверки симптомов, они редко следуют предписаниям. Даже советы врачей часто остаются без внимания, что уж говорить о чат-боте, который явно проигрывает специалисту в авторитете.
Безусловно, любая медицинская информация независимо от источника — это повод для тревог и разного рода действий, которые могут оказаться вредными. Я не считаю, что врач должен узурпировать все вопросы здоровья человека, каждый имеет право делать со своим телом что хочет, в том числе бессмысленные анализы и УЗИ. Но задача врача — обучить человека, почему этого не надо делать и какой это может нанести вред.
Я не думаю, что ИИ опаснее среднего врача из поликлиники: оба могут напугать и посоветовать радикально не то. Но всё же я думаю, что лучше дождаться таких ИИ, которые будут заточены на медицине и станут допускать меньше ошибок. А до их появления обращаться к живым людям.
Как использовать чат-ботов, чтобы не навредить себе
Чат-боты могут дать полезную информацию, но всё же не стоит слепо им доверять.
Спрашивайте, когда записаться к врачу
Если появились симптомы болезни, спросите чат-бота, насколько срочно нужно идти к врачу.
Лучше всего применять для этого не языковые модели ИИ, а специализированные медицинские сервисы. Нужно будет пройти небольшой опрос о симптомах, и робот выдаст вам возможный диагноз, посоветует врача и скажет, насколько срочно нужно к нему записаться.
Я считаю, что сервисы для проверки диагнозов весьма полезны, особенно когда доступность и качество медицинской помощи низкие. Врач работает по определённому алгоритму, и какую-то часть этого алгоритма вполне может выполнить робот, даже не обязательно с ИИ.
Сопоставить симптомы и красные флаги, подсказать, к какому врачу идти, — это всё техническая задача, которая давно так или иначе решается. Но такие сервисы обычно очень осторожны и в случае любых подозрений отправляют к врачу.
В реальности идти к врачу надо, возможно, не всегда, и пока что лучшую помощь такого рода оказывают всё же люди, как в сервисе Symptomato.com. Но я думаю, что скоро ИИ будет справляться почти так же хорошо, если правильно его обучить и проводить регулярную супервизию.
Только помните, что если вы планируете записаться в государственную поликлинику, в любом случае сначала нужно идти к терапевту. Он уже направит вас к узким специалистам.
Проверяйте диагноз, если сомневаетесь в нём
Если сомневаетесь в назначении врача, можно проверять план лечения с помощью искусственного интеллекта.
Если нет доверия к врачу, проверять план лечения полезно. Это можно делать и без ИИ, например сопоставляя диагноз и существующие рекомендации любой развитой страны. Но можно и с помощью ChatGPT, надо только проверять его по 1–2 источникам. Собственно, можно просить его искать эти рекомендации при определённых диагнозах.
Верификация назначений — это вообще большая задача, которой надо учиться. Моя книга «Федиатрия II», которая должна выйти в ближайшие месяцы, как раз об этом. Но с нашим уровнем медицины это, увы, просто вопрос самосохранения. Тупо доверять среднему врачу может быть опасно.
Попросите чат-бота искать данные в авторитетных источниках медицинской информации, таких как National Health Service, Centers for Disease Control and Prevention, WHO, Patient.info.
Но помните, что даже это не гарантирует точности, поскольку ИИ может галлюцинировать. В одной врач Эндрю Тэйлор, проводивший симпозиум по ИИ в медицине, рассказал, как просил ИИ составить документ по научным исследованиям. Чат-бот выдал ему результат с корректной информацией, но выдуманными научными статьями. Поэтому лучше проверять не только источники, но и то, содержится ли в них указанная информация.
Не просите назначить лечение
Вы можете усомниться в назначении врача, но не стоит выбирать лечение и оценивать свои риски, опираясь на мнение чат-ботов.
Если данные от ИИ сильно отличаются от того, что вам сказал врач, обратитесь к другому доктору за альтернативным мнением.
Используйте для формирования полезных привычек
Чат-бот может поддержать вас на пути к здоровому образу жизни. Если у вас нет ограничений по питанию и физическим нагрузкам, ИИ может составить вам полезную диету и план тренировок, дать советы по борьбе со стрессом и улучшению качества сна.

















Лучшие предложения
Забираем дебетовку «Т-банка» с 2 000 баллов и повышенным кешбэком за автоуслуги
Кроссовки от Li-Ning, которые не боятся слякоти, отдают со скидкой 37%
Три необычных продукта, которые точно стоит попробовать во «ВкусВилле»
Находки AliExpress: самые интересные и полезные товары недели
Нескользящий коврик для йоги, на который можно залипнуть после тренировки
7 надёжных камер для безопасности людей и питомцев
100 отличных подарков маме на день рождения
15 классных вещей, которые стоит купить у российского бренда Muted
3 настолки, которые можно подарить на любой праздник
T2 вновь дарит подарки на Новый год. Три причины, почему вам об этом стоит знать (даже если вы не клиент)
Три необычных продукта, которые точно стоит попробовать во «ВкусВилле»
Усиленная прочность, приятная камера, флагманская выносливость: обзор REDMI Note 15 Pro+ 5G
Реклама