В серьезном англоязычном журнале по неврологии автор – врач с многолетним стажем – делится неожиданным опытом: на прием пришла пациентка с жалобами на головокружение и с ходу потребовала провести ей тест с наклонным столом. Доктор, немного ошарашенная таким напором, уточнила осторожно: «Вы работаете в здравоохранении?» «Нет, – ответила пациентка. – Я посоветовалась с нейросетью. Теперь мне будет проще отстаивать свои интересы».

Дальше был долгий, нудный и, увы, малопродуктивный диалог между доктором и пациентом. Врач пыталась объяснить, что неплохо было бы сначала узнать все жалобы, потом провести осмотр и, наконец, составить примерный список обследований. Если таковые вообще понадобятся. Ведь некоторые диагнозы могут быть поставлены клинически, без каких-либо дополнительных обследований. Но это знание отчего-то совсем не воодушевляет современных пациентов. Они полагают, что нейросеть – их надежный друг, помощник и защитник интересов, их мудрый проводник в хитросплетениях системы здравоохранения. Врачи, разумеется, не согласны. Но кому интересно, что думают специалисты, когда на экране смартфона есть подробный алгоритм диагностики и лечения, раскрашенный смайликами? От доктора теперь требуется только направление. И, может быть, рецепт для аптеки.

В России ситуация обстоит примерно так же. Пациентов, которые приходили на прием с уверенным заявлением, что они прочитали в Интернете то и это и пусть теперь доктор только попробует им это не назначить, сменило новое поколение потребителей услуг здравоохранения. Они, эти потребители, вооружены искусственным интеллектом и убеждены, что тот справляется с поддержанием человеческого здоровья куда лучше, чем специально обученные люди с годами медицинской практики.

В этой статье я хочу рассказать, почему не стоит безоговорочно доверять искусственному интеллекту. Я постараюсь убедить читателей в том, что живых врачей в белых халатах еще не скоро заменят андроиды со встроенными алгоритмами.

Почему лечиться при помощи ChatGPT – плохая идея?
Dima Solomin / unsplash

Работать с текстом не значит работать с клинической картиной в целом

«Меня беспокоит снижение памяти», – сообщает в строке ChatGpt пациентка. Она молода, ничем не болеет, но страдает от сильного стресса и перегрузок на работе. Она уверена, что у нее начинается болезнь Альцгеймера, потому что ее бабушка страдала от этого недуга. Нейросеть задает несколько наводящих вопросов и подтверждает этот «диагноз». В то время как у молодой женщины налицо все симптомы депрессии. И когнитивное снижение способностей у нее связано вовсе не с накоплением тау-протеина в мозге. Более того, пациентке можно помочь, и довольно эффективно. Вот только она об этом не знает. Потому что сразу отправляется в аптеку и начинает принимать биодобавку с экстрактом гинкго билоба по совету из смартфона. Симптомы депрессии никуда не деваются, качество жизни ухудшается.

Почему так происходит? Пациент не всегда осознает все симптомы, а потому зачастую не называет полный список, останавливаясь лишь на том, что считает значимым для себя

А врач обладает клиническим мышлением. То есть достраивает недостающие детали складывающегося у него в голове пазла. И задает наводящие вопросы, которые порой удивляют больного: откуда доктор мог угадать, что и этот симптом тоже имеется?

Именно поэтому врачи не любят консультировать в Интернете. Нет полной картины, легко можно ошибиться, упустить что-то важное.

Почему лечиться при помощи ChatGPT – плохая идея?
Dima Solomin / unsplash

Обманчивая убедительность

Нейросети бывают очень убедительны. Они строят предложения в соответствии с правилами литературного русского языка и делают выводы, которые, на первый взгляд, кажутся вполне логичными. Например, что головокружение – это всегда неврологический симптом. А значит, начинать нужно с обследования невролога. Но это совсем не так. Ведь голова может кружиться и от дефицита железа, и от сахарного диабета, и от переутомления, да и от недосыпания или голода, наконец. И усилия невролога в этих ситуациях будут абсолютно лишними. Как и траты времени и средств пациента.

Отсутствие ответственности

Кажется, будто нейросеть не может писать неправду. Ведь она так ловко составляет маркированные списки, выдвигает клинические гипотезы и предлагает варианты лечения. Хорошо, если в конце будет предупреждение: «Не занимайтесь самолечением, это может быть опасно. Обратитесь к врачу».

С появлением Интернета мы быстро привыкли, что консультацию врача можно порой получить не выходя из дома

И пусть доктор не имеет права назначать лечение удаленно, но он может проинформировать о вариантах заболевания и дальнейшей диагностики, а также записать вас на прием.

И по привычке может казаться, будто нейросеть – это такой же доктор. Просто он не ограничен действующим законодательством, а потому не придерживается ненужных и глупых ограничений в виде необходимости очной явки пациента на прием. А сразу же щедро раздает советы. Но задумайтесь: нейросеть не несет никакой ответственности за свою деятельность. А источники, из которых черпается информация, могут быть непроверенными или вредными.

Почему лечиться при помощи ChatGPT – плохая идея?
Dima Solomin / unsplash

Игнорирование индивидуальных особенностей

Существуют клинические рекомендации, то есть определенные алгоритмы, которые основаны, как правило, на качественных исследованиях. Врачи обязаны использовать их в своей работе. То есть времена, когда законно можно было лечить пациента по «авторским» методикам, которые включали шерсть единорога и пыльцу лесных фей, прошли. Но это не значит, что любой человек получает одну и ту же последовательность таблеток, которая одобрена Минздравом.

Может, в городской поликлинике, где у врача семь минут на каждого больного, все и происходит именно так. Но тут нет вины медицинских работников. Есть только проблема дефицита времени, выгорания врачей и перегрузки системы помощи пациентам. В нормальной же медицине, которая в России тоже есть, врач учитывает ваши индивидуальные особенности: сопутствующие заболевания, опыт применения тех или иных лекарств и даже ваши пожелания.

Эпоха, когда доктор уверенно практиковал патерналистскую модель, которая подразумевает только слепое подчинение рекомендациям врача, ушла в прошлое. Давно доказано в исследованиях, что только разделение ответственности, то есть партнерская модель отношений, помогает достигнуть оптимального результата в лечении.

Сможет ли нейросеть оценить все вводные данные? Вряд ли, ведь вы не знаете, что важно, а что нет

О чем обязательно следует сообщить искусственному интеллекту, а что можно оставить без внимания. А значит, в лучшем случае вы получите универсальный алгоритм. Без гарантий, что он окажется правильным.

Вместо заключения

Не торопитесь требовать у доктора тест на наклонном столе, если страдаете от головокружения. Поверьте, это не лучшее начало разговора. Безусловно, специалисту еще предстоит завоевать ваше доверие. Здесь хочется привести еще один пример: на прием к одному врачу пришла пациентка с готовым списком обследований. Она недавно потеряла ребенка и намеревалась сделать так, чтобы следующая беременность прошла идеально. А потому в жесткой форме потребовала у гинеколога выписать ей все направления по списку.

Доктор был ошарашен. Однако он взял паузу, глубоко вдохнул и сказал: «Мы обязательно обсудим необходимые варианты обследования. Однако разрешите сначала выразить вам мои соболезнования. Мне трудно представить, что вам пришлось пережить. Я очень надеюсь, что это не повторится». Так началась история доверительных отношений между хорошим врачом и его пациенткой. Не думаю, что эта женщина с тех пор находила нужным консультироваться с ChatGPT по каким-либо медицинским вопросам. А потому желаю вам найти своего доктора, которому вы будете доверять.

Будьте здоровы!