Опасная самодиагностика: как ChatGPT чуть не убил женщину
Многие эксперты пророчат ChatGPT большое будущее и предостерегают, что уже в ближайшие годы искусственный интеллект может уничтожить миллионы рабочих мест. А в США модель искусственного интеллекта даже прошла экзамен по получению медицинской лицензии, которая позволяет врачам практиковать. Но способна ли нейросеть заменить медика?
Показательный эксперимент провел американский доктор Джош Тамайо-Сарвер, который работает в отделении неотложной помощи. Об этом пишет издание PRESS hub.
Может ли ChatGPT быть помощником для врача — эксперимент
Врач залил в чат-бот историю болезни 40 человек, которых он лечил сам в течение определенного времени и попросил подобрать возможные диагнозы на основе полученных медицинских данных.
Тамайо-Сарвер отметил, что нейросеть справилась с анализом распространенных диагнозов.
"Приблизительно для половины моих пациентов ChatGPT предложил шесть возможных диагнозов, и "правильный" диагноз — или по крайней мере диагноз, который я считаю правильным после полной оценки и тестирования — был среди шести предложенных", — объяснил врач.
Несмотря на это, врач заключил, что для скорой помощи знаний и умений чата недостаточно. Поскольку ошибка может стать роковой.
Как ChatGPT чуть не убил пациентку и почему не стоит заниматься самодиагностикой
У пациентки была внематочная беременность, при которой плод с пороками развития развивается в маточной трубе, а не в матке. Но она не знала о своей беременности.
Поэтому пожаловалась врачу на плохое самочувствие и назвала беспокоившие ее симптомы. В реальной ситуации врач вовремя понял, что к чему и прооперировал молодую пациенту и спас ее.
В то же время, искусственный интеллект не смог определить внематочную беременность женщины, о которой пациентка не знала. Слишком поздно диагностированное состояние могло бы привести к смерти от внутреннего кровотечения.
"Я боюсь, что бесчисленное количество людей уже используют ChatGPT для самодиагностики вместо того, чтобы посещать врача. Если бы моя пациентка в этом случае сделала это, ответ ChatGPT мог бы ее убить", — предупредил врач.
ChatGPT также поставил неправильный диагноз еще нескольким другим пациентам, которые имели опасные для жизни состояния.
Так пациенту с болью в груди он поставил диагноз "камни в почках", но упустил тот факт, что у пациента на самом деле был разрыв аорты.
Врач заключил, что технология работает, только если у пациента есть какие-то общие симптомы, для некоторых классических случаев и которые представлены очень четко. Но большинство людей, которые обращаются в отделения неотложной помощи, не являются классическими случаями.
"Если кто-то приходит ко мне в приемное отделение и говорит, что у него болит запястье, но это не из-за недавней аварии, это может быть психосоматическая реакция после падения внука пациента, или это может быть заболевание, передающееся половым путем, или это может быть что-то другое. Искусство медицины — это извлекать всю необходимую информацию для создания правильного диагноза", — подытожил врач.
Напомним, мы писали, о том, что ChatGPT удалось поставить точный диагноз больному псу. Благодаря этому ветеринары назначили четырехлапому правильное лечение.
Читайте Новини.LIVE!