Небезпечна самодіагностика: як ChatGPT ледь не вбив жінку

Самодіагностика за допомогою ChatGPT може вбити: лікар провів наочний експеримент
Лікар перевірив ChatGPT на здатність ставити правильні діагнози пацієнтам

Багато експертів пророкують ChatGPT велике майбутнє й застерігають, що вже у найближчі роки штучний інтелект може знищити мільйони робочих місць. А в США модель штучного інтелекту навіть пройшла іспит з отримання медичної ліцензії, яка дозволяє лікарям практикувати. Та чи здатна нейромережа замінити медика?

Показовий експеримент провів американський доктор Джош Тамайо-Сарвер, який працює у відділенні невідкладної допомоги. Про це пише видання PRESS hub

Читайте також:

Чи може ChatGPT бути помічником для лікаря — експеримент 

Лікар залив у чатбот історію хвороби 40 людей, яких він лікував сам впродовж певного часу та попросив підібрати можливі діагнози на основі отриманих медичних даних.

Тамайо-Сарвер зазначив, що нейромережа впоралася з аналізом поширених діагнозів. 

"Приблизно для половини моїх пацієнтів ChatGPT запропонував шість можливих діагнозів, і "правильний" діагноз — або принаймні діагноз, який я вважаю правильним після повної оцінки та тестування — був серед шести запропонованих", — пояснив лікар.

Попри це лікар зробив висновок, що для швидкої допомоги знань та умінь чатбота недостатньо. Оскільки помилка може стати фатальною. 

Чи може ChatGPT бути помічником для лікаря — експеримент

Як ChatGPT ледь не вбив пацієнтку та чому не варто займатися самодіагностикою 

У пацієнтки була позаматкова вагітність, при якій плід з вадами розвитку розвивається в матковій трубі, а не в її матці. Та вона не знала про свою вагітність. 

Тож поскаржилася лікарю на погане самопочуття та назвала симптоми, які її турбували. У реальній ситуації лікар вчасно зрозумів що до чого та прооперував молоду пацієнту і врятував її.

Водночас штучний інтелект не зміг визначити позаматкову вагітність жінки, про яку пацієнтка не знала. Занадто пізно діагностований стан міг би призвести до смерті від внутрішньої кровотечі.

"Я боюся, що незліченна кількість людей уже використовують ChatGPT для самодіагностики замість того, щоб відвідувати лікаря. Якби моя пацієнтка в цьому випадку зробила це, відповідь ChatGPT могла б її вбити", — попередив лікар.

Як ChatGPT ледь не вбив пацієнтку

ChatGPT також поставив неправильний діагноз ще кільком іншим пацієнтам, які мали небезпечні для життя стани. 

Так пацієнту з болем у грудях він поставив діагноз "каміння в нирках", але пропустив той факт, що у пацієнта насправді був розрив аорти. 

Лікар зробив висновок, що технологія працює, лише якщо у пацієнта є якісь загальні симптоми, для деяких класичних випадків і які представлені дуже чітко. Але більшість людей, які звертаються до відділень невідкладної допомоги, не є класичними випадками.

"Якщо хтось приходить до мене в приймальне відділення і каже, що у нього болить зап’ястя, але це не через нещодавню аварію, це може бути психосоматична реакція після падіння онука пацієнта, або це може бути захворювання, що передається статевим шляхом, або це може бути щось інше. Мистецтво медицини — це витягувати всю необхідну інформацію для створення правильного діагнозу", — підсумував лікар.

Самодіагностика за допомогою ChatGPT

Нагадаємо, ми писали, про те, що ChatGPT вдалося поставити точний діагноз хворому псу. Завдяки цьому ветеринари призначили чотирилапому правильне лікування.