Ошибочные обвинения от ChatGPT: чат-бот "пришил" американскому профессору домогательства

Джонатан Терли, американский профессор права, которого ChatGPT обвинил в сексуальных домогательствах. Фото: ABC News

ChatGPT ошибочно обвинил американского профессора права в сексуальных домогательствах, включив его в сгенерированный список ученых-юристов, разоблаченных в сексуальных домогательствах.

Об этом сообщает издание The Independent.

Подробности

Издание ссылается на статью в USA Today, в которой профессор Университета Джорджа Вашингтона Джонатан Терли написал, что ChatGPT обвинил его в притязаниях к студентам факультета, на котором он никогда не преподавал, во время поездки, в которую никогда не ездил.

Профессор попросил чат-бот сгенерировать список ученых в сфере права, совершавших сексуальное домогательство.

В списке Джонатан Терли нашел свое имя. Якобы он отпускал комментарии с сексуальным подтекстом и пытался затронуть студентку во время учебной поездки на Аляску. Искусственный интеллект ссылался на статью The Washington Post за 2018 год, которой на самом деле никогда не существовало, и издание это подтвердило.

"Наиболее впечатляющим является то, что это ложное обвинение было не просто сгенерировано искусственным интеллектом, а якобы основано на статье в Post, которой никогда не существовало", — написал Терли в своем твиттере.

Опасность ChatGPT

У чат-бота были и другие случаи ложных обвинений.

К примеру, ChatGPT утверждал, что Брайан Гуд, мэр австралийского города Гепберн Шир, был арестован за взяточничество. Его назвали виновным в скандале со взяточничеством за границей, связанном с дочерней компанией Резервного банка Австралии в начале 2000-х годов.

Однако вымысел здесь не все. Как сообщает Reuters, Брайан Гуд действительно работал в этой дочерней компании.

Адвокаты мэра написали письмо OpenAI, в котором сообщили, что дают компании 28 дней на исправление ошибок, или же им придется столкнуться с судебным иском о клевете.

Эксперт по искусственному интеллекту Университета Южной Калифорнии Кейт Кроуфорд называет такие ложные истории, созданные чат-ботами, "галлюцинациями".

Несколько ученых за последние месяцы уже выразили обеспокоенность, что использование чат-ботов может навредить академической среде, прежде всего из-за вопроса точности генерируемого ими контента.

Однако пресс-секретарь OpenAI Нико Феликс уже заявил в интервью The Washington Post, что повышение точности фактов является "значительным фокусом" для компании, добавив, что она "достигает прогресс".

Напомним, недавно Канада начала расследование злоупотребления ChatGPT личными данными пользователей.

Также чат-бот рассказал о восстании искусственного интеллекта, подключившись к игрушке Furby.