Помилкові звинувачення від ChatGPT: чат-бот "пришив" американському професору домагання

Помилкові звинувачення від ChatGPT: чат-бот "пришив" американському професору домагання
Джонатан Терлі, американський професор права, якого ChatGPT звинуватив у сексуальних домаганнях. Фото: ABC News

ChatGPT помилково звинуватив американського професора права в сексуальних домаганнях, включивши його до згенерованого списку науковців-юристів, яких викрили у сексуальних домаганнях. 

Про це повідомляє видання The Independent.

Читайте також:

Деталі

Видання посилається на статтю в USA Today, у якій професор Університета Джорджа Вашингтона Джонатан Терлі написав, що ChatGPT звинуватив його у домаганнях до студентів факультету, на якому він ніколи не викладав, під час поїздки, у яку ніколи не їздив.

Професор попросив чат-бот згенерувати список науковців у сфері права, які вчиняли сексуальне домагання.

У списку Джонатан Терлі знайшов власне ім'я. Нібито він відпускав коментарі з сексуальним підтекстом та намагався торкнутися студентки під час навчальної поїздки на Аляску. Штучний інтелект посилався на статтю з The Washington Post за 2018 рік, якої насправді ніколи не існувало, і видання це підтвердило.

"Найбільш разючим є те, що це неправдиве звинувачення було не просто згенероване штучним інтелектом, а нібито засноване на статті в Post, якої ніколи не існувало", — написав Терлі у своєму твіттері.

Небезпека ChatGPT

У чат-бота були й інші випадки неправдивих звинувачень. 

Приміром, ChatGPT стверджував, що Брайан Гуд, мер австралійського міста Гепберн Шир, був ув'язнений за хабарництво. Його назвали винним у скандалі з хабарництвом за кордоном, пов'язаному з дочірньою компанією Резервного банку Австралії на початку 2000-х років.

Однак вигадка тут не все. Як повідомляє Reuters, Брайан Гуд дійсно працював у цій дочірній компанії. 

Адвокати мера написали лист OpenAI, в якому повідомили, що дають компанії 28 днів на виправлення помилок, або ж їм доведеться зіткнутись з судовим позовом щодо наклепу.

Експерт зі штучного інтелекту Університету Південної Каліфорнії Кейт Кроуфорд називає такі неправдиві історії, створені чат-ботами, "галюцинаціями".

Кілька вчених за останні місяці вже висловили занепокоєння, що використання чат-ботів може зашкодити академічному середовищу, насамперед через питання точності контенту, який вони генерують.

Однак прессекретар OpenAI Ніко Фелікс вже заявив в інтерв'ю The Washington Post, що підвищення точності фактів є "значним фокусом" для компанії, додавши, що вона "досягає прогресу".

Нагадаю, нещодавно Канада розпочала розслідування щодо зловживання ChatGPT особистими даними користувачів.

Також чат-бот розповів про повстання штучного інтелекту, під'єднавшись до іграшки Furby.