Помилкові звинувачення від ChatGPT: чат-бот "пришив" американському професору домагання

Помилкові звинувачення від ChatGPT: чат-бот "пришив" американському професору домагання
Джонатан Терлі, американський професор права, якого ChatGPT звинуватив у сексуальних домаганнях. Фото: ABC News

ChatGPT помилково звинуватив американського професора права в сексуальних домаганнях, включивши його до згенерованого списку науковців-юристів, яких викрили у сексуальних домаганнях. 

Про це повідомляє видання The Independent.

Читайте також:

Деталі

Видання посилається на статтю в USA Today, у якій професор Університета Джорджа Вашингтона Джонатан Терлі написав, що ChatGPT звинуватив його у домаганнях до студентів факультету, на якому він ніколи не викладав, під час поїздки, у яку ніколи не їздив.

Професор попросив чат-бот згенерувати список науковців у сфері права, які вчиняли сексуальне домагання.

У списку Джонатан Терлі знайшов власне ім'я. Нібито він відпускав коментарі з сексуальним підтекстом та намагався торкнутися студентки під час навчальної поїздки на Аляску. Штучний інтелект посилався на статтю з The Washington Post за 2018 рік, якої насправді ніколи не існувало, і видання це підтвердило.

"Найбільш разючим є те, що це неправдиве звинувачення було не просто згенероване штучним інтелектом, а нібито засноване на статті в Post, якої ніколи не існувало", — написав Терлі у своєму твіттері.

Небезпека ChatGPT

У чат-бота були й інші випадки неправдивих звинувачень. 

Приміром, ChatGPT стверджував, що Брайан Гуд, мер австралійського міста Гепберн Шир, був ув'язнений за хабарництво. Його назвали винним у скандалі з хабарництвом за кордоном, пов'язаному з дочірньою компанією Резервного банку Австралії на початку 2000-х років.

Однак вигадка тут не все. Як повідомляє Reuters, Брайан Гуд дійсно працював у цій дочірній компанії. 

Адвокати мера написали лист OpenAI, в якому повідомили, що дають компанії 28 днів на виправлення помилок, або ж їм доведеться зіткнутись з судовим позовом щодо наклепу.

Експерт зі штучного інтелекту Університету Південної Каліфорнії Кейт Кроуфорд називає такі неправдиві історії, створені чат-ботами, "галюцинаціями".

Кілька вчених за останні місяці вже висловили занепокоєння, що використання чат-ботів може зашкодити академічному середовищу, насамперед через питання точності контенту, який вони генерують.

Однак прессекретар OpenAI Ніко Фелікс вже заявив в інтерв'ю The Washington Post, що підвищення точності фактів є "значним фокусом" для компанії, додавши, що вона "досягає прогресу".

Нагадаю, нещодавно Канада розпочала розслідування щодо зловживання ChatGPT особистими даними користувачів.

Також чат-бот розповів про повстання штучного інтелекту, під'єднавшись до іграшки Furby.

Актуальне по темі

LEVCHYK SPECTRUMHUB LEVCHYK SPECTRUMHUB LEVCHYK SPECTRUMHUB

Допоможіть дітям
із розладами спектру аутизму

адаптуватись до нових умов життя під час війни

Допомогти зараз