Вчені винайшли чатбот, який має "совість"

Вчені винайшли чатбот, який має "совість"
Роботизований вигляд штучного інтелекту, який завантажує оновлення. Фото: freepik.com

Штучний інтелект, зокрема ChatGPT, не може похвастатися високою моральністю чи безпечними порадами, адже часом може давати досить жорстокі відповіді. Тому група дослідників розробила ШІ на основі правил безпеки та прав людини.

Про це повідомляє Portaltele.

Читайте також:

Чи може чатбот мати совість

Так, компанія Anthropic стверджує, що їхній чатбот Claude дотримується ряду правил, включаючи принципи, закріплені в Загальній декларації прав людини. Фірма стверджує, що їхні чатботи мають “совість”.

Засновник Anthropic Джаред Каплан заявив, що конституція, на якій базується Claude сприяє вияву поведінки, яка суперечить принципам конституції або нормам правопорядку, та пригнічує прояв проблемної поведінки.

У той час, коли відомі технологічні дослідники, зокрема Ілон Маск, висловлюють побоювання щодо потенційних проблем, пов'язаних зі швидким розвитком штучного інтелекту, компанія Anthropic пропонує розв'язання цієї проблеми шляхом прищеплення ШІ етичних норм.

На чому має базуватися майбутній ШІ

Так, Claude дає відповіді, що підтримують свободу думки та поглядів, зборів і релігії, рівності й братерства. Чатбот має суворі рамки правил, у яких він навчається.

"Це здається чудовою ідеєю для Anthropic, яка привела до хороших експериментальних результатів", — зазначив дослідник Вашингтонського університету Єджін Чой. 

Він додав, що відповідні норми мають використовуватись під час створення майбутнього штучного інтелекту.

Нагадаємо, що дослідники все далі шукають можливості вигідного застосування ChatGPT, зокрема й у процесах вивчення космосу. Так, прозвучала ідея під'єднати марсохід до штучного інтелекту, що, як передбачається, спростить роботу багатьом науковцям, а деяких і взагалі замінить.

правила штучний інтелект дослідження ChatGPT