Ученые изобрели чатбот, имеющий "совесть"

Ученые изобрели чатбот, имеющий "совесть"
Роботизированный вид искусственного интеллекта, загружающего обновление. Фото: freepik.com

Искусственный интеллект, в частности ChatGPT, не может похвастаться высокой нравственностью или безопасными советами, ведь иногда может давать достаточно жестокие ответы. Поэтому группа исследователей разработала ИИ на основе правил безопасности и прав человека.

Об этом сообщает Portaltele.

Читайте также:

Может ли чат-бот иметь совесть

Так, компания Anthropic утверждает, что их чат-бот Claude придерживается ряда правил, включая принципы, закрепленные во Всеобщей декларации прав человека. Фирма утверждает, что их чат-боты имеют "совесть".

Основатель Anthropic Джаред Каплан заявил, что конституция, на которой базируется Claude, способствует проявлению поведения, противоречащего принципам конституции или нормам правопорядка, и подавляет проявление проблемного поведения.

В то время, когда известные технологические исследователи, в частности Илон Маск, выражают опасения по поводу потенциальных проблем, связанных с быстрым развитием искусственного интеллекта, компания Anthropic предлагает решение этой проблемы путем прививки ИИ этических норм.

На чем должно базироваться будущее ИИ

Так, Claude дает ответы, поддерживающие свободу мысли и взглядов, собраний и религии, равенства и братства. Чат-бот имеет строгие рамки правил, в которых он учится.

"Это кажется великолепной идеей для Anthropic, которая привела к хорошим экспериментальным результатам", — отметил исследователь Вашингтонского университета Еджин Чой.

Он добавил, что соответствующие нормы должны быть использованы при создании будущего искусственного интеллекта.

Напомним, что исследователи все дальше ищут возможность выгодного применения ChatGPT, в том числе и в процессах изучения космоса. Так, прозвучала идея подсоединить марсоход к искусственному интеллекту, который, как предполагается, упростит работу многим ученым, а некоторых вообще заменит.