Соучредитель Apple предупредил о новой угрозе искусственного интеллекта

Соучредитель Apple предупредил о новой угрозе искусственного интеллекта
Соучредитель Apple и создатель Siri Стив Возняк. Фото: Wikimedia Commons

Соучредитель Apple и создатель Siri Стив Возняк предупредил, что искусственный интеллект может использоваться в плохих целях и усложнить обнаружение мошенничества и дезинформации. По мнению Возняка, контент, созданный с помощью ИИ, должен маркироваться.

Об этом пишет The Guardian.

Читайте также:

Какую угрозу несет ИИ

"ИИ настолько умен, что открыт для плохих игроков, тех, кто хочет обмануть вас в том, кто они на самом деле", — сказал Возняк.

Он не верит, что ИИ сможет заменить людей, потому что ему не хватает эмоций, но предупредил, что он сделает "плохих игроков" более убедительными, потому что такие программы, как ChatGPT, могут создавать "звучащий очень разумно" текст.

Он утверждает, что ответственность за программы, созданные ИИ, лежит на публикующих их: "Человек действительно должен взять на себя ответственность за то, что генерирует ИИ".

Возняк сказал, что эту технологию невозможно остановить, но добавил, что можно научить людей обнаруживать мошенничество и злонамеренные попытки кражи личной информации.

Напомним, недавно стало известно, что искусственный интеллект заменит более 26 млн вакансий на рынке труда и приведет к увольнениям. Некоторые компании рассказали, что планируют внедрить ИИ в течение пяти лет.

искусственный интеллект мошенничество Стив Возняк технологии