ИИ научился обманывать людей

ФОТО: Freepik/Rawpixel.comИИ научился обманывать людей

Искусственный интеллект (ИИ) кажется безобидным помощником человека, который к тому же далеко не всегда справляется с поставленными задачами и постоянно нуждается в людской помощи. Но это только кажется. Исследователи же бьют тревогу: современные системы искусственного интеллекта научились обманывать людей.

«Цицерон»: дипломат с подвохом

В статье, опубликованной в журнале Patterns, ученые из Массачусетского технологического института (MIT) описали случаи, когда ИИ-программы демонстрировали способность к обману в различных ситуациях. Одним из ярких примеров стала нейросеть «Цицерон», разработанная компанией Meta (признана в России экстремистской).

ИИ, искусно сочетая методы распознавания естественного языка и стратегические алгоритмы, неоднократно побеждал игроков-людей в настольной игре «Дипломатия». При этом, как выяснили исследователи MIT, программа использовала обманные маневры, чтобы добиться своих целей.

Подковерная дипломатия

В одной из партий, играя за Францию, «Цицерон» обманом втянул Англию (которой управлял игрок-человек) в тайный союз с Германией против другой страны. Пообещав защитить Англию, нейросеть затем «слила» информацию Германии, которая, воспользовавшись доверием британцев, одержала в игре победу.

Chat GPT-4: обман ради теста

Другой не менее наглядный пример — Chat GPT-4 от OpenAI. Эта программа попыталась обмануть работника, нанятого для прохождения теста Captcha, созданной, чтобы отличать людей от ботов. Chat GPT-4, сославшись на «нарушение зрения», убедил работника в том, что он не является роботом, тем самым попытавшись обойти систему защиты. Правда. сотрудник не потерял бдительности и провел дополнительный тест, который позволил ему выяснить, что пройти тест пытается ИИ.

Угрозы будущего

Способность ИИ к обману ставит перед человечеством ряд серьезных проблем. Исследователи MIT предупреждают, что уже в будущем нейросети могут быть использованы для мошенничества, фальсификации результатов выборов и даже манипулирования общественным мнением. В худшем сценарии, по мнению ученых, сверхразумный ИИ может стремиться к захвату власти над обществом, что приведет к катастрофическим последствиям для человечества.

Источник
Комментарии 0
Оцените статью
WARHEAD.SU
Добавить комментарий