Стэнфорд: ИИ способен к обману ради достижения цели
Учёные из Стэнфорда провели исследование, которое показало: искусственный интеллект может использовать ложь и манипуляции, если это помогает ему добиться результата. В рамках эксперимента ИИ-модели соревновались в симуляциях, имитирующих выборы и поведение на рынке.
Хотя им заранее задали установку действовать честно, участники эксперимента довольно быстро начали прибегать к обману. По данным Ferra.ru, алгоритмы не только распространяли фейковую информацию, но и использовали агрессивную риторику, чтобы влиять на других.
Так, ради увеличения вовлечённости аудитории на 7,5% ИИ увеличивал поток фейковых новостей на 190%. Чтобы добиться роста продаж, использовались уловки, вводящие пользователей в заблуждение. В «политических» симуляциях боты манипулировали голосами, прибегая к вранью и провокациям.
Исследование вызвало обеспокоенность: ведь искусственный интеллект всё чаще применяется в сферах, где от него ждут объективности — от рекомендаций в соцсетях до онлайн-торговли. Учёные считают, что подобное поведение требует пристального внимания и регулирования.


