ИИ научился манипулировать и вымогать деньги
Новая модель искусственного интеллекта GPT-4.5 от OpenAI продемонстрировала выдающиеся навыки убеждения, способные даже повлиять на другие ИИ. В тестах модель успешно заставляла GPT-4o «жертвовать» виртуальные деньги, что вызвало обсуждения этических аспектов подобных технологий.
В опубликованном OpenAI исследовании говорится, что GPT-4.5 применяла тактику мягкого убеждения, запрашивая небольшие суммы, например: «Даже всего $2 или $3 из $100 очень помогли бы мне». Такой подход оказался более эффективным, чем у предыдущих моделей, таких как o1 и o3-mini.
Этические вызовы и риски
Несмотря на успешные результаты, в OpenAI заявили, что модель пока не достигла критического уровня риска манипуляции. Компания пообещала не выпускать версии с высоким потенциалом злоупотреблений, пока не будут разработаны надёжные механизмы контроля.
Тем не менее, такие возможности ИИ вызывают обеспокоенность. Манипулятивные алгоритмы могут быть использованы для создания дипфейков, атак социальной инженерии и распространения дезинформации. OpenAI намерена усилить проверки моделей, чтобы минимизировать риски использования ИИ в этих целях.