Top.Mail.Ru

ВШЭ: ошибки нейросетей напоминают признаки шизофрении

Анна Сальникова Редактор новостной ленты
Склонность нейросетей к «галлюцинациям» изучил ...

Склонность нейросетей к «галлюцинациям» изучил научный сотрудник Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург Растям Алиев. В своей работе под названием «Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху» он сопоставил вымышленные ответы языковых моделей с проявлениями психических расстройств. Исследование опубликовано в журнале «Логос».

Алиев отметил, что долгие годы общество представляло искусственный интеллект как безэмоционального андроида, однако такой образ скорее напоминает описание расстройств аутистического спектра. На деле же нейросети иначе воспроизводят эмоции и иногда демонстрируют поведение, похожее на когнитивные искажения. Он подчеркнул, что убедиться в наличии подобных «симптомов» нетрудно: если попросить модель отвечать так, будто она страдает шизофренией, её ответы становятся точнее, словно она внимательнее к отдельным деталям.

При усложнении задания количество ошибок возрастает: не находя подтверждённых данных, нейросеть начинает смешивать имеющиеся факты с выдуманными элементами. Такой эффект исследователь называет рождением метасимулякров — псевдореальностей, где алгоритмы формируют новые способы восприятия мира. С его точки зрения, это можно рассматривать как ещё один признак «психических нарушений» искусственного интеллекта.

Он отметил, что продукты нейросетей опираются на реальность, но одновременно опережают её, создавая искажённые изображения людей и мест. Эти примеры, по мнению автора, ярко демонстрируют появление метасимулякров.

Особенность языковых моделей — невозможность самостоятельно распознать собственные ошибки. Они уверены в корректности ответа даже тогда, когда он далёк от истины. Если пользователь указывает на неточность, модель начинает объяснять свою позицию, однако аргументы нередко оказываются очередными «галлюцинациями». Исследователь предупреждает: полностью полагаться на нейросети пока нельзя.

Он подчёркивает, что искусственный интеллект становится частью повседневной жизни — люди обращаются к нему за поддержкой, а компании используют его как замену сотрудникам. Однако относиться к таким инструментам следует осторожно и всегда проверять полученную информацию.

В перспективе, считает Алиев, возможно создание более надёжного искусственного интеллекта, не склонного к подобным ошибкам. Но путь к этому требует глубокого междисциплинарного исследования природы этих «расстройств», чему и посвящена его работа.

Источник: Naked Science

Рекомендуем также:

  1. Массовая тряска с 1 марта без предупреждений: налоговая берётся за простых граждан