Top.Mail.Ru

ИИ учится лучше считать, но хуже говорит правду

Современные искусственные интеллект-системы всё чаще выдают неверные ответы — это называют галлюцинациями. Несмотря на рост вычислительных возможностей, проблема только усугубляется.

Свежие разработки OpenAI, Google и DeepSeek стали лучше справляться с математикой, но при этом чаще ошибаются в фактах. Учёные пока не понимают, почему так происходит.

ИИ учатся на огромных массивах данных, но не умеют отличать правду от вымысла. Ответы подбираются на основе вероятностей, а не достоверности, что часто приводит к неточностям. В компаниях признают: полностью избавиться от таких ошибок пока невозможно.

Это особенно опасно при использовании ИИ в чувствительных сферах — например, в юриспруденции или медицине. Ошибки подрывают доверие и снижают эффективность автоматизации.

По результатам тестов, уровень галлюцинаций у последних моделей от OpenAI может доходить до 79%. Аналогичная тенденция наблюдается и у решений Google и DeepSeek.

Чтобы улучшить точность, разработчики начали применять обучение с подкреплением. Однако и этот подход пока даёт нестабильные результаты. Особенно это заметно при выполнении сложных задач — ИИ продолжает ошибаться почти на каждом шагу, что становится очевидным для пользователей.