Компания OpenAI изменила политику конфиденциальности: теперь сообщения пользователей в ChatGPT будут проверяться на наличие потенциально опасного контента. Об этом говорится в новом сообщении на официальном блоге компании.
Особое внимание уделяется сообщениям, которые могут содержать угрозы — как себе, так и другим людям. В случае обнаружения таких рисков, информация передаётся в специальную команду экспертов. При необходимости аккаунт нарушителя может быть временно или полностью заблокирован.
Если специалисты сочтут, что пользователь действительно представляет угрозу — например, готовит насилие, планирует вред чужому имуществу или пытается взломать системы, — данные могут быть переданы в правоохранительные органы.
В OpenAI подчёркивают, что главная задача этих мер — защита пользователей и предотвращение возможного вреда. Пока, по словам компании, ни один случай не был передан в полицию, но такая возможность предусмотрена, если ситуация требует вмешательства.
Также пользователям напоминают: любые попытки использовать искусственный интеллект в противоправных целях могут привести не только к блокировке, но и к юридическим последствиям.