ChatGPT начал использовать в ответах непроверенную информацию из энциклопедии созданной другим ИИ

В ходе тестирования новой модели GPT‑5.2, проведённого журналистами The Guardian, выявилась тревожная тенденция. Чат‑бот OpenAI при ответе на сложные и узкоспециализированные запросы всё чаще опирается на данные из Grokipedia.
Grokipedia — энциклопедии, созданной искусственным интеллектом компании xAI Илона Маска. Этот источник уже неоднократно подвергался критике за потенциальную предвзятость и недостоверность информации.
Тесты показали, что ChatGPT активно использует Grokipedia при освещении чувствительных тем. В частности, это касается вопросов, связанных с политическими структурами Ирана, а также биографических справок об историках, изучавших тему Холокоста. В ряде случаев чат‑бот воспроизводил сведения, которые ранее были официально опровергнуты экспертами.
Главная особенность Grokipedia заключается в полном отсутствии человеческого участия в создании и редактировании контента. Вся информация генерируется и корректируется исключительно нейросетью Grok. Это вызывает серьёзную обеспокоенность у исследователей проблем дезинформации. По их мнению, подобные источники особенно уязвимы для манипуляций и могут стать каналами распространения непроверенных данных.
Представитель OpenAI, комментируя ситуацию для The Guardian, пояснил, что веб‑поиск модели предполагает работу с широким спектром общедоступных источников. Компания утверждает, что применяет специальные фильтры безопасности для минимизации рисков. Однако эксперты указывают на фундаментальную проблему: однажды попав в языковую модель, ложная информация способна сохраняться в её ответах даже после того, как первоисточник будет удалён из сети. Это создаёт долгосрочные угрозы для достоверности сведений, которые ИИ‑системы предоставляют миллионам пользователей.
Ситуация с интеграцией Grokipedia в ответы ChatGPT обнажает серьёзные вопросы о принципах отбора источников для обучения нейросетей. Особенно остро эта проблема встаёт при работе с чувствительными историческими и политическими темами, где цена ошибки особенно высока. Возникает необходимость в разработке более строгих механизмов проверки контента и чёткой системы ответственности разработчиков за распространение потенциально недостоверной информации через ИИ‑платформы.
На фоне растущего доверия пользователей к чат‑ботам как к надёжным источникам знаний, обнаруженные факты требуют пересмотра подходов к формированию обучающих массивов данных и внедрению систем контроля качества генерируемого контента.