ChatGPT начал использовать в ответах непроверенную информацию из энциклопедии созданной другим ИИ

49
1
ChatGPT начал использовать в ответах непроверенную информацию из энциклопедии созданной другим ИИ

В ходе тестирования новой модели GPT‑5.2, проведённого журналистами The Guardian, выявилась тревожная тенденция. Чат‑бот OpenAI при ответе на сложные и узкоспециализированные запросы всё чаще опирается на данные из Grokipedia.

Grokipedia — энциклопедии, созданной искусственным интеллектом компании xAI Илона Маска. Этот источник уже неоднократно подвергался критике за потенциальную предвзятость и недостоверность информации.

Тесты показали, что ChatGPT активно использует Grokipedia при освещении чувствительных тем. В частности, это касается вопросов, связанных с политическими структурами Ирана, а также биографических справок об историках, изучавших тему Холокоста. В ряде случаев чат‑бот воспроизводил сведения, которые ранее были официально опровергнуты экспертами.

Главная особенность Grokipedia заключается в полном отсутствии человеческого участия в создании и редактировании контента. Вся информация генерируется и корректируется исключительно нейросетью Grok. Это вызывает серьёзную обеспокоенность у исследователей проблем дезинформации. По их мнению, подобные источники особенно уязвимы для манипуляций и могут стать каналами распространения непроверенных данных.

Представитель OpenAI, комментируя ситуацию для The Guardian, пояснил, что веб‑поиск модели предполагает работу с широким спектром общедоступных источников. Компания утверждает, что применяет специальные фильтры безопасности для минимизации рисков. Однако эксперты указывают на фундаментальную проблему: однажды попав в языковую модель, ложная информация способна сохраняться в её ответах даже после того, как первоисточник будет удалён из сети. Это создаёт долгосрочные угрозы для достоверности сведений, которые ИИ‑системы предоставляют миллионам пользователей.

Ситуация с интеграцией Grokipedia в ответы ChatGPT обнажает серьёзные вопросы о принципах отбора источников для обучения нейросетей. Особенно остро эта проблема встаёт при работе с чувствительными историческими и политическими темами, где цена ошибки особенно высока. Возникает необходимость в разработке более строгих механизмов проверки контента и чёткой системы ответственности разработчиков за распространение потенциально недостоверной информации через ИИ‑платформы.

На фоне растущего доверия пользователей к чат‑ботам как к надёжным источникам знаний, обнаруженные факты требуют пересмотра подходов к формированию обучающих массивов данных и внедрению систем контроля качества генерируемого контента.

Другие публикации по теме
ИИ делает IT-сеньоров сильнее, а вот джуны только проигрывают
ИИ делает IT-сеньоров сильнее, а вот джуны только проигрывают
Исследование: в 2025 году треть нового кода в США создавалась с помощью ИИ. Опытные программисты с ИИ повысили продуктивность на 3,6%, новички же значимого прироста не получили.
Сегодня в 14:40
74
1
Форум
Google сдался: ИИ-кликбейты показывают себя великолепно, даже если врут
Google сдался: ИИ-кликбейты показывают себя великолепно, даже если врут
Google использует ИИ для новостных сводок в Discover, но система часто допускает фактические ошибки, вводя пользователей в заблуждение.
Вчера в 13:15
284
0
Форум
Первый в мире закон об ИИ появился в Южной Корее
Первый в мире закон об ИИ появился в Южной Корее
Южная Корея ввела первый в мире всеобъемлющий закон об ИИ. Он устанавливает правила для ключевых отраслей и штрафы за нарушения, что вызывает опасения стартапов о возможном замедлении инноваций.
24 января в 13:12
351
0
Форум