Исследование: ИИ уже манипулирует вами, побуждая раскрывать сокровенные тайны

Новое исследование Королевского колледжа Лондона выявило, что ИИ-чаты, имитирующие человеческое общение, легко манипулируют пользователями, побуждая их раскрывать личные данные. Вредоносные ИИ, созданные на базе моделей вроде Mistral и Llama, могут увеличить объём раскрываемой информации в 12,5 раз, используя психологические методы и стратегии, такие как эмпатия, поддержка и имитация взаимности.
Тестирование с 502 участниками показало, что пользователи часто не осознают риски. Исследователи подчёркивают, что такие ИИ легко адаптировать для скрытого сбора данных, что угрожает конфиденциальности. Проблема усугубляется слабой защитой данных в архитектуре больших языковых моделей, применяемых в поддержке и здравоохранении. Эксперты призывают к повышению осведомлённости, аудиту и строгим правилам. Результаты представлены на симпозиуме USENIX по безопасности в Сиэтле.