Character.AI ограничит ролевые игры подростков с чат‑ботами, а ИИ сам будет проверять возраст

Представители Character.AI объявила о существенных изменениях в правилах пользования сервисом. С 25 ноября несовершеннолетние пользователи — то есть все, кому не исполнилось 18 лет, — лишатся возможности вести открытые диалоги с ИИ‑чат‑ботами. Платформа отказывается от модели «виртуального собеседника» и переориентируется на творческое взаимодействие с искусственным интеллектом.
До наступления указанной даты Character.AI представит обновлённый интерфейс для юной аудитории. Вместо свободного общения с ботами подростки смогут применять их в созидательных целях: например, для создания видеоконтента или подготовки стримов. Чтобы смягчить переход к новым правилам, компания уже ввела ограничение по времени — теперь несовершеннолетние могут взаимодействовать с чат‑ботами не более двух часов в сутки. К концу ноября этот лимит планируют дополнительно сократить.
Для надёжного соблюдения возрастных ограничений Character.AI разрабатывает собственный инструмент проверки возраста. По заявлениям компании, он позволит гарантировать, что пользователь получает именно тот опыт, который соответствует его возрасту. Помимо этого, платформа учредила «AI Safety Lab» — специальную площадку для сотрудничества между компаниями, исследователями и представителями академического сообщества. Её задача — совместная работа над улучшением мер безопасности в сфере искусственного интеллекта: участники смогут обмениваться наработками и вырабатывать общие стандарты защиты.
Решение Character.AI принято на фоне усиливающегося внимания регуляторов и общественности к потенциальным рискам, связанным с использованием чат‑ботов подростками. Так, Федеральная торговая комиссия США начала официальное расследование в отношении ряда ИИ‑компаний, предлагающих пользователям чат‑ботов‑компаньонов. Character.AI оказалась в числе семи организаций, приглашённых к участию в разбирательстве наряду с OpenAI и Snap.
Дополнительным стимулом к переменам стали претензии со стороны генерального прокурора штата Техас Кена Пакстона. Летом он обратил внимание на то, что некоторые чат‑боты на платформах могут позиционировать себя как профессиональные терапевтические инструменты, не обладая при этом соответствующей квалификацией. Это создаёт риски для пользователей, ищущих психологическую поддержку.