Минобороны США и Anthropic не могут прийти к согласию по вопросу использования нейросети Claude в военных целях

Министерство обороны США и компания‑разработчик ИИ‑технологий Anthropic не могут прийти к согласию по вопросу использования нейросети Claude в военных целях. Как сообщает Axios со ссылкой на источники, разногласия касаются принципов применения искусственного интеллекта в оборонной сфере.
Пентагон намерен активно задействовать нейросети в боевых задачах — от планирования операций до наведения высокоточного оружия. Военное ведомство настаивает на снятии ограничений, которые компании обычно прописывают в пользовательских соглашениях. В свою очередь, Anthropic твёрдо придерживается собственных правил. Компания запрещает использовать свои модели для автономного наведения оружия, ведения слежки (в том числе внутри США) и любых действий, способных причинить вред.
Летом 2025 года Минобороны США заключило соглашения с четырьмя ведущими ИИ‑компаниями — Anthropic, OpenAI, Google и xAI. Каждое из соглашений могло достигать суммы в $200 млн; их цель — разработка ИИ‑решений для национальной безопасности. Контракт с Anthropic рассчитан на два года. Однако из‑за непримиримых позиций сторон Пентагон рассматривает возможность расторгнуть договор. Заменить нейросеть Claude будет непросто — она обладает технологическими преимуществами для решения специфических государственных задач.
Ситуация обострилась после публикации The Wall Street Journal о возможном использовании Claude в спецоперации американских сил по захвату президента Венесуэлы Николаса Мадуро. По данным издания, в ходе операции были нанесены удары по объектам в Каракасе. Anthropic отказалась комментировать причастность своей нейросети к операции, но подчеркнула, что любое применение Claude должно соответствовать внутренней политике компании. При этом правила Anthropic прямо запрещают использовать ИИ для насилия, разработки вооружений и организации слежки.
По информации Axios, Минобороны настаивает на том, чтобы все четыре компании разрешили использовать их технологии «для всех законных целей», включая разработку оружия, сбор разведданных и боевые операции. Реакция разработчиков различается. Одна компания уже согласилась на условия Пентагона, две другие демонстрируют готовность к компромиссам, а Anthropic сохраняет наиболее жёсткую позицию.
OpenAI уже пошла на уступки, открыв доступ к своим инструментам для 3 млн сотрудников оборонного ведомства и сняв часть ограничений на использование ChatGPT.
Этот конфликт обнажает фундаментальное противоречие современной эпохи: с одной стороны — стремление военных интегрировать передовые ИИ‑технологии в боевые операции, с другой — этические принципы компаний‑разработчиков, которые опасаются неконтролируемого применения искусственного интеллекта.
Исход переговоров остаётся неопределённым. От него зависит не только судьба контракта на $200 млн, но и то, как в дальнейшем будут выстраиваться отношения между оборонным ведомством США и индустрией ИИ.