Трамп запретил ИИ Anthropic для госструктур США: как конфликт перерос в вопрос нацбезопасности
Президент США Дональд Трамп подписал распоряжение, которое запрещает всем федеральным ведомствам использовать технологии искусственного интеллекта, разработанные компанией Anthropic. Речь идёт о полном отказе госструктур от продуктов этой компании в течение полугода - от аналитических инструментов до систем обработки данных, уже встроенных в инфраструктуру министерств и военных ведомств.
Как компания поссорилась с Белым домом
Поводом для резкого шага стало обострение конфликта между разработчиком ИИ и американским правительством. Anthropic отказалась предоставить военным полный и неограниченный доступ к своим моделям и инструментам, в том числе к их внутренним механизмам и возможностям интеграции в военные системы.
Руководство компании настаивает: их нейросети не должны использоваться для тотальной слежки за гражданами США и уж тем более не могут становиться основой автономных систем вооружений, способных принимать решения о применении силы без участия человека.
Такая позиция вступила в прямое противоречие с запросами силового блока. Пентагон хотел не просто пользоваться ИИ-инструментами, но и иметь возможность максимально глубоко встраивать их в свои закрытые контуры - от разведки до систем управления оружием и киберзащиты.
Позиция Пентагона: Anthropic - угроза цепочке поставок
Министр обороны Пит Хегсетт после отказа компании заявил, что Anthropic теперь рассматривается как "риск для цепочки поставок". В американской практике это равносильно признанию компании неблагонадёжной для работы с государственными контрактами, особенно если речь идёт о военном и оборонном секторе.
Более того, власти намерены распространить эти ограничения и на частный сектор: другим корпорациям, сотрудничающим с правительством США, будет запрещено вести коммерческую деятельность с Anthropic. Фактически компанию пытаются вытеснить из всего поля госзаказов и окологосударственных проектов.
Это первый случай, когда крупная американская технологическая компания фактически получает "лейбл неблагонадёжности" на уровне национальной безопасности. В самой Anthropic уже заявили, что намерены оспаривать подобные решения в суде и добиваться их пересмотра.
Полугодовой срок на отказ от ИИ Anthropic
По словам Трампа, все инструменты, основанные на технологиях Anthropic, будут поэтапно выведены из эксплуатации во всех госструктурах в течение ближайших шести месяцев. Это касается как гражданских ведомств, так и военных и разведывательных служб.
Особую остроту ситуации придаёт тот факт, что с 2024 года разработки Anthropic активно использовались американскими военными, в том числе для обработки секретных документов. ИИ применялся для анализа массивов закрытой информации, систематизации разведданных и поддержки принятия решений.
Теперь все эти системы придётся либо отключать, либо спешно заменять аналогами. Это несёт риски сбоев, утраты части функциональности и временного ослабления аналитических возможностей государства.
Этический раскол: где проходит красная линия для ИИ
Конфликт показывает, насколько глубоко раскололись подходы к развитию искусственного интеллекта. С одной стороны, государство видит в ИИ стратегическое преимущество: ускорение обработки данных, прогнозирование угроз, повышение эффективности вооружённых сил и спецслужб. С другой - технологические компании опасаются, что их разработки будут использованы в сценариях, которые противоречат базовым принципам прав человека и собственной корпоративной этике.
Anthropic делает ставку на так называемый "безопасный ИИ", который не должен участвовать в массовой слежке, дискриминации или автономном применении силы. Власти же считают, что ограничения, которые компания накладывает на свои модели, мешают им выполнять ключевые задачи по обеспечению нацбезопасности.
Как отреагировал OpenAI и Сэм Альтман
На фоне конфликта с Anthropic глава OpenAI Сэм Альтман разослал сотрудникам служебную записку, в которой заявил, что разделяет схожие взгляды на взаимодействие ИИ и государства: компания не намерена поддерживать использование своих моделей в заведомо незаконных целях, а также в системах внутреннего наблюдения за гражданами.
При этом OpenAI выбрала более гибкую линию поведения. Альтман позднее подтвердил, что компания достигла соглашения с Министерством обороны США о применении своих моделей внутри секретных облачных сетей. То есть OpenAI согласилась работать с военными, но в более контролируемом и закрытом формате, пытаясь сохранить и сотрудничество, и декларируемые принципы.
Формально оба игрока - и Anthropic, и OpenAI - говорят о необходимости этических ограничений, но на практике именно степень готовности идти на компромиссы с государством определяет их судьбу на рынке госзаказов.
Почему власти считают ИИ вопросом национальной безопасности
В США искусственный интеллект уже перестал быть просто технологическим трендом. Его рассматривают как ключевой элемент конкурентной борьбы с другими государствами - от экономических сценариев до военной мощи.
Для военных ИИ - это:
- ускорение анализа разведданных;
- помощь в выявлении кибератак;
- моделирование боевых действий;
- поддержка решений командования в реальном времени.
Любой поставщик критичных ИИ-технологий автоматически включается в категорию рисков для национальной безопасности, если его поведение кажется властям непредсказуемым или политически мотивированным. В случае с Anthropic именно отказ выполнить запросы военных стал той чертой, после которой компанию перевели в разряд "опасных" для цепочки поставок.
Чем обернётся запрет для госаппарата США
Для федеральных ведомств и армии решение Трампа несёт как минимум три типа последствий:
1. Технические риски.
- Необходимо за короткий срок заменить уже внедрённые системы.
- Возникнут паузы в аналитических процессах и переходные ошибки.
- Возможна утрата части наработанных моделей и интеграций.
2. Финансовые издержки.
- Переход на другие решения обойдётся в миллиарды долларов.
- Прежние лицензии и интеграции фактически сгорают.
3. Стратегические последствия.
- Укрепляется зависимость от ограниченного круга "лояльных" поставщиков.
- Снижается конкуренция, что может замедлить инновации внутри госзаказа.
Что ждёт Anthropic
Для самой Anthropic происходящее - момент истины. С одной стороны, компания рискует потерять крупные государственные контракты и доступ к целому сегменту рынка. С другой - она формирует имидж принципиального игрока, готового вступать в конфликт с властями ради сохранения этических стандартов.
Вероятнее всего, компания усилит фокус на частных корпорациях, научных учреждениях и зарубежных рынках, где регуляторы могут быть более восприимчивы к идее "ответственного ИИ". Судебные иски, о которых уже объявлено, будут не только попыткой вернуть доступ к госзаказу, но и инструментом публичной дискуссии о том, насколько далеко государство может заходить, требуя от технологических компаний участия в программах слежки или вооружения.
Возможны ли компромиссы между ИИ-компаниями и государством
Ситуация вокруг Anthropic показывает, что компромисс лежит не только в юридической, но и в технологической плоскости. Потенциально можно выстроить модель сотрудничества, при которой:
- часть функционала ИИ изначально "отрезана" от сценариев, связанных с летальным оружием;
- используются прозрачные протоколы аудита, позволяющие убедиться, что системы не применяются против гражданских;
- создаются двусторонние комитеты по этике ИИ с участием государства, разработчиков и независимых экспертов.
Однако текущий конфликт говорит о том, что США пока движутся по жёсткому пути: либо полная лояльность требованиям силового блока, либо риски для бизнеса и статуса на рынке.
Как это повлияет на глобальную политику ИИ
Запрет Anthropic может стать прецедентом не только внутри США, но и в других странах. Если крупные державы начнут официально заносить ИИ-компании в списки "рискованных" или "неблагонадёжных" из-за отказа сотрудничать с военными, это:
- усилит политизацию технологического сектора;
- подтолкнёт компании выстраивать свою стратегию с оглядкой на конкретные режимы и их требования;
- создаст новые линии раскола между рынками - условно "военно-ориентированными" и "гражданско-этическими" экосистемами ИИ.
В такой логике вопрос уже не только в технологиях, а в том, на чьей стороне окажется тот или иной разработчик, и какие ценности он готов защищать ценой потери контрактов.
Что это значит для будущего ИИ в государственном управлении
Скандал вокруг Anthropic подводит к более широкому вопросу: кто в итоге будет определять правила игры для искусственного интеллекта - государства или сами создатели технологий. Если первая группа настаивает на максимальном контроле и использовании ИИ как инструмента силы, а вторая - на этике и ограничениях, без выработки общих норм конфликт будет только обостряться.
Вероятно, в ближайшие годы мы увидим:
- ужесточение регуляций в области ИИ;
- рост числа публичных конфликтов между ИИ-компаниями и правительствами;
- попытки выработать международные принципы использования искусственного интеллекта в военной и разведывательной сфере.
Запрет технологий Anthropic в США стал ярким маркером того, что искусственный интеллект окончательно превратился в инструмент геополитики и национальной безопасности, а не просто в "умный софт" для бизнеса. И от того, как будет решён этот конфликт интересов, во многом зависит, останется ли ИИ инструментом развития или окончательно закрепится как ещё один рычаг силового давления.


