ИИ на службе Пентагона. Грядет новая эра военных технологий и геополитических изменений

В современном мире, где технологический прогресс определяет будущее, искусственный интеллект (ИИ) становится не просто инструментом, а ключевым фактором национальной безопасности и геополитического влияния. Недавнее решение Главного управления цифрового и искусственного интеллекта Министерства обороны США заключить контракты на сумму до 200 миллионов долларов с четырьмя ведущими технологическими компаниями — Anthropic, Google, OpenAI и xAI — является знаковым событием, которое открывает новую главу в интеграции передовых ИИ-возможностей в военную сферу. Это не просто инвестиции в технологии; это стратегический шаг, который переформатирует ландшафт оборонной промышленности, поднимает острые этические вопросы и предвещает глубокие изменения в характере будущих конфликтов и международных отношений.
Роль Главного управления цифрового и искусственного интеллекта
Главное управление цифрового и искусственного интеллекта (CDAO) Министерства обороны США, созданное в июне 2018 года (хотя некоторые источники указывают на февраль 2022 года как на дату его перезапуска), является ключевым элементом в стратегии Пентагона по интеграции ИИ. Его основная миссия — трансформировать Министерство обороны, используя потенциал данных и ИИ для повышения эффективности принятия решений, улучшения операционной деятельности и ускорения внедрения ИИ на всех уровнях — от стратегического планирования до тактических операций на поле боя. CDAO также активно продвигает ответственные и этичные практики использования ИИ, что является критически важным аспектом в контексте военных применений.
CDAO фокусируется на нескольких ключевых направлениях: предоставление инфраструктуры и услуг корпоративного уровня, масштабирование безопасных цифровых и ИИ-решений, ускорение внедрения данных, аналитики и ИИ, а также использование коммерческих технологий двойного назначения. Бюджет CDAO на 2025 финансовый год составляет 139,9 миллиона долларов, что свидетельствует о значительных инвестициях Пентагона в эту область.
Выбор гигантов ИИ
Решение CDAO заключить индивидуальные контракты на сумму до 200 миллионов долларов с Anthropic, Google, OpenAI и xAI является беспрецедентным и демонстрирует стремление Пентагона к максимально быстрой интеграции передовых коммерческих ИИ-решений. Выбор этих четырех компаний не случаен и отражает несколько ключевых закономерностей и стратегических приоритетов:
1. Лидеры в области больших языковых моделей (LLM) и генеративного ИИ. Все четыре компании являются пионерами и лидерами в разработке больших языковых моделей и генеративного ИИ. OpenAI известна своим ChatGPT, Anthropic — Claude, Google — своими передовыми моделями, а xAI, компания Илона Маска, активно развивает универсальный Grok. Это указывает на то, что Пентагон видит огромный потенциал в этих технологиях для решения широкого круга задач — от анализа разведданных и поддержки принятия решений до автоматизации рабочих процессов и создания новых интерфейсов взаимодействия.
2. Привлечение «нетрадиционных» оборонных подрядчиков. В частности, Anthropic и OpenAI являются относительно новыми игроками на рынке оборонных контрактов. Их привлечение свидетельствует о смене парадигмы в Пентагоне, который теперь активно ищет инновации за пределами традиционного военно-промышленного комплекса. Это позволяет Министерству обороны получить доступ к самым передовым разработкам, которые часто создаются в динамичной и быстро развивающейся среде стартапов и технологических гигантов. Это также может быть попыткой стимулировать конкуренцию и инновации среди традиционных оборонных подрядчиков.

3. Стратегическое партнерство и адаптация. Компании, такие как Google, уже давно сотрудничают с правительством США, но теперь их взаимодействие выходит на новый уровень. Google Public Sector, например, не только договорился о значительных скидках на свои продукты для государственных клиентов, но и добился аккредитации Министерством обороны до уровня Impact Level 6 для Google Distributed Cloud, что позволяет обрабатывать наиболее чувствительные данные национальной безопасности. xAI, со своей стороны, оперативно представила «Grok for Government», адаптированную версию своей модели для государственных нужд, доступную через Управление общих служб (GSA), что значительно упрощает процесс закупок для всех федеральных агентств. Это демонстрирует готовность технологических компаний адаптировать свои продукты и бизнес-модели под специфические требования оборонного сектора. Примечательна роль OpenAI, которая запустила инициативу «OpenAI for Government», предлагая государственным структурам доступ к своим моделям ChatGPT Enterprise и ChatGPT Government в изолированных и защищенных средах, а также разработку кастомизированных моделей для национальной безопасности. Такой шаг сигнализирует о растущем признании того, что передовые ИИ-модели неизбежно станут частью оборонного ландшафта.
4. Фокус на «агентских» ИИ-рабочих процессах. В контрактах особо упоминаются «агентские ИИ-рабочие процессы» (agentic AI workflows). Это указывает на интерес Пентагона к автономным ИИ-системам, способным выполнять сложные задачи, взаимодействовать с другими системами и принимать решения с минимальным участием человека. Это может быть предвестником более широкого внедрения автономных систем в военные операции, что поднимает серьезные этические и правовые вопросы.
Таким образом, эти контракты — это не просто закупка программного обеспечения, а стратегическое инвестирование в будущее, где ИИ будет играть центральную роль в поддержании военного превосходства и обеспечении национальной безопасности США.
ИИ как новый рубеж военной стратегии
Интеграция ИИ в военные системы США не является чем-то новым. Ещё в 2018 году Пентагон запустил проект Maven, направленный на использование ИИ для анализа данных с дронов и спутников. Этот проект стал отправной точкой для широкого применения ИИ в разведке, однако вызвал споры, особенно после отказа Google продлевать контракт из-за протестов сотрудников. С тех пор Пентагон разработал собственные принципы этики ИИ, чтобы успокоить общественность и технологическое сообщество, и активно привлекает частный сектор к сотрудничеству. Контракты 2025 года с OpenAI, Google, Anthropic и xAI — это не просто продолжение этой линии, но и качественный скачок. Впервые сразу четыре лидера рынка ИИ получили столь крупные контракты одновременно, что подчеркивает масштаб амбиций Пентагона.
На международной арене ИИ становится ключевым элементом геополитической конкуренции. США стремятся сохранить свое технологическое превосходство на фоне растущих инвестиций в ИИ со стороны таких государств, как Китай, Россия, Иран и Северная Корея. Китай активно инвестирует в ИИ для военных целей, включая автономные системы и кибервойны, что заставляет США ускорять свои программы. Россия, несмотря на экономические ограничения, также развивает ИИ для военных приложений, таких как анализ данных и управление беспилотниками. В этом контексте решение Пентагона можно рассматривать как ответ на глобальную гонку за технологическое превосходство. Однако США обладают уникальным преимуществом — доступом к инновациям частного сектора. Компании, такие как OpenAI и xAI, уже находятся на передовой разработки больших языковых моделей (LLM) и агентных ИИ-систем, что даёт Пентагону возможность использовать самые передовые технологии без необходимости создавать их с нуля.

ИИ как технология двойного назначения и этические дилеммы
Привлечение передовых ИИ-технологий в военную сферу неизбежно поднимает вопросы о природе ИИ как технологии двойного назначения и о глубоких этических дилеммах, связанных с ее применением в конфликтах. ИИ по своей сути является технологией двойного назначения, то есть она может быть использована как в гражданских, так и в военных целях. Коммерческие модели ИИ, часто обученные на огромных массивах данных, могут быть адаптированы для военных задач, что создает уникальные вызовы и возможности.
Этические аспекты:
автономия и контроль: делегирование решений машинам на поле боя вызывает фундаментальные этические, правовые и политические вопросы. Хотя Пентагон заявляет о приверженности этичному использованию ИИ и сохранении «человека в контуре принятия решений», грань между поддержкой принятия решений и полной автономией может быть размыта. Автоматизация может привести к «автоматизационному смещению», когда операторы чрезмерно доверяют рекомендациям ИИ, что потенциально может привести к непреднамеренным жертвам или эскалации конфликта;
ответственность: кто несет ответственность за ошибки или злоупотребления, совершенные автономными ИИ-системами? Размывание ответственности между разработчиками, операторами и политиками является серьезной проблемой, требующей четкого правового регулирования и этических рамок;

непреднамеренные последствия: ИИ-системы могут генерировать убедительный ложный контент, влиять на общественное мнение и принятие решений, что имеет серьезные последствия для гражданского населения и стабильности. Кроме того, непредвиденные взаимодействия между сложными ИИ-системами могут привести к непредсказуемым результатам, включая неконтролируемую эскалацию;
гонка вооружений в ИИ: использование ИИ в военных целях неизбежно стимулирует гонку вооружений. Страны, стремящиеся к военному превосходству, будут инвестировать в разработку и внедрение ИИ, что может привести к дестабилизации международной безопасности и увеличению риска конфликтов. Эта гонка может быть не только между государствами, но и между государственными и негосударственными акторами, использующими ИИ для различных целей.
Помимо этого, контракты CDAO подчеркивают растущее слияние гражданского технологического сектора с военным. Компании, которые ранее избегали прямого сотрудничества с оборонными ведомствами, теперь активно входят на этот рынок, привлеченные значительными инвестициями и возможностью влиять на будущее технологий. Это стирает границы между «мирными» и «военными» технологиями, делая их взаимозависимыми.
Развитие и внедрение ИИ в военную сферу становится новой формой геополитической конкуренции. Страны, обладающие передовыми ИИ-возможностями, получат значительное преимущество в разведке, кибербезопасности, логистике, а также в ведении боевых действий. Это может привести к перераспределению сил на мировой арене и изменению баланса власти.
Помимо очевидных последствий, таких как повышение эффективности военных операций и усиление технологического превосходства, контракты Пентагона с ведущими ИИ-компаниями открывают двери для ряда менее очевидных, но потенциально более глубоких изменений:
«Демократизация» военного ИИ и риск пролиферации. Привлечение коммерческих компаний, разрабатывающих общедоступные или широко используемые модели ИИ, может привести к непреднамеренной «демократизации» военных ИИ-возможностей. Если базовые модели, используемые Пентагоном, имеют гражданские аналоги или утекают в другие страны, это может значительно снизить порог входа для разработки собственного военного ИИ для государств с меньшими ресурсами или даже негосударственных акторов. Это может привести не к монополии США на военный ИИ, а к его более широкому распространению, что, в свою очередь, увеличит нестабильность и риск конфликтов, так как большее число игроков будет обладать доступом к мощным, но потенциально дестабилизирующим технологиям.

Эффект «обратного влияния» на гражданский ИИ. Военные требования к надежности, безопасности, устойчивости к атакам и работе в условиях ограниченных ресурсов могут оказать значительное «обратное влияние» на развитие гражданского ИИ. Технологии, разработанные для военных нужд (например, для автономных систем в экстремальных условиях), могут найти применение в гражданских областях, таких как автономный транспорт, робототехника для опасных сред или критическая инфраструктура. Военные инвестиции в ИИ, несмотря на их специфическую направленность, могут стать катализатором для прорывных инноваций в гражданском ИИ, ускоряя его развитие и применение в повседневной жизни, но при этом неся в себе отпечаток военного происхождения.
Изменение природы «войны» и «мира». По мере того как ИИ становится все более интегрированным в военные системы, грань между состоянием «войны» и «мира» может размываться. Кибератаки, дезинформационные кампании, управляемые ИИ, и скрытые операции могут стать нормой, создавая постоянное состояние «серой зоны» конфликта, где традиционные правила ведения войны неприменимы. Мы движемся к эпохе «постоянной когнитивной войны», где ИИ используется для манипуляции информацией, общественным мнением и даже восприятием реальности, делая традиционные военные действия менее актуальными, но при этом создавая новые формы конфликтов, которые трудно обнаружить и еще труднее регулировать.
Риск «технологического детерминизма» в принятии решений. Чрезмерная зависимость от ИИ в военных операциях может привести к «технологическому детерминизму», когда решения принимаются не на основе человеческой интуиции, опыта или этических соображений, а на основе алгоритмических выводов. Это может привести к потере человеческого контроля над критически важными процессами и потенциально к катастрофическим ошибкам. Несмотря на заявления о «человеке в контуре», реальное влияние ИИ на принятие решений будет расти экспоненциально, создавая ситуацию, когда человеческое вмешательство будет скорее формальностью, чем реальным контролем, что может привести к непредсказуемым и необратимым последствиям.
Роль частных корпораций. Например, Илон Маск, известный своими амбициозными проектами, такими как Starlink, уже продемонстрировал способность влиять на геополитические процессы. Его вовлеченность в военный ИИ может привести к еще более глубоким изменениям в оборонной сфере, а также вызвать дискуссии о роли частных корпораций в вопросах национальной безопасности.
Всё выше изложенное подчеркивает, что инвестиции Пентагона в ИИ — это не просто технологическое обновление, а глубокий социополитический эксперимент с непредсказуемыми долгосрочными последствиями для глобальной безопасности и человеческого общества в целом.

Таким образом, контракты Главного управления цифрового и искусственного интеллекта Министерства обороны США с ведущими технологическими компаниями на сумму до 200 миллионов долларов знаменуют собой не просто очередной этап в развитии военных технологий, а фундаментальный сдвиг в парадигме национальной безопасности и международных отношений. Это решение отражает осознание Пентагоном критической важности ИИ для поддержания стратегического превосходства в условиях быстро меняющегося геополитического ландшафта. Привлечение таких гигантов, как Google, OpenAI, Anthropic и xAI, демонстрирует готовность американского оборонного ведомства интегрировать самые передовые коммерческие инновации, тем самым стирая традиционные границы между гражданским и военным секторами.
Однако за этой технологической эйфорией скрывается множество сложных вопросов и потенциальных рисков. Милитаризация ИИ, особенно в контексте технологий двойного назначения, неизбежно ведет к обострению гонки вооружений, которая теперь приобретает не только количественный, но и качественный характер. Страны будут соревноваться не только в количестве танков или самолетов, но и в уровне развития своих ИИ-систем, способных анализировать данные, принимать решения и координировать действия с беспрецедентной скоростью и точностью. Это может привести к созданию новых форм асимметричных угроз и дестабилизации региональной и глобальной безопасности.

Этические дилеммы, связанные с автономными системами вооружений и делегированием принятия решений машинам, остаются в центре внимания. Несмотря на заявления о сохранении «человека в контуре», реальное влияние ИИ на военные операции будет расти, что требует не только технических решений, но и глубокой философской, правовой и этической проработки. Вопросы ответственности, контроля и непреднамеренных последствий применения ИИ на поле боя должны быть решены до того, как эти технологии станут повсеместными.
Более того, мы стоим на пороге эпохи, когда ИИ может изменить саму природу конфликтов. От «горячих» войн с прямым столкновением мы можем перейти к «холодным» когнитивным войнам, где ИИ будет использоваться для манипуляции информацией, дезинформации и воздействия на общественное мнение, создавая постоянное состояние неопределенности и «серой зоны» конфликта. В этом контексте, инвестиции в ИИ — это не только инвестиции в оборону, но и в способность формировать информационное пространство и влиять на восприятие реальности.
В конечном итоге, контракты CDAO — это не просто сделки на поставку технологий; это индикатор глубоких трансформаций, которые уже происходят в сфере национальной безопасности и международных отношений. Они предвещают будущее, где технологическое превосходство будет определяться не только количеством и качеством вооружений, но и способностью эффективно использовать искусственный интеллект. Это будущее, которое требует не только технологического развития, но и мудрого управления, международного сотрудничества и постоянного этического осмысления, чтобы избежать непредсказуемых и потенциально катастрофических последствий.
Автор: Николай Тягников
Рекомендуем


