Меню

Гонка нейросетей. Почему ошибка ИИ опаснее баллистической ракеты

Гонка нейросетей. Почему ошибка ИИ опаснее баллистической ракеты

Когда искусственный интеллект (ИИ) превращается в стратегический инструмент, его интеграция в систему национальной безопасности становится больше вопросом политического доминирования, чем технологического прогресса. Там, где интегрирован ИИ, формируется платформа влияния.

С этой целью США создает механизмы, где кибербезопасность, закупки, прогностика кризисов, информационные кампании и прокси-сети объединяются в единую цифровую экосистему. В ближайшие годы ключевые вопросы военного характера будут решаться не количеством солдат и ракет, а качеством ИИ-систем. Кто запустит свой алгоритм, тот получит возможность владеть прогнозом, интервенцией и контентом, построенным на данных об интеллектуальном превосходстве.

Кадровый резерв

В первую очередь данные новации коснулись стратегического управления. Так, разработка и внедрение стратегических ИИ-систем для анализа геополитической обстановки и прогнозирования угроз идет полным ходом. Создаются платформы для обмена информацией и координации действий между различными ведомствами и организациями. Формируется нормативно-правовая база для регулирования использования ИИ в военной сфере.

Укрепление стратегического партнерства между государством и технологическими компаниями происходит за счет формирования кадрового резерва из специалистов Кремниевой долины для внедрения новейших технологий в армии. Первым и кардинальным шагом в данном направлении стало создание подразделения Detachment 201 (Executive Innovation Corps). Эта новационная инициатива Пентагона призвана преодолеть традиционную консервативность военной машины. Лучшие умы из сферы высокотехнологичного бизнеса, топ-менеджеры IT-корпораций привлекаются в резерв армии для работы над инновационными проектами. Они уже служат советниками, консультантами, ускоряя внедрение передовых технологий в военное строительство.

Участники работают на полставки, сохраняя свои гражданские посты. Проходят базовую военную подготовку, включая шестинедельный курс молодого бойца в Форт-Муре (ранее — Форт-Беннинг). Недавно технический директор Palantir Шьям Санкар, технический директор Meta Эндрю Босуорт, директор по продукту OpenAI Кевин Вейл и советник Thinking Machines Lab, бывший директор по исследованиям OpenAI Боб МакГрю приняли там военную присягу. Им предстоит работа над проектами, связанными с модернизацией армии, включая Army Transformation Initiative, которая направлена на «создание более эффективной, умной и боеспособной армии». Опять же — фокус на технологиях, таких как ИИ, дроны, робототехника и управление данными.

Активно идет разработка прототипов передовых ИИ-инструментов для решения критических задач национальной безопасности; первоочередное внимание уделяется созданию и тестированию решений, способных трансформировать административные и аналитические процессы Пентагона. Стратеги министерства обороны США для укрепления национальной безопасности посредством передовых ИИ-инструментов взяли курс на лидерство в разработке и применении искусственного интеллекта в военной сфере, на опережение потенциального противника. Осуществляется трансформация административных и аналитических процессов в Пентагоне для повышения эффективности и оперативности путем моментального реагирования на меняющийся характер современных конфликтов и угроз с помощью ИИ.

Ядро оперативной мощи

На уровне оперативного управления идет разработка ИИ-систем для управления ресурсами и планирования операций; создаются платформы для мониторинга и анализа данных из различных источников; развиваются ИИ-инструменты для поддержки принятия решений в реальном времени. ИИ перестает быть вспомогательным элементом и становится ядром оперативной мощи. В рамках проекта OpenAI for Government создаются интерфейсы, которые не просто анализируют данные, но и синтезируют модели поведения государств, предсказывают кризисы и формируют варианты ответов в реальном времени. В такой ситуации страны, не обладающие аналогичной цифровой инфраструктурой, могут потерять свою субъектность.

С помощью ИИ-технологий модернизируется военно-политическое управление. Мы уже видим работу ИИ-систем для ведения информационных операций и противодействия дезинформации, платформ для взаимодействия с общественностью и СМИ. После практически полной ликвидации USAID наблюдается формирование новых стратегических коммуникаций для продвижения интересов США. Таким образом, Пентагон пытается обеспечить себе военно-политическое превосходство за счет технологического преимущества.

Военное управление тактического уровня в планах министерства обороны США не только модернизируется с помощью ИИ-систем управления боевыми действиями и взаимодействия сил и средств, но и наращивается ИИ-инструментами повышения эффективности разведки и наблюдения. Разрабатываются и внедряются автономные системы, робототехника для повышения боеспособности и снижения рисков для личного состава. Искусственный интеллект и данные – это новая форма оцифрованной военной разведки, когда киберпространство используется как обширный новый ресурс для получения информации.

Ключевой аргумент

«Для реализации амбициозного проекта по созданию «супермозга» ИИ Трамп привлек крупных финансистов, готовых инвестировать огромные суммы, порядка $500 млрд», — отмечает политический эксперт Александр Сосновский и в качестве примера приводит программу «Мозаика» (Mosaic) от Palantir, которую США использовали для прогнозирования и нанесения удара по Ирану. Несмотря на скромный успех операции, она демонстрирует стремление США к использованию ИИ для решения геополитических и военных задач.

Palantir, разработавшая для МАГАТЭ платформу Mosaic, анализировала огромные массивы данных (спутниковые снимки, радиоперехваты, соцсети) для создания «цифрового двойника» иранской ядерной программы. За 10 лет система обработала свыше 400 млн данных, инициировав более 60 инспекций МАГАТЭ по иранской ядерной программе. В июне 2025 года система якобы выявила 400 кг урана, обогащенного до 60%, что стало ключевым аргументом для резолюции МАГАТЭ (первой за 20 лет), после чего Израиль и начал агрессию против Ирана.

По сути, новая администрация Трампа продолжает работу, начатую предшественниками. Так, тот же Palantir уже давно встроен в структуру минобороны США и НАТО — от логистики до планирования ударов в режиме реального времени. OpenAI после назначения экс-директора АНБ Пола Накасоне в совет директоров открыто сотрудничает с оборонными подрядчиками (в том числе с Anduril). Google, Meta и другие IT-гиганты сняли запреты на разработку боевых алгоритмов и начали создавать инструменты боевого ИИ.

Смысл происходящего ясен: перед нами не просто военизация ИИ, а новая форма милитаристского технократического управления. Решения на поле боя все чаще будут приниматься не только офицерами, но и нейросетями, а ключевые узлы боевой машины США — напрямую управляться структурами, контролируемыми технологическими корпорациями.

Когда национальные интересы превыше всего

Председатель Комитета начальников штабов армии США Марк Милли назвал искусственный интеллект самой мощной и быстро развивающейся технологией. Он также отметил, что ИИ и квантовые вычисления дадут стране, которая преуспеет в их военном применении, внушительные преимущества. «Возможность принимать решения быстрее и точнее является значительным преимуществом в ведении войны», — заявил генерал.

Новая корпоративная иерархия власти в США постепенно оформляется институционально: ИИ-олигархия уверенно подминает под себя одну из самых консервативных структур – армию.

Особую важность приобретает то, что в стремлении к технологическому доминированию в сфере ИИ объединились как демократы, так и республиканцы. Республиканец Питер Тиль, исполнительный директор Palantir и сторонник демократов Александр Карп совместно работают над проектами в области ИИ, подтверждая, что национальные интересы ставятся выше политических разногласий.

Вдобавок в подобных проектах принимают участие не только американские, но и транснациональные компании, в том числе немецкие. «Первый немец, который в этом участвует, — Фридрих Мерц, нынешний канцлер, человек, который много лет входил в правление Black Rock. И это уже государственный уровень. Германия явно идет по пути милитаризации, и работа с искусственным интеллектом в этой части является приоритетной», — подводит итог эксперт Александр Сосновский.

ИИ умнее человека?

Однако такое масштабное и неизученное с точки зрения последствий развитие и применение ИИ сопряжено с серьезными рисками. Эксперты предупреждает об опасности «сингулярности искусственного интеллекта», когда «его плотность достигает огромных величин и, подобно черной дыре, поглощает в себя все окружающее». Проще говоря, становится умнее человека.

Несмотря на эффективность и инновационность, использование ИИ сопряжено с рисками. Среди них:

  • ложные срабатывания: алгоритмы того же Palantir могут генерировать ложные корреляции, интерпретируя гражданские исследования как военные разработки из-за статистической природы работы нейросетей и их склонности к «галлюцинациям». Стресс-тесты шестнадцати ведущих нейросетей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok, показали, что некоторые модели демонстрируют готовность использовать любые средства, чтобы избежать отключения;
  • снижение критичности: внедрение ИИ снижает критичность операторов, которые склонны переоценивать точность алгоритмов. Система может запускать ответные действия без человеческого подтверждения. ИИ может выдавать дезинформацию в самых разных случаях (при недостаточных вводных, нестандартных условиях и т. д.);

ИИ — несовершенный инструмент, требующий высокой осознанности. Обучение на собственных выводах приводит к накоплению ошибок, а модели, натренированные на мирных данных, неадекватны в боевых условиях.

  • этическая дилемма: использование ИИ в военных целях поднимает вопросы о моральной ответственности и возможности неправомерного применения. Есть риск создания автономных систем, принимающих решения без участия человека;
  • зависимость от технологий: чрезмерная зависимость от ИИ может снизить способность человека к принятию решений в критических ситуациях и риску утечки конфиденциальной информации, используемой в ИИ-системах. А гонка вооружений ИИ-систем в военной сфере может спровоцировать конфликты между странами, что увеличивает риск развязывания войны;
  • несоответствие декларируемым принципам: контраст между заявленными принципами OpenAI об ограничении военного использования ИИ и реальным сотрудничеством с Пентагоном может подорвать доверие к компании и вызвать негативную реакцию общественности;
  • противоречия в законодательстве: необходимость разработки новых нормативно-правовых актов для регулирования использования ИИ в военной сфере и предотвращения злоупотреблений;
  • технологическое отставание: риск отставания от других стран в разработке и внедрении ИИ в военной сфере;
  • недостаточная квалификация кадров: нехватка специалистов, способных разрабатывать, внедрять и обслуживать ИИ-системы в военной сфере.

Данный анализ позволяет получить комплексное представление о целях, задачах, направлениях и рисках, связанных с интеграцией ИИ в военную сферу. Осознание этих аспектов является важным для принятия обоснованных решений и минимизации негативных последствий.

В мирное время ошибки ИИ не так катастрофичны. Но в нынешней ситуации цена им — человеческие жизни, потому что ошибки могут спровоцировать конфликт между ядерными державами.

В докладе министра обороны Беларуси Виктора Хренина на совещании глав военных ведомств государств — членов Шанхайской организации сотрудничества в Циндао отмечалось, что отдельные страны и их коалиции выбрали путь открытой милитаризации и наращивания боевого потенциала с угрозой его применения для реализации политических амбиций. А рукотворная деградация архитектуры международной безопасности и разрушение мер доверия обусловили новый виток гонки вооружений с использованием технологий искусственного интеллекта и смертоносных автономных систем вооружений.

В условиях стремительного развития ИИ вопросы регулирования становятся особенно актуальными. Россия уже в нынешнем году планирует разработать законопроект о регулировании использования ИИ, а ЕС готовится ввести новые ограничения в данной отрасли. Использование технологий ИИ в Беларуси тоже будет четко регулироваться законом (такой документ уже готовится). Отдельно в документе обозначат управление рисками в отношении технологий ИИ, будет сделан упор на правах и обязанностях субъектов отношений в этой сфере, использовании, обработке, хранении и защите данных, ответственности за нарушения.

Осознание рисков и разработка эффективных механизмов контроля и регулирования являются необходимым условием для безопасного и этичного развития искусственного интеллекта. Только так можно избежать негативных последствий и использовать потенциал ИИ во благо нашего государства.

Лента новостей
Загрузить ещё
Файлы cookie
Информационное агентство "Минская правда" использует на своём сайте анонимные данные, передаваемые с помощью файлов cookie.
Информационное агентство «Минская правда»
ул. Б. Хмельницкого, д. 10А Минск Республика Беларусь 220013
Phone: +375 (44) 551-02-59 Phone: +375 (17) 311-16-59