анализ новостей

АНАЛИТИКА - ИИ и автоматизация в противостоянии США – Израиль/Иран: принимает ли решения машина?

Преподаватель Полицейской академии Турции подготовил для «Анадолу» аналитический обзор об использовании ИИ в конфликтах

Dr. Alp Cenk Arslan, Ulviyya Amoyeva  | 25.03.2026 - Обновление : 25.03.2026
АНАЛИТИКА - ИИ и автоматизация в противостоянии США – Израиль/Иран: принимает ли решения машина?

СТАМБУЛ

Преподаватель Полицейской академии Турции доктор Альп Дженк Арслан подготовил для «Анадолу» аналитический обзор, посвященный применению искусственного интеллекта (ИИ) в вооруженных конфликтах и роли человеческого решения в этом процессе.

***

Атаки США и Израиля на Иран преобразовали роль ИИ на поле боя из предмета теоретических дискуссий в стратегическую реальность. Концепция «войны с поддержкой ИИ», ранее сосредоточенная на возможностях вооружений, теперь напрямую связана со скоростью и динамикой процессов принятия решений. Трансформация начала происходить на уровне когнитивной инфраструктуры войны, которая включает обработку данных и ускорение цепочки нанесения ударов.

Опубликованный на днях «Ежегодный доклад об угрозах» (Annual Threat Assessment) США на 2026 год прямо признает эту тенденцию. В документе ИИ определяется как одна из ключевых технологий XXI века, при этом подчеркивается, что в сфере обороны ИИ ускоряет процессы целеуказания и принятия решений. Таким образом, иранский фронт стал критически важной испытательной площадкой не только с точки зрения применения ИИ для выбора целей, но и с точки зрения способности преобразовывать массивные потоки данных в оперативный темп действий.

От теории к практике: Человеко-машинная команда

Эта трансформация, по сути, была предвосхищена еще много лет назад. В книге «Человеко-машинная команда» («The Human-Machine Team»), опубликованной в 2021 году под псевдонимом «бригадный генерал Ю.С.», обосновывалась идея преодоления человеческих ограничений в процессе формирования целей за счет создания «синергии» между человеком и машиной. В 2024 году издания +972 и Local Call, а затем британская The Guardian сообщили, что за этим псевдонимом, по их данным, стоит командир элитного израильского подразделения киберразведки Unit 8200 Йосси Сариэль.

Ключевая идея книги заключалась в том, что проблема на поле боя заключается не в недостатке данных, а в ограниченной способности человека обрабатывать их поток. В последующие годы термин «человеко-машинная команда» стал широко использоваться в стратегических документах американских структур безопасности. То, что мы наблюдаем сегодня в Газе, в иранском контексте и в более широкой военной архитектуре США и Израиля, можно рассматривать как практическое воплощение этой модели обработки данных.

Одним из наиболее наглядных примеров превращения анализа данных с помощью ИИ в инструмент ведения войны стала Украина. Она фактически превратилась в «лабораторию» по испытанию систем обработки информации и обнаружения целей. Используемое программное обеспечение Palantir объединяло спутниковые снимки, разведывательные потоки, данные из открытых источников и информацию, поступающую с мест, обеспечивая украинским властям аналитическую поддержку и помощь в целеуказании.

Генеральный директор Palantir Алекс Карп прямо заявлял, что программные решения компании использовались в процессах целеуказания в Украине. Параллельно гражданские лица могли передавать фотографии, видеоматериалы и данные о местоположении российских войск через приложение «eVorog».

Системы, использованные Израилем сначала в Газе, а затем в рамках более широкого регионального конфликта, стали наиболее показательными примерами наступления новой эпохи. Система «The Gospel» рассматривалась как инструмент поддержки принятия решений, способный агрегировать большие объемы данных и формировать предложения по выбору целей — зданий, сооружений и объектов инфраструктуры. В израильских оборонных источниках подчеркивалось, что система лишь предоставляет аналитикам отправную точку. Однако ряд исследований утверждает, что ее использование привело к резкому увеличению масштабов бомбардировок и значительному расширению списка целей. Система «Lavender» привлекла внимание благодаря основанной на данных классификации человеческих целей, поставив принципиальный вопрос: оставалась ли машина вспомогательным инструментом или человеческое одобрение постепенно сводилось к формальной процедуре?

Логика слежения, известная как «Где папочка?» («Where’s Daddy?»), продемонстрировала, что алгоритмическая война проникла в самые сокровенные сферы повседневной жизни. Она разработана специально для отслеживания людей и нанесения бомбовых ударов, когда они находились дома со своими семьями.

На иранском направлении эта логика вышла за пределы традиционных систем наведения. Израиль задействовал созданную Ираном для внутренней безопасности масштабную инфраструктуру камер наблюдения, превращая видеопотоки в инструмент целеуказания. Таким образом, война перешла на уровень, где гражданская система наблюдения трансформируется в часть военного инструментария. С американской стороны основу этой трансформации составляют Project Maven и разработанная компанией Palantir система Maven Smart System. Maven уже стал ключевой операционной платформой ИИ для армии США и, как сообщается, использовался в последние недели в тысячах точечных ударов по Ирану. Система объединяет спутниковые изображения, данные сенсоров, разведывательные отчеты и информацию с мест, ускоряя обнаружение целей и их приоритизацию.

Еще более показательной стала новость об Anthropic, опубликованная на прошлой неделе в Wall Street Journal (WSJ). Согласно этим данным, модель Claude от Anthropic использовалась в операции США по захвату президента Венесуэлы Николаса Мадуро в рамках партнерства с Palantir. Это сотрудничество основывалось на анализе данных и генерации сценариев. Palantir, используя Claude, предоставляла Пентагону аналитические выводы. То есть, собранные данные обрабатывались языковой моделью, которая формировала разведывательные сценарии. Это стало важным рубежом, свидетельствующим о переходе ИИ от аналитического инструмента к элементу операционной цепочки принятия решений.

В результате ключевой вопрос сместился с формулировки «Можно ли использовать ИИ в войне?» к более сложному: «Какая модель ИИ используется, в рамках какой архитектуры данных и при какой системе операционной ответственности?»

Остается ли человек в контуре принятия решений или превращается в «чиновника», ставящего формальную подпись?

Именно на этом этапе возникло новое напряжение между Пентагоном и Кремниевой долиной. Министерство обороны США потребовало от Anthropic ослабить некоторые ограничения безопасности для моделей, предназначенных для использования в засекреченных сетях. После отказа компании конфликт обострился. Генеральный директор Anthropic Дарио Амодей провел встречу с министром обороны США Питом Хегсетом. Однако ситуация дошла до того, что Пентагон начал рассматривать Anthropic как «риск для цепочки поставок».

Практически сразу после этого OpenAI заключила отдельное соглашение о развертывании своих моделей в засекреченных сетях Пентагона. Одновременно компания xAI Илона Маска также подписала ряд соглашений с американским военным ведомством. При этом существует важный нюанс. OpenAI заявила, что соглашение предусматривает дополнительные меры безопасности и устанавливает определенные «красные линии». Таким образом, речь не идет о простой победе более милитаризованного подхода. Скорее, мы наблюдаем процесс переговоров, в рамках которого оборонные структуры стремятся к более глубокой интеграции ИИ, тогда как технологические компании пытаются определить допустимые границы его применения.

В итоге становится очевидно, что дискуссия уже не сводится к вопросу полного исключения человека из процесса. Меняется сама природа его роли. В современных конфликтах человек рискует превратиться из непосредственного субъекта принятия решений в «оператора», который лишь утверждает один из множества вариантов, предложенных машиной. Риторика «человека в контуре» может сохраняться на уровне официальных документов, однако под давлением скорости принятия решений, плотности информационных потоков и уровня автоматизации человек фактически превращается в звено, легитимирующее алгоритмический процесс.

Таким образом, искусственный интеллект не заменяет войну, но выводит ее темпы за пределы естественного ритма человеческого мышления. В то же время пример Ирана показал, что высокая алгоритмическая скорость не гарантирует автоматической победы. Подземные объекты, мобильные пусковые установки, а также устойчивый ракетный и беспилотный потенциал значительно осложнили полное подавление целей, несмотря на технологическое превосходство и доступ к данным.

Иными словами, ключевой вопрос сегодня звучит так: остается ли человек хозяином решения или превращается в последнее звено, обеспечивающее легитимность алгоритмической скорости?

[Доктор Альп Дженк Арслан — преподаватель Полицейской академии Турции]

Мнение, выраженное в статье, принадлежит автору и может не отражать редакционную политику «Анадолу».


На веб-сайте агентства «Анадолу» в укороченном виде публикуется лишь часть новостей, которые предоставляются абонентам посредством Системы ленты новостей (HAS) АА.