АНАЛИТИКА - Израиль в Газе использует искусственный интеллект как оружие
Есть серьезные обвинения в том, что инструменты искусственного интеллекта, используемые Израилем в Газе, выходят за рамки систем поддержки принятия решений

Istanbul
Преподаватель кафедры информационного и технологического права юридического факультета Университета Галатасарай Осман Гази Гючлютюрк написал для издания «AA Аналитика» об использовании Израилем искусственного интеллекта в Газе и правовом аспекте этой ситуации.
***
Технология искусственного интеллекта продолжает выходить на повестку дня, каждый день открывая новые области применения и обещания. Несмотря на то, что о возможностях и преимуществах, которые она предлагает, говорят в основном все, новые области применения искусственного интеллекта несут в себе и множество рисков. В частности, интеграция автономных возможностей искусственного интеллекта по принятию решений в системы нападения и обороны вызывает значительные риски и опасения. В этом контексте события, связанные с использованием искусственного интеллекта Армией обороны Израиля (ЦАХАЛ) в Газе, имеют огромное значение.
- Как искусственный интеллект используется в обороне и военных операциях?
Использование искусственного интеллекта в военной сфере может принимать различные формы. Среди них распространенными примерами являются анализ района операции с помощью искусственного интеллекта, идентификация и обнаружение целей, а также использование искусственного интеллекта в процессах блокировки целей. Однако наиболее спорным использованием этих систем является позиционирование искусственного интеллекта для отдачи прямых приказов об атаке. Сама израильская армия в своих заявлениях утверждает, что искусственный интеллект и автономные системы используются для ускорения оперативных процессов. [1]
ЦАХАЛ также утверждает, что результаты работы этих систем анализируются людьми, и, в частности, результаты обнаружения целей сравниваются с результатами работы искусственного интеллекта. Поскольку израильские военные не раскрывают принципы работы и механизмы принятия решений систем искусственного интеллекта с полной прозрачностью, информация и новости в этой области в основном основываются на анонимных источниках. Это затрудняет объективную оценку сообщений и утверждений. Однако, помня о необходимости проверки заявлений, можно рассмотреть некоторые общие сценарии.
Использование Израилем технологий искусственного интеллекта в Газе на самом деле не является чем-то новым. Настолько, что операция «Страж стен» в 2021 году в некоторых источниках описывается как «первая война искусственного интеллекта». [2] С тех пор, как известно, искусственный интеллект продолжает по-разному использоваться в атаках на Газу.
Существуют различные инструменты искусственного интеллекта, чьи имена выделяются в операциях в Газе. Во-первых, система под названием «Алхимик» собирает данные из разных источников и предоставляет информацию, отслеживая мобилизацию в регионе. [3] «Edge360», с другой стороны, интегрирована в бронированные машины и уведомляет оператора об угрозах окружающей среды. [4] Эти системы не принимают прямых решений об атаке, поддерживают процессы принятия решений операторами и поэтому оказывают ограниченное влияние на цикл целеуказания в военной литературе.
- Становится ли искусственный интеллект лицом, принимающим решения на поле боя?
С другой стороны, есть серьезные обвинения в том, что инструменты искусственного интеллекта, используемые Израилем в Газе, выходят за рамки систем поддержки принятия решений. В этом контексте особенно выделяются три системы. Первая - система под названием Lavender, которая используется для детального целеуказания с самого начала конфликта. Lavender определяет людей и места, на которые будут направлены удары, используя пулы данных, принадлежащие израильской армии. Вторая система, Gospel, выполняет функции Lavender в более широком масштабе и дополнительно на уровне структур. Третья система, Where’s Daddy? отслеживает данные о мобильном местоположении целевых лиц и определяет, заходили ли они в определенные места или нет, и эта конечная информация о местоположении используется для определения места проведения операции против людей, обозначенных как цели. [5]
Когда анализируются новости и отчеты об использовании Израилем систем Lavender, Gospel и Where's Daddy?, можно с тревогой констатировать, что результаты работы систем использовались в серийных атаках без проверки, что не соблюдалось различие между гражданскими и военными лицами и что цели были выбраны в гражданских районах. С точки зрения дизайна эти системы не являются системами принятия решений, но они способны поддерживать определенные решения.
С другой стороны, даже если система используется в качестве системы поддержки принятия решений, влияние приложения искусственного интеллекта на процесс принятия решений следует оценивать не только с точки зрения дизайна, но и с точки зрения применения. Например, хотя вышеупомянутые системы не действуют непосредственно автономно, согласно некоторым источникам, утверждается, что целеуказания Lavender, особенно в ранних операциях израильской армии, основываются на приказах об атаке без прохождения процесса проверки и только после быстрого утверждения на бумаге. Использование искусственного интеллекта в качестве механизма, который непосредственно решает, кого атаковать на поле боя, поднимает важные юридические вопросы.
- Как оружие, поддерживаемое ИИ, регулируется в международном праве?
Использование искусственного интеллекта в качестве системы поддержки принятия решений в оборонной и военной промышленности, как правило, не запрещено ни на национальном, ни на международном уровне. Однако использование искусственного интеллекта в качестве системы поддержки принятия решений, которая существенно, а возможно, и полностью влияет на механизм принятия решений, создает проблему с точки зрения международного гуманитарного права.
Как и в других областях международного права, нормы международного гуманитарного права разрабатываются не только на основе международных договоров и судебных решений, но и на основе давно сложившихся обычных норм, действие которых признается на международном уровне независимо от того, зафиксированы они в письменном виде или нет. Широко цитируемый сборник этих обычных норм составлен Международным комитетом Красного Креста (МККК). [6]
При анализе этих правил и принципов выделяются глубоко укоренившиеся принципы, направленные на защиту гражданского населения и предотвращение неизбирательных нападений в вооруженных конфликтах. Эти принципы включают такие базовые правила, как разделение гражданских лиц и комбатантов, соразмерность атак и проверка того, что цели используются в военных целях. Наличие вооруженного конфликта не означает полного прекращения действия международного права прав человека. Более того, тот факт, что эти правила носят общий характер и не содержат прямого упоминания о новых технологиях, не может быть истолкован как означающий, что новые технологии не подпадают под действие этих принципов и могут свободно использоваться. Иными словами, в случае интеграции искусственного интеллекта в инструменты вооруженного конфликта это оружие также должно применяться в соответствии с существующими нормами международного права.
В частности, системы оружия, которые обычно называют смертоносными автономными системами (LAWS) [7], регулируются некоторыми резолюциями Организации Объединенных Наций (ООН) [8], подчеркивающими важность контроля над системами, наносящими вред людям, «Конвенцией о конкретных видах обычного оружия», участником которой является Турция, и некоторыми протоколами к ней, а также Женевскими конвенциями 1949 года и приложениями к ним. В частности, согласно статье 36 Протокола I Женевской конвенции, участником которой Турция не является, государства, рассматривающие возможность приобретения, применения или разработки нового оружия или метода ведения войны, обязаны проверить, не запрещены ли они соответствующими нормами международного права.
Каков же статус вышеупомянутых систем и методов на фоне этих норм? Прежде всего, следует четко обозначить, что принятие оперативного решения непосредственно системой не является правильным. Окончательное операционное решение всегда должно быть под контролем человека. При этом человеческий контроль должен быть не только формальным. Только осмысленный контроль со стороны человека, специализирующегося на данной системе оружия и поле боя, является контролем в этом смысле. Одобрение персонала, которое является лишь формальной подписью или печатью, не будет считаться действительным и значимым человеческим контролем в этом смысле.
Во-вторых, в соответствии с основными принципами международного права, при разработке оружия, которое будет использоваться таким образом, следует также стремиться к технической экспертизе и точности. Используемые в настоящее время передовые системы искусственного интеллекта являются вероятностными с точки зрения технического функционирования и несут в себе возможность ошибки. Снижение этого показателя более важно в тех случаях, когда на карту поставлена человеческая жизнь, чем в гражданской жизни. Например, коэффициент ошибок Lavender, как утверждается, составляет 10 процентов. [9] Хотя невозможно быть уверенным в точности этих показателей без вскрытия систем, используемых ЦАХАЛом, и их детального изучения, если рассматривать их чисто как показатель, то этот процент ошибок слишком высок для системы, используемой для определения целей для принятия решений об атаке без детального изучения и проверки.
Последний момент, который необходимо рассмотреть, - это санкции за нарушение этих правил. За некоторыми основными исключениями, как правило, нормы международного права не издаются из единого центра, как национальные законы, и не становятся непосредственно обязательными для всех. В силу принципа суверенного равенства государств в международном праве преследование государств без их согласия также невозможно. По этой причине судебное разбирательство против государства на международном уровне может стать довольно сложным. Такие институты, как Международный суд (ICJ), с его необязательными консультативными заключениями [10], призывают прекратить операции. С другой стороны, ЮАР подала на Израиль иск в Международный суд за нарушение Конвенции ООН о геноциде, участником которой он является, в связи с проведением операций в Газе. [11] В документах по делу нет упоминания об искусственном интеллекте, и дело рассматривается с точки зрения общего международного права. Дело все еще находится на рассмотрении.
[1] https://www.idf.il/en/mini-sites/idf-press-releases-israel-at-war/june-24-pr/the-idf-s-use-of-data-technologies-in-intelligence-processing/
[2] Anna ANRONHEM, “Israel's operation against Hamas was the world's first AI war”, 27.05.2021, https://www.jpost.com/arab-israeli-conflict/gaza-news/guardian-of-the-walls-the-first-ai-war-669371; Takeshi KUMON, “The first AI conflict? Israel's Gaza operation gives glimpse of future”, 28.06.2021, https://asia.nikkei.com/Politics/International-relations/The-first-AI-conflict-Israel-s-Gaza-operation-gives-glimpse-of-future.
[3] Tal MİMRAN & Gal DAHAN, “Artificial Intelligence in the Battlefield: A Perspective from Israel”, 20.04.2024, https://opiniojuris.org/2024/04/20/artificial-intelligence-in-the-battlefield-a-perspective-from-israel/.
[4] Tal MİMRAN & Gal DAHAN, “Artificial Intelligence in the Battlefield: A Perspective from Israel”, 20.04.2024, https://opiniojuris.org/2024/04/20/artificial-intelligence-in-the-battlefield-a-perspective-from-israel/.
[5] Yuval ABRAHAM, “‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza”, 03.04.2024, https://www.972mag.com/lavender-ai-israeli-army-gaza/.
[6] ICRC, International Humanitarian Law Databases, https://ihl-databases.icrc.org/en/customary-ihl.
[7] United Nations Office for Disarmament Affairs, https://disarmament.unoda.org/the-convention-on-certain-conventional-weapons/background-on-laws-in-the-ccw/.
[8] Birleşmiş Milletler Genel Meclisinin 22.12.2023 tarih 78/241 sayılı kararı: https://docs.un.org/en/A/RES/78/241; Birleşmiş Milletler Genel Meclisinin 02.12.2024 tarih 79/62 sayılı kararı:https://documents.un.org/doc/undoc/ltd/n24/305/45/pdf/n2430545.pdf.
[9] Yuval ABRAHAM, “‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza”, 03.04.2024, https://www.972mag.com/lavender-ai-israeli-army-gaza/.
[10] Uluslararası Adalet Divanı, 19.07.2024 tarihli tavsiye kararı, https://www.icj-cij.org/node/204176.
[11] “Application of the Convention on the Prevention and Punishment of the Crime of Genocide in the Gaza Strip (South Africa v. Israel)”, https://www.icj-cij.org/case/192.
[Осман Гази Гючлютюрк - преподаватель кафедры информационного и технологического права юридического факультета Университета Галатасарай].
*Мнения, выраженные в статье, принадлежат автору и не обязательно отражают редакционную политику агентства «Анадолу».
На веб-сайте агентства «Анадолу» в укороченном виде публикуется лишь часть новостей, которые предоставляются абонентам посредством Системы ленты новостей (HAS) АА.