İsrail'in hedeflerini yapay zekanın seçtiği ortaya çıktı

Gaye Güllü / 04.04.2024
İstanbul

İsrail’in Gazze Şeridi’ne yönelik saldırıları 181 gündür devam ediyor. Gazze’deki Filistin Sağlık Bakanlığı tarafından yapılan açıklamada Gazze’de hayatını kaybedenlerin sayısının 33 bin 37’ye yükseldiği kaydedildi.

7 Ekim 2023’ten bu yana tartışma konusu olan İsrail’in saldırı politikaları hakkında yeni bir iddia ortaya atıldı. İsrail’in hedef belirlemede yapay zekadan yararlandığı iddiası uluslararası kamuoyunda yankı ve tepki uyandırdı.

İsrail Saldırı Amaçlı 3 Farklı Yapay Zeka Sistemi Kullanıyor

İsrail’in Gazze Şeridi’ndeki soykırıma varan katliamında rol oynayan rütbeli askerlerin yapmış olduğu açıklamalar tartışma yarattı.

Tel Aviv merkezli "+912" ve Local Call'a konuşan İsrail istihbarat görevlileri,  İsrail’in hedef belirlemek için "Lavander", "Gospel" ve "Where is daddy?" isimli farklı yapay zeka araçları geliştirdiğini ifade etti.

Gazze’de hedef belirleme aşamasında yapay zeka kullanımına ilk elden şahitlik eden görevliler, bu yapay zeka araçlarının Gazze’deki bombardımanlarda merkezi bir rol oynadığını belirtti.

Sürecin otomasyona bağlandığını ifade eden kaynaklar, yapay zeka araçlarının seçimlerini kontrol etme ve bu seçimlerin dayandığı istihbarat verilerini inceleme zorunluluğunun ise rafa kaldırıldığını teyit etti. 37 bin hedefin yapay zekadan gelen direktifler doğrultusunda belirlenmesi, belirlenen hedeflerin hiçbir insan müdahalesine/incelemesine tabi tutulmadan direkt olarak vurulması dünya kamuoyunda büyük tepki çekti.

Yapay Zeka Araçları Ölüm Listeleri Oluşturuyor

+912'ye konuşan kaynaklar, bahsi geçen yapay zeka programlarının; isimler, telefon numaraları adresler, görüntü, GPS koordinatları ve sosyal medya profilleri gibi türlü verileri analiz etme ve listeleme üzerine geliştirildiğini belirtiyor.  

Ayrıca, Hamas görevlilerinin bilgileri ile beslenen sistemin, analiz ettiği veriler doğrultusunda Filistinlileri sınıflandırarak bir hedef listesi oluşturmada kullanıldığı da verilen bilgiler arasında yer alıyor.

Hata Payı Göz Ardı Edildi

Her sistemde olduğu gibi yapay zeka araçlarının verdiği sonuçlarda da sapmalar sıklıkla yaşanıyor. Saldırı amacıyla hedef seçiminde oluşabilecek hatalar ise masum sivillerin hayatını kaybetmesine neden oluyor. 

Görüşlerini paylaşan 6 kaynak, İsrail'in Gazze'deki katliamlarında kullandığı yapay zeka araçlarının yüzde 10 oranında isabetsiz sonuçlar verdiğini, İsrail'in bu yüzde 10'luk hata payını görmezden geldiği belirtiliyor. Hamas ile çok zayıf bağlantıları olan ve hatta hiç bağlantısı olmayan kişilerin de hedef olarak işaretlendiği ancak İsrail ordusunun bu hataları göz ardı ederek işaretlemelere uygun saldırıları düzenlediği de açıklamalar arasında yer alıyor

Hedef Olarak Tespit Edilen Kişi Aileleriyle Bombalanıyordu

Lavender'ı kullanmış olan B. adlı üst düzey asker, hedeflerin az olduğu günler uygulamanın kapsamının genişletildiğini, daha kalabalık bir kitlenin hedef alındığını belirtti. Sistemin eksikliklerine dikkati çeken yetkili, "Eğer hedef kişi telefonunu başka bir kişiye verdiyse, o kişi tüm ailesiyle evinde bombalanıyordu. Bu çok sık oldu. Lavender'ın en sık yaptığı hatalardan biri buydu." açıklamasında bulundu.

Ordu, bu sistemlerin tespit ettiği her alt düzey Hamas görevlisi için 20 kadar sivilin ölümünü göze almış.  Şüphelinin görev derecesine göre bu sayının 100’e kadar çıkabileceği belirlenmiş.

Yapay Zeka Saldırılarına Dair Farklı Bulgular Mevcut

+912'nin aktardığı bilgilere göre, İsrail Ordu Sözcüsü (IDF) sözcüsü, hedefleme ve bombardıman için yapay zekadan yararlandığı iddialarını yalanladı. Ancak geçmiş dönemlerde de İsrail'in Gazze'ye yönelik saldırılarında yapay zekadan yararlandığı açıklanmıştı. 

2023 Haziran'da İsrail medyasına açıklamalarda bulunan eski genelkurmay başkanı Aviv Kochavi, Hedefleme Müdürlüğü biriminin "yapay zeka kabiliyetiyle güçlendirilmiş yüzlerce subay ve askerden oluştuğunu" söylemişti.

Kochavi röportajda 2021'deki "Duvarların Koruyucusu" adlı operasyona atıfta bulunarak "Geçmişte Gazze'de yılda 50 hedef oluşturuyorduk. Bu makine tek bir günde 100 hedef oluşturdu ve bunların yüzde 50'sine saldırıldı." ifadelerini kullanmıştı.

Birçok bağımsız araştırmacı da  Google ve Amazon gibi dünya devi şirketlerin kullanıcı verilerini İsrail Ordusu ile paylaştığı konusunda hem fikir.

The Intercept ise geçtiğimiz dönemlerde Google'ın İsrail'e yapay zeka araçları sattığını bildirmişti. 

Şirketin, İsrail'in insan haklarını ihlal edeceğinden şüphelenmesine rağmen bu sistemi sattığı da kamuoyu ile paylaşılan bilgiler arasında yer alıyor.

Savaşta yapay zeka kullanımının yükümlülüklerine yönelik tamamlanmış bir çalışma bulunmuyor. Ancak yapay zeka kullanımı hali hazırda uluslararası insan hakları konusunda birçok kuralın hiçe sayılmasına neden oluyor.