

ABD'de yapay zeka şirketleri ile Savunma Bakanlığı (Pentagon) arasındaki gerilim, son haftalarda kamuoyuna açık bir tartışmaya dönüştü. Tartışmanın merkezinde, askeri yapay zeka kullanımının sınırları, sözleşme güvenceleri ve "kitlesel gözetim" ile "tam otonom silah" kavramlarının nasıl tanımlandığı yer alıyor.
Süreç, Anthropic Üst Yöneticisi (CEO) Dario Amodei'nin, şirketlerinin Pentagon'un talep ettiği sözleşme dilini "iyi niyetle kabul edemeyeceğini" açıklamasıyla alevlendi. Anthropic, Pentagon'dan gelen yeni sözleşme metninin Claude modelinin Amerikalılara yönelik kitlesel gözetim ya da tamamen otonom silah sistemlerinde kullanılmasını engelleme konusunda "kayda değer ilerleme sağlamadığını" savundu.
Pentagon cephesi ise bu iddiaları reddetti. Savunma Bakanlığı Sözcüsü Sean Parnell, ordunun Amerikalılara karşı kitlesel gözetim yapma gibi bir niyeti olmadığını ve insan müdahalesi olmaksızın çalışan otonom silah sistemleri geliştirmek istemediğini açıkladı.
Tartışma, OpenAI CEO'su Sam Altman'ın Savunma Bakanlığı ile anlaşmaya vardıklarını duyurmasıyla yeni bir boyut kazandı. Altman, modellerinin "gizli ağ" üzerinde konuşlandırılacağını, sözleşmede "kitlesel gözetim yasağı" ve "insan sorumluluğu" ilkelerinin yer aldığını ve teknik güvenlik önlemleri uygulanacağını açıkladı. Ancak konuya yakın hukukçular ve uzmanlar, sözleşmeye ilke yazılmasının fiili kullanım açısından yeterli bir garanti oluşturmayabileceğine dikkati çekiyor. Antrhopic'in Pentagon sözleşmesini kabul etmemesinin temelinde de bu belirsizlik yatıyor.
Bu tartışmaların uluslararası hukuk ve savaş hukuku boyutunu değerlendiren Milli Savunma Üniversitesi Öğretim Üyesi ve Uluslararası Hukuk Uzmanı Dr. Mustafa Tuncer, AA muhabirine yaptığı açıklamada, meseleye hem ABD iç hukuku hem de uluslararası insancıl hukuk perspektifinden yaklaştı.
Pentagon'un beyanları ile sözleşme metni arasındaki gerilimin, teknik olduğu kadar hukuki belirsizliklerden kaynaklandığını belirten Tuncer, şu değerlendirmelerde bulundu:
"ABD Savunma Bakanlığı'nın konuya ilişkin beyanı, sözleşmenin uygulanmasına ilişkin teknik ve hukuki alanda sorunlar doğurabilir. Zira kitlesel gözetim kavramının ABD iç hukukunda farklı bağlamlarda farklı şekillerde tanımlanması, bu konuda beyanın içerdiği taahhüdü de belirsiz hale getirmektedir. Ayrıca tam otonom silah tanımının da 2023 tarihli ABD Savunma Bakanlığı direktifi gibi ulusal metinlerinden kaynaklanması, bu tanımın gelecekte değişmesi halinde bugünkü beyanın kapsamı ve etkisine dair başka bir belirsizliğe zemin hazırlamaktadır. Yine sözleşme dışı bir beyanın, sözleşmenin uygulanmasına ilişkin gelecekte bir sorun çıkması halinde sorumluluk rejimini başlı başına değiştirmemesinin de Anthropic'in bir diğer endişesi olabileceği değerlendirilebilir."
ABD'de federal kurumların yapay zeka kullanımına ilişkin çerçevenin ne kadar net olduğu konusunda ise Tuncer, şöyle konuştu:
"ABD'nin konuya ilişkin yaklaşımı 2015 tarihinde yayınlanan ve 2023'te güncellenen Savunma Bakanlığı Savaş Hukuku Kılavuzu ve 2023 tarihli Silah Sistemlerinde Otonomi Direktifi'nde ortaya konuyor. Bu bağlamda, yapay zeka kullanımına dayanan otonom silah sistemlerinin kullanımına ve hukuki denetimine dair ulusal bir yaklaşımın ortaya konduğu görülüyor. Ancak bu çerçevenin hukuki olarak ne miktarda bağlayıcı olduğu ve sahada bu ilkelere ne kadar bağlı kalındığı hususu, gelecek için belirsizliği artıran bir faktör olarak değerlendirilebilir."
"Tam otonom silahlar" kavramının hukuki içeriğine ilişkin ise Tuncer, uluslararası insancıl hukukta tam otonom silah sistemlerine ilişkin net bir tanım bulunmamakla birlikte, uygulamada ortaya çıkan bazı tanımlarına işaret etti. Tuncer, "Örneğin, Uluslararası Kızılhaç Komitesine (ICRC) göre otonom silah sistemleri herhangi bir insan müdahalesi olmadan hedef seçen ve kuvvet kullanan sistemlerdir. ABD Savunma Bakanlığı ise otonom silah sistemlerini etkinleştirildikten sonra, operatör tarafından başka bir müdahale olmaksızın hedefleri seçip vurabilen sistemler olarak tanımlamaktadır. ABD yaklaşımına göre, otonom silah sistemlerinin operatörünün, sistemin faaliyetlerini denetleme ve gerektiğinde iptal etme yetkisi de bulunabilir." dedi.
Uluslararası hukukta açık ve özel bir yapay zeka düzenlemesi bulunmuyor
Tuncer, uluslararası insancıl hukukta yapay zekanın kullanımının doğrudan düzenlenmediğini, ancak yeni silah teknolojilerine ilişkin kuralların yapay zeka ve otonom silah sistemleri üzerinde de uygulanacağının değerlendirildiğini söyledi.
Asıl sorunun, hukuki denetimin net bir küresel çerçeve yerine devletlerin farklı uygulamaları üzerinden ilerlemesinden kaynaklandığını dile getiren Tuncer, şunları kaydetti:
"Bu bağlamda, uluslararası insancıl hukukun temel ilkeleri olan askeri hedef ve sivillerin ayırt edilmesi (ayırt etme ilkesi), sivillerin saldırılar neticesinde elde edilecek askeri avantaja kıyasla orantısız bir zarar görmemesi (orantılılık ilkesi) ve devletlerin operasyonları yürütürken bu maksatla alınabilecek bütün tedbirleri alması (tedbir alma ilkesi) şartlarının sağlanması maksadıyla devletlerin otonom silah sistemlerinin hukuka uygunluk denetimi yükümlülüğünün olduğu kabul ediliyor. Ancak özellikle yapay zekanın sürece dahil olmasıyla birlikte, bu hukuki denetimin nasıl uygulanacağı ve hangi sınırlamalara tabi olduğu hususları net bir hukuki çerçeve üzerinden değil, devletlerin birbirinden yer yer farklılık gösteren uygulamaları üzerinden ilerliyor."
"Sınırlar net şekilde tanımlanmalı"
OpenAI Üst Yöneticisi (CEO) Sam Altman'ın, yapay zeka modellerini ABD Savunma Bakanlığı'nın gizli ağına konuşlandırmak üzere vardıkları sözleşmeye imza koyduklarını açıklamasının ardından, bunun yeterli bir güvence olup olmadığı konusunda ise Mustafa Tuncer, şu görüşleri dile getirdi:
"Bu sorun, temelde insan denetimi kavramının uluslararası hukukta ve ABD hukukunda net bir içeriğe sahip olmaması ve değişime açık olmasından kaynaklanıyor. Kitlesel gözetimin iç hukuktaki belirsizliği ve olası bir değişime açıklığı hukuki belirsizliği artıran bir diğer faktör olarak değerlendirilebilir. Sözleşmeye eklenmesi halinde dahi bu kavramların değişimi dikkate alındığında, en bağlayıcı ve hukuken güvenli seçeneğin bu kavramların sözleşme özelinde net bir şekilde tanımlanması ve bunun olası iç hukuk değişikliklerinden hariç tutulacak bir şekilde değerlendirilmesi olduğu söylenebilir."