Yapay zekanın silahlaşması insan hayatını mekanik veriye indirgiyor
Küresel aktörlerin yapay zekayı askeri operasyonlarda kullanmadaki ısrarı, sivil kullanıcı verilerini jeopolitik birer silahlanma aracına dönüştürme riski taşıyor.
Ankara
Anadolu Ajansının (AA) "Yapay Zekanın Etik Sınavı" başlıklı dosyasının bu haberinde, yapay zeka dünyasında "etik duvarlar" ile "askeri ihtiyaçlar" arasında yaşanan çatışma ele alındı.
- Yapay zeka kaynaklı hak ihlalleri hukuki düzenleme ihtiyacını artırıyor
- Yapay zekanın denetimsiz kullanımı akademide özgünlük ve emeği riske atıyor
Sektöre yön veren dev şirketlerin ABD Savunma Bakanlığı (Pentagon) ile kurduğu temaslar, teknoloji dünyasında derin kutuplaşmaya yol açıyor.
AA'nın WhatsApp kanallarına katılın, önemli gelişmeler cebinize düşsün.
🔹 Gündemdeki gelişmeler, özel haber, analiz, fotoğraf ve videolar için Anadolu Ajansı
🔹 Anlık gelişmeler için AA Canlı
Sürecin merkezindeki OpenAI, kuruluş vizyonunda yer alan "askeri ve savaş" yasağını kullanım politikalarından sessizce kaldırarak Pentagon ile siber güvenlik ve lojistik odaklı yeni bir döneme girdiğini ilan etti. Bu kapsamda OpenAI, Pentagon'un siber savunma kapasitesini artırmak ve askeri lojistik süreçlerini optimize etmek amacıyla özelleştirilmiş modeller sunmaya başlıyor.
Şirket yönetimi, bu ortaklığın "öldürme kararı" veren otonom silah sistemlerini kapsamadığını ve "anlamlı insan kontrolü" şartına bağlı kalındığını savunsa da sivil bir teknoloji devinin askeri kompleksle bu denli iç içe geçmesi küresel bir etik krizini tetikliyor.
OpenAI'ın aksine sektörün en güçlü rakiplerinden Anthropic, kendi "güvenlik duvarlarını" koruma kararı alarak askeri otonom sistemlere veri ve altyapı sağlamayı reddetti.
Sektördeki bu tartışma ise Pentagon'un teknoloji şirketleri üzerindeki "askeri entegrasyon" baskısını da gün yüzüne çıkardı.
"#QuitGPT" tepkisi
Bu yakın temas, sivil toplumda sert karşılık buldu. Dünya genelinde milyonlarca kullanıcı, kişisel verilerinin ve kullandıkları modellerin "öldürme kararı" veren mekanizmalara dahil edilmesi endişesiyle "#QuitGPT" hareketini başlattı.
QuitGPT ekibinden AA muhabirine yapılan açıklamada, OpenAI'ın kuruluş amacından uzaklaştığı belirtilerek "Tüm insanlığa hizmet etme iddiasıyla kurulan bir yapının bu noktaya gelmesi hayal kırıklığı yaratıyor. Şirket yön değiştirmedikçe bu tepki sürecek." ifadeleri kullanıldı.
Pentagon ile işbirliklerine de değinilen açıklamada, OpenAI'ın bu süreçte sergilediği tutum eleştirilerek "Anthropic'in etik duruşunu korurken OpenAI'nin bu çizgiden uzaklaşmasının büyük hayal kırıklığı yarattığı" belirtildi.
Açıklamada, yapay zekanın askeri sistemlere entegrasyonuna ilişkin risklere dikkati çekilerek, bu tür işbirliklerinin kontrolsüz ilerlemesi halinde "küçük bir grup tarafından yönetilen ve yapay zeka tarafından yürütülen, durdurulması zor askeri sistemlerin" ortaya çıkabileceği uyarısında bulunuldu.
Özellikle devletlerin veri erişimini genişleten mevcut yasal boşluklara işaret edilen açıklamada, yapay zekanın bu veriler üzerinden bireylerin konum, mesaj ve kişisel bilgilerini analiz edebilecek kapasiteye ulaşmasının ciddi riskler barındırdığı ifade edildi.
Küresel güvenlikte geri dönülmez tehdit
Kanada'daki McGill Üniversitesinden otonom sistemler ile robotik etiği uzmanı Prof. Ajung Moon, bu kontrolsüz gidişatın küresel güvenlik üzerindeki etkilerini AA muhabirine değerlendirdi.
Moon, teknolojide hesap verebilirlik ve etkili denetim mekanizmalarının henüz yeterince gelişmediğini, bu sayede yapay zeka araçlarının silahlı çatışmalara dahil edilmesinin teşvik edildiğini söyledi.
ABD'nin, tüm risklerine rağmen yapay zekanın askeri kullanımını "meşru" bir zemine oturtmaya çalıştığını belirten Moon, bu yaklaşımın dünya genelinde tehlikeli bir durumun normal kabul edilmesine yol açtığını vurguladı.
Moon, mevcut jeopolitik gerilimler atmosferinde birçok ülkenin yapay zeka tabanlı askeri seçenekleri dışlamayı artık zafiyet olarak değerlendireceğini kaydederek, bu gidişatın dünyayı ölümcül otonom silah sistemlerine doğru geri dönülemez bir eşiğe sürüklediği uyarısında bulundu.
Otonom sistemlerde denetimsizlik ve jeopolitik riskler
Mevcut teknolojilerin kapsamlı denetim mekanizmasından yoksun olduğunu ifade eden Moon, teknoloji devlerinin mevcut etik taahhütlerinin jeopolitik baskılar karşısında kalıcı olamayacağı değerlendirmesinde bulundu.
Moon, son teknoloji yapay zeka modellerinin askeri senaryolar için tasarlanmadığını hatırlatarak "OpenAI şimdilik kendi kırmızı çizgilerinin yeterli olduğunu düşünebilir ancak ABD dışı aktörlerin yapay zeka tabanlı savaş araçlarını yaygınlaştırması, bu şirketlerin 'ulusal çıkarları koruma' adına ahlaki standartlarını esnetmelerine ve bu çizgileri yeniden müzakere etmelerine yol açacaktır." diye konuştu.
Bu modellerin askeri kullanım senaryoları düşünülerek tasarlanmadığını hatırlatan Moon, bunun da sorumluca yapılacak bir entegrasyonu teknik olarak neredeyse imkansız kıldığını vurguladı.
Dijital veriler geleceğin silahı olabilir
Otonom silahların kullanımını sadece teknik mesele değil, derin insan hakları sorunu olarak nitelendiren Moon, dijital egemenliğin hayati önemini şu sözlerle vurguladı:
"Otonom silahlar kullanarak bir kişiye karşı ölümcül güç kullanmak, sadece hedefi değil, genel olarak insan hayatının değerini zedeler. Hayatı, bir makineye devredilerek kolayca sonlandırılabilecek mekanik bir onursuzluğa indirger. Ayrıca unutmamalıyız ki bu şirketlerin önceliği her zaman kendi ülkeleri olacaktır."
Bugün normal hayatta paylaşılan verilerin gelecekte birer silaha dönüşebileceği riskine işaret eden Moon, "Kişisel hayatımızda kullandığımız veriler ve otomasyon süreçleri, yarın jeopolitik dengeler değiştiğinde bize, meslektaşlarımıza veya sevdiklerimize karşı kullanılabilir." dedi. Moon, bu krizin küresel toplum için dijital egemenliğin ve sivil verilerin "askeri enstrümana dönüşme gerçeğinin" ne kadar kritik olduğunu hatırlattığını dile getirdi.
Anadolu Ajansı web sitesinde, AA Haber Akış Sistemi (HAS) üzerinden abonelere sunulan haberler, özetlenerek yayımlanmaktadır. Abonelik için lütfen iletişime geçiniz.
