"Yapay zekanın kötü niyetle kullanılması ve enformasyon savaşının bir aracına dönüşmesi ne gibi etkiler doğuru?" ABD'li politika, uluslararası ilişkiler ve ekonomi dergisi Foreign Affairs yapay zekanın bu bağlamda oynadığı rolü değerlendiren bir makale yayımladı. Makalede; istihbarat toplama, dezenformasyon kampanyaları ve kötü niyetli etki operasyonları yürütmek isteyen aktörlerin yapay zekayı nasıl kullandığı ele alındı.
"Yapay Zeka Dezenformasyon Savaşını Güçlendiriyor" başlıklı yazı ABD'nin eski Dışişleri Bakanlığı Kamu İşlerinden Sorumlu Müsteşar Yardımcısı James P. Rubin ve analist Darjan Vujica'nın imzasını taşıyor. Antony Blinken ve Madeleine Albright dönemlerinde danışmanlık yapan Rubin, ABD'nin eski başkanı Joe Biden zamanında da ABD Dışişleri Bakanlığı Küresel Katılım Merkezi'nin özel temsilcisi koordinatörü rolünü üstlenmişti. Vujica ise aynı merkezde 2019-2021'de analitik direktördü. 2024-2025'te de Hindistan'ın başkenti Yeni Delhi'deki ABD Büyükelçiliği'nde "Gelişen Teknolojiler Koordinatörü" olarak çalıştı.
"Ve Amerika'nın Savunması Hazır Değil" alt başlığını barındıran analizde "Dezenformasyon yeni bir sorun değil ancak yapay zekanın ortaya çıkışı kötü niyetli aktörlerin giderek daha etkili etki operasyonlar geliştirmesini, bunu ucuza ve büyük ölçekte yapmasını önemli ölçüde kolaylaştırdı." ifadelerine yer verildi. Yazıda 2026 ABD ara seçiminin hızla yaklaştığı, "ABD'nin savunmasını güçlendirmeyi başaramazsa, kamuoyunu etkileyecek operasyonların Amerikalıların değer verdiği demokratik yaşam biçimini baltalayabileceği" vurgulandı.

"Ben ABD Dışişleri Bakanı Marco Rubio" örneği
Analiz "Haziran ayında bir Avrupalı dışişleri bakanının Signal hesabına kısa mesaj gönderildi." örneğiyle başlıyor. Yapay zekanın, kötü niyetli kişilerin elinde, bir hedefe karşı avantaj sağlamak için bilgi savaşı -bilginin manipüle edilmesi ve dağıtılması- vermesine işaret edilen örnekte gönderici, acil bir taleple ABD Dışişleri Bakanı Marco Rubio olduğunu öne sürdü. Ardından iki dışişleri bakanı, bir ABD valisi ve bir Kongre üyesi de aynı mesajı aldı; bu kez mesajda Rubio'yu taklit eden karmaşık bir sesli not vardı. Gerçeğinden ayırt edilmesi son derece zor olan mesaj; kimliği belirsiz kişiler tarafından yapay zeka kullanılarak tasarlanmış bir ‘deepfake’ti. Yalan yakalanmasaydı, bu numara Amerikan diplomasisini tehlikeye atma veya Washington'ın yabancı ortaklarından hassas istihbarat elde etme potansiyeline sahipti.
"Aynı anda milyonlarca kişiye milyonlarca farklı-özelleştirilmiş yalan iletme kapasitesi"
Yazıya göre ABD'de bulunan Vanderbilt Üniversitesi'ndeki araştırmacılar, "Çinli bir teknoloji firması olan GoLaxy'nin, yapay zekayı kullanarak 117 ABD'li milletvekilinin ve 2 binden fazla Amerikalı kamu çalışanının veri profillerini oluşturduğunu" ortaya çıkardı. Verilerin; taklit, sahte mesaj ve yapay zeka tabanlı gerçekçi profiller oluşturmak için kullanılabileceği belirtildi. Makalede "GoLaxy'nin hedefi, milyonlarca kişiye aynı anda milyonlarca farklı, özelleştirilmiş yalan iletme kapasitesi geliştirmekti." ifadelerine yer verildi.

"Dezenformasyon yapay zekayla daha etkili, daha ucuz, daha büyük ölçekli, daha kolay"
Dezenformasyon yeni bir sorun olmadığı, kötü niyetli aktörlerin yapay zekayla giderek daha etkili ‘etki operasyonları’ geliştirdiği ve bunu ucuza yaptığı belirtilen analizde, ABD hükümetinin bu kampanyaları tespit edip durdurmak için araçlarını genişletmesi ve geliştirmesi gerekliliği ifade edildi. Yazıda "ABD Başkanı Donald Trump yönetiminin, ABD'nin yabancı dezenformasyona karşı savunmasını zayıflatarak silahsızlandırdığı ve ülkeyi yapay zeka destekli saldırılarla başa çıkmak için son derece hazırlıksız bıraktığı" savunuldu. Analizde şu değerlendirme yer aldı: "ABD hükümeti bilgi savaşına karşı koymak için gereken kurumlara ve uzmanlığa yeniden yatırım yapmadığı sürece, dijital etki kampanyaları halkın demokratik kurumlara, süreçlere ve liderlere olan güvenini giderek zayıflatacak ve Amerikan demokrasisine binlerce darbe vurma tehdidinde bulunacaktır."

"Yapay zekadaki gelişmeler demokrasiye yönelik tehditleri giderek daha da keskinleştirdi"
Çin ve Rusya'nın etki faaliyetilerine işaret eden analistler, bilgi savaşının drone savaşına benzediğine dikkat çekti.
- Yabancı propaganda ve dezenformasyon kampanyaları artık belirli zaafları (bir bireyin siyasi eğilimleri, sosyal değerleri veya çevrimiçi alışveriş alışkanlıkları) tespit etmek ve hedef kitlelerinin tutum ve davranışları üzerindeki etkileri en üst düzeye çıkarmak için tasarlanmış hedefli saldırılar gerçekleştirmek üzere tasarlanıyor.
- Propaganda kampanyaları; tarihsel olarak içerik oluşturma, çeviri ve hedef seçimi için gereken insan emeğiyle sınırlıydı. Yapay zekâ bu insan gücü taleplerini ortadan kaldırarak, bilgi savaşının birçok ülkenin mücadele etmeye hazır olmadığı bir hız ve karmaşıklık düzeyinde yürütülmesini sağlıyor.
- Durdurulamaz bir bölücü siyasi mesaj saldırısıyla karşı karşıya kalan sosyal uyum bozulabilir ve hükümetlerin karar alma süreçleri felç olabilir. Dijital bilgi ortamı artık iç ve dış politika hedeflerinin, saldırganların kendi güvenli bölgelerini terk etmelerine gerek kalmadan, düşmanlar tarafından baltalanabildiği bir çatışma alanıdır.

"Yapay zeka istikrarsızlaştırmak için de kullanılıyor"
Analizde yapay zekanın istikrarsızlaştırmak için de kullanıldığı belirtildi. ChatGPT'den sorumlu yapay zeka şirketi OpenAI'ın, yakın zamanda Çinli aktörlerle bağlantılı birkaç ChatGPT hesabını kaldırdığını duyurduğu aktarıldı. Buna göre "Spam Amca" olarak adlandırılan bu gizli etki operasyonu, yapay zekayı sahte çevrimiçi kimlikler oluşturmak ve gümrük vergileri gibi tartışmalı ABD siyasi meselelerinin farklı yönlerini diğer sosyal medya kullanıcılarıyla kasıtlı olarak tartışan kutuplaştırıcı sosyal medya paylaşımları yapmak için kullandı. Genel amaç, ABD içindeki siyasi çatlakları derinleştirmekti. Ancak "Spam Amca"nın ABD ulusal güvenliği için en sorun yaratan unsuru, X (eski adıyla Twitter) ve Bluesky gibi platformlardan Amerikan vatandaşlarına ait kullanıcı profilleri ve takipçi listeleri de dahil olmak üzere büyük miktarda kişisel veriyi toplamak ve analiz etmek için yapay zeka araçlarının kullanımını içeren istihbarat toplama girişimiydi. Yazıda "Çin bağlantılı aktörler, bu bilgileri hedefleme yöntemlerini geliştirmek için kullanabilir ve bu da Pekin'e gelecekteki bilgi savaşlarında avantaj sağlayabilir." görüşü paylaşıldı.
Analizdeki çıktılardan biri de "çevrimiçi dezenformasyonun çevrimdışı sonuçları" oldu. Hindistan'da, yapay zeka tarafından (giderek artan sayıda) üretilen görüntü ve videonun, İslam karşıtı nefret suçlarının yayılmasına, dinler arası gerilimin artmasına ve azınlık gruplarına yönelik tehditlerinin artmasına neden olduğu ifade edildi. BBC'nin bir haberi hatırlatılarak, Sudan'dan bir örnek paylaşıldı. Yapay zeka ses klonlama tekniğinin, 2019 darbesiyle devrilen eski Sudan lideri Ömer el-Beşir'i taklit etmek için TikTok'ta kullanıldığına dikkat çekildi. Böyle bir kullanımın, kamuoyunun resmi bilgi kaynaklarına olan güvenini zedeleyebileceğine ve sivil düzenin bozulmasını hızlandırabileceği belirtildi. Yapay zekanın yıkıcı gücüne bir başka örnek olarak da 2024'te cumhurbaşkanlığı seçimlerinin dış müdahalelerle gölgelendiği Romanya gösterildi.

Analizde tehdit giderek daha da şiddetlense de ABD'nin bilgi savaşına karşı her zamankinden daha savunmasız olduğu öne sürüldü. ABD'de dezenformasyon kampanyalarının tespitine ve müdahalesine yönelik çalışmalara, gelişime ve zayıflamaya, değinilen yazıda şu hususlar dikkat çekti:
- ABD'nin rakipleri dezenformasyon kampanyalarına büyük yatırımlar yapıyor, yapay zeka alanındaki gelişmeler daha tehlikeli bir çatışma biçimine yol açıyor.
- Basit bir çözüm yok ancak ABD'nin dezenformasyona karşı ciddi bir savunması hem teknolojik inovasyonu hem de kurumsal yeniden yapılanmayı içermelidir. Bu, ABD'nin yakın müttefiklerini de kapsamalı ve Küresel Katılım Merkezi GEC'in halefinin oluşturulmasını ve dezenformasyonla mücadeleden sorumlu diğer ofislerin yeniden oluşturulmasını içeren bir yaklaşım benimsemelidir.
- Bu çabaya yardımcı olmak için Trump yönetimi, yapay zeka destekli yabancı kötü niyetli etkiyi ABD için açık ve mevcut bir tehdit olarak açıkça ilan eden bir ulusal güvenlik direktifi yayınlamalıdır.
- Bu direktif, istihbarat topluluğunu ABD'nin hasımlarının dezenformasyon kabiliyetlerine dair yeni ve kapsamlı bir değerlendirme yapmak üzere harekete geçirmeli ve bu sayede gelecekteki istihbarat toplama ve hedefleme önceliklerinin en acil tehditlere odaklanmasını sağlamalıdır.
"2026 ABD ara seçim uyarısı: Etki kampanyaları, demokratik yaşam biçimini baltalayabilir"
- ABD Siber Komutanlığı'nın saldırı birimleri ve Hazine Bakanlığı'nın yaptırım mekanizmaları gibi hükümetin farklı birimlerinde mevcut araçların, yabancı kötü niyetli etkilere karşı mücadelede koordineli bir şekilde kullanılmasını sağlamak için Ulusal Güvenlik Konseyi liderliğinde kurumlar arası kalıcı bir yapı kurmalıdır.
- Bilgi savaşına karşı savunma, Beyaz Saray Bilim ve Teknoloji Politikaları Ofisi tarafından organize edilen kamu ve özel sektör ortaklığı da gerektirecektir. Sosyal medya platformları, önde gelen yapay zeka araştırma laboratuvarları ve siber güvenlik firmalarıyla resmi iş birliği kanallarının oluşturulması, ABD hükümetinin belirli tehditler hakkında istihbarat paylaşmasına, yapay zeka tarafından üretilen içerikleri tespit etmeye yardımcı olacak gelişmiş teknolojiler geliştirmesine ve yapay zekanın dezenformasyon yayılımını engellemek için sektör genelinde en iyi uygulamaları oluşturmasına olanak tanıyacaktır. Beyaz Saray'ın katılımıyla, bilgi savaşına karşı mücadele, ABD ulusal savunmasının temel bir örgütlenme ilkesi haline gelecektir.
- Bu adımların atılması, ifade özgürlüğünü denetlemek için değil, Amerikan vatandaşlarının yabancı dezenformasyonla kirletilmemiş bir diyalog kurma hakkını korumak içindir. 2026 ABD ara seçimleri hızla yaklaşırken, harekete geçme zamanı şimdidir. Trump yönetimi ABD’nin savunmasını güçlendirmeyi başaramazsa, muhaliflerinin yürüttüğü sinsi ve ısrarcı etki kampanyaları, Amerikalıların değer verdiği demokratik yaşam biçimini baltalayabilir.