Yeni bir akademik çalışma, yapay zeka sohbet robotlarının, kişilerin siyasi görüşlerini kolaylıkla etkileyebileceğini ve en ikna edici yapay zeka modellerinin önemli ölçüde yanlış bilgi sağladığını ortaya koydu.
Science dergisinde 4 Aralık 2025'te İngiltere Yapay Zeka Güvenlik Enstitüsünün (AISI) "Konuşmaya Dayalı Yapay Zeka ile Siyasi İknanın Kaldıraçları" başlıklı bir raporu yayımlandı. Araştırma, Oxford İnternet Enstitüsü, London School of Economics, Stanford Üniversitesi ve MIT'den (Massechuests Teknik Üniversitesi) akademisyenler tarafından, "Yapay zeka, ikna-siyasi görüşü değiştirme ve yanlış bilgi" bağlamında kaleme alındı.

Birleşik Krallık'tan 76 bin 977 katılımcının yer aldığı araştırma kapsamında üç deneyle 19 yapay zeka modelinin 707 siyasi konuda ikna yetenekleri incelendi. Deneylerde katılımcılar 19 açık ve kapalı kaynaklı büyük dil modeliyle etkileşime girdi. Sohbet robotları, katılımcıları belirli bir konuda belirli bir duruş sergilemeye ikna etmek için yönlendirildi. "Kamu sektöründe ücretler ve grevler" ve "Yaşam maliyeti krizi ve enflasyon" gibi konular ele alındı. Kontrollü koşullarda, modellere katılımcıyı 8 farklı stratejiden birini kullanarak 707 konudan/duruştan biriyle aynı fikirde olmaya ikna etmeleri talimatı verildi. Stratejiler arasında bilgi odaklı argümantasyon, hikaye anlatımı ve ahlaki yeniden çerçeveleme yer aldı. Sonuçta da ikna edicilik ve doğruluk arasındaki ilişki incelenerek yapay zeka tarafından oluşturulan 466 bin 769 iddia analiz edildi.

AISI tarafından raporla ilgili "Yapay zeka modelleri nasıl ikna eder? Yapay zeka destekli ikna etmenin kaldıraçlarını büyük ölçekli deneylerle keşfetmek" başlığıyla bir blog içerik paylaşıldı. Yazıda üç deney çerçevesinde tespit edilen üç ana bulguya yer verildi:
- Eğitim sonrası, model ölçeğinden daha önemlidir.
- Bilgi yoğunluğu, kişiselleştirme veya 'mikro hedefleme'den daha fazla ikna edicilik sağlıyor.
- Daha ikna edici modeller daha yanlış iddialarda bulundu.

İngiltere merkezli The Guardian gazetesinde 4 Aralık 2025'te raporla ilgili yayımlanan haberde, araştırmanın "sohbet robotlarının siyasi görüşleri etkileyebileceğini ancak 'önemli ölçüde' hatalı olduğunu ortaya koyduğu" aktarıldı. Haberde şu hususlar vurgulandı:
- "Raporda 'bilgi yoğun' yapay zeka yanıtları en ikna edici olanlar ancak bunlar daha az doğru olma eğiliminde" deniliyor. En fazla gerçek ve kanıt kullanan modeller, diğerlerinden daha az doğru olma eğilimindeydi.
- Sohbet robotları insanların siyasi görüşlerini etkileyebilir ancak en ikna edici yapay zeka modelleri bu süreçte önemli ölçüde hatalı bilgi sağlıyor.

Science dergisinde yayımlanan raporun bulgularına göre bilgi yoğun cevaplar veren sohbet robotları, en ikna edici olan yapay zeka modelleriydi. Modelden özellikle olay veya kanıt kullanması, buna odaklanması istendiğinde ikna gücü en üst seviyeye ulaştı. Fakat en çok olaya ve kanıta başvuran modeller, diğerlerine göre daha az doğru olma eğilimi gösterdi. Yapay zekanın insanlardan çok daha manipülatif olma potansiyeline işaret edilen araştırmada şu hususlara dikkat çekildi:
- Araştırmayla yapay zeka iknasının en güçlü kaldıraçlarının, ikna ediciliği sırasıyla yüzde 51 ve yüzde 27 oranında artıran "eğitim sonrası yöntemler" ve "retorik strateji (teşvik)" olduğu bulundu.
- Yapay zeka sistemleri ikna için optimize edildiğinde, giderek daha fazla yanıltıcı veya yanlış bilgi kullanabilir.
- Bu araştırma, politikacıların ve teknoloji uzmanlarının yapay zeka odaklı ikna zorluklarını öngörmeleri ve ele almaları için ampirik bir temel sağlamakta ve yapay zekanın siyasi söylemdeki meşru kullanımlarını manipülasyon ve yanlış bilgiye karşı korumalarla dengeleyen güvencelere olan ihtiyacı vurgulamaktadır.

Araştırmada bulgular, konuşma tabanlı yapay zekanın kontrollü koşullar altında ikna edici bir araç olabileceğini gösterdi:
- Akademisyenler, politika yapıcılar ve teknoloji uzmanları, yapay zekanın yakında insanlar üzerinde önemli bir ikna edici etki yaratabileceğinden endişe duyuyor. Büyük dil modelleri artık karmaşık etkileşimli diyaloglar kurabiliyor ve bu da güçlü bir ikna yönteminin benzeri görülmemiş bir ölçekte kullanılmasını sağlıyor. Ancak bunun toplumu ne ölçüde etkileyeceği bilinmiyor. Yapay zeka modellerinin ne kadar ikna edici olabileceğini, hangi tekniklerin ikna ediciliklerini artırdığını ve insanları ikna etmek için hangi stratejileri kullanabileceklerini bilmiyoruz. Bu çalışmada, konuşma temelli yapay zekayı neyin ikna edici kıldığını anlamaya ve ikna kabiliyetinin sınırlarını belirlemeye çalıştık.
- Üç temel araştırma sorusu incelendi:
1- Daha büyük modeller daha ikna edici midir?
2- Hedefli eğitim sonrası yapay zeka ikna kabiliyetini ne ölçüde artırabilir?
3- Başarılı yapay zeka ikna kabiliyetinin temelinde hangi stratejiler yatar?
- Deneylerdeki büyük dil modeli (LLM) örnekleri, Mayıs 2025 itibarıyla 'en gelişmiş sınır modellerden' bazılarını içerdi: GPT-4.5, GPT-4o ve Grok-3-beta.
- Katılımcılar, bir LLM ile karşılıklı bir görüşme (en az 2 tur, en fazla 10 tur) gerçekleştirdi. Konuşmadan önce ve sonra, Birleşik Krallık ile ilgili belirli bir siyasi görüşü ifade eden bir dizi yazılı ifadeye ne kadar katıldıklarını 0 ila 100 arasında bir ölçekte bildirdiler.
- Yapay zeka ikna sürecinde bilginin rolünü daha detaylı araştırmak için, 91 bin konuşmada yapılan doğrulanabilir iddiaların sayısını belirlemek için GPT-4o ve profesyonel insan gerçek kontrolcüleri birleştirildi. Beklendiği gibi, yoğun bilgi aktarımı yöntemi, diğer retorik stratejilere kıyasla en etkili yöntem olarak öne çıktı. Özellikle, her bir retorik strateji kullanımı esnasında yoğun bilgi verme yönteminin, kullanılan stratejiyi daha etkili kıldığı görüldü. Ayrıca tasarımdaki birçok koşulda, bilgi yoğunluğunu artıran faktörlerin ikna ediciliği de sistematik olarak artırdığı gözlemlendi.
- Bilgi yoğunluğunun, tüm koşullar tarafından oluşturulan ikna edici etkilerdeki değişkenliğin yüzde 44'ünü ve geliştirici tarafından sonradan eğitilen modellerle sınırlandırıldığında yüzde 75'ini sağladığı tahmin ediliyor. İknayı en çok artıran faktörlerin aynı zamanda bilgi yoğunluğunu da artırma eğiliminde olduğuna dair tutarlı kanıtlar bulundu; bu da bilgi yoğunluğunun mevcut yapay zeka sohbetlerinin ikna edici gücünü yönlendiren temel bir değişken olduğunu gösteriyor.
- Araştırmada 'rahatsız edici bir sonuç' olarak "Bir modelin ikna ediciliğinin en büyük belirleyicisi, kullandığı gerçek, doğrulanabilir iddiaların sayısı olmasına rağmen, en yüksek bilgi yoğunluğuna sahip modellerin ortalama olarak daha az doğru olma eğiliminde olduğunu gözlemledik" bulgusuna yer verildi.
- Yapay zeka destekli ikna konusundaki yaygın endişelere rağmen, yapay zeka ikna kabiliyetinin niteliğini ve sınırlarını belirleyen faktörler bilinmemektedir. Eğitim sonrası sabit tutulduğunda, daha büyük modellerin daha ikna edici olma eğiliminde olduğu bulundu. İkna kazanımlarını yönlendiren temel bir mekanizma ortaya çıkarıldı: Yapay zeka modelleri, diyaloglarını bilgiyle, yani argümanlarıyla potansiyel olarak alakalı, doğrulanabilir iddialarla doldurduklarında en ikna edici hale geldiler.
- Seçmen, hakkında daha az bilgi sahibi oldukları adaylar hakkında bilgi verildiğinde daha ikna edilebilir olmakta ve daha zengin bilgi içeriğine sahip mesajlar daha ikna edici olmaktadır.
- Yeni bilgilere maruz kalmanın, insanların siyasi tutumlarını, başlangıçtaki inançlarından, demografik özelliklerinden veya bağlamından büyük ölçüde bağımsız olarak, bilgiye doğru kaydırdığını göstermiştir.

- Sonuçlar yapay zeka destekli kişiselleştirmenin ikna edici etkisine dair devam eden tartışmaya da katkıda bulunmaktadır. Cambridge Analytica'nın 2016 Avrupa Birliği (AB) referandumu ve ABD başkanlık seçimlerinde mikro hedeflemeyle ilgili yaygın olarak duyurulan iddialarından sonra kişiselleştirilmiş ikna konusunda çok fazla endişe dile getirildi.
- Geçmiş çalışmalara göre çok daha büyük bir örneklem büyüklüğü kullanılarak, kişiselleştirmenin ortalama olarak ~+0,5 yüzde puanlık kesin ve anlamlı bir etkisi gösterilebildi; bu da kişiselleştirmenin yapay zeka iknasını daha etkili hale getirdiği iddiasını destekliyor.
- İkna edici yapay zeka başarısında bilgi yoğun argümantasyonun merkeziliği kritik bir soruyu gündeme getiriyor: Bilgi doğru mu? Tüm modeller ve koşullar üzerinde, ikna edici yapay zeka tarafından oluşturulan iddiaların makul doğruluk puanları elde ettiğini (77/100; 0=tamamen yanlış ve 100= amamen doğru) ve iddiaların yalnızca yüzde 19'unun 'yanlış' olarak derecelendirildiği (≤50/100) bulundu.
- İkna edicilik ve doğruluk arasında bir potansiyel denge de belgelendi: En ikna edici modeller ve yönlendirme stratejileri en az doğru bilgiyi üretme eğiliminde. İkna ediciliği artıran eğitim sonrası teknikler de sistematik olarak doğruluk oranını azalttı.
- En yeni ve en büyük sınır modelleri tarafından üretilen ikna edici iddiaların doğruluğunda endişe verici bir düşüş gözlemlendi. Örneğin, GPT-4.5 tarafından yapılan iddiaların, GPT-3.5 ve 2024 yazında piyasaya sürülen GPT-40 versiyonu da dahil olmak üzere aynı aileden daha küçük modeller tarafından yapılan iddialardan ortalama olarak önemli ölçüde daha az doğru çıktı.
- Sonuçlar, yapay zeka destekli bir konuşmanın, anında ikna edici etkisinin, yapay zeka tarafından üretilen statik bir mesajın etkisinden önemli ölçüde daha büyük olduğunu kesin olarak gösterdi.
- Sonuçlar yapay zeka iknasının geleceği için ne anlama geliyor? Bulgular bir araya getirildiğinde, konuşma temelli yapay zekanın ikna ediciliğinin yakın gelecekte muhtemelen artmaya devam edebileceğini gösteriyor.