Dolar
42.21
Euro
48.81
Altın
4,005.21
ETH/USDT
3,286.80
BTC/USDT
101,043.00
BIST 100
10,955.23
Analiz

Yapay zeka paradoksu: Devrim mi, dezenformasyon mu?

Gazeteciler, doktorlar, avukatlar ve eğitimciler, yapay zekanın ürettiği taslakları bir başlangıç noktası olarak kullanacak, ancak nihai doğrulama, etik süzgeç ve sorumluluk daima insanda kalacaktır.

Devrim Danyal  | 07.11.2025 - Güncelleme : 07.11.2025
Yapay zeka paradoksu: Devrim mi, dezenformasyon mu?

İstanbul

Blockchain & Yapay Zeka Akademi kurucusu Devrim Danyal, yapay zekanın bilgi güvenilirliği alanında karşılaştığı sorunları ve bu sorunlara yönelik çözüm yaklaşımlarını AA Analiz için kaleme aldı.

***

📲 Artık haberler size gelsin
AA'nın WhatsApp kanallarına katılın, önemli gelişmeler cebinize düşsün.

🔹 Gündemdeki gelişmeler, özel haber, analiz, fotoğraf ve videolar için Anadolu Ajansı
🔹 Anlık gelişmeler için AA Canlı

Avrupa Yayın Birliği (EBU) ve BBC tarafından yürütülen geniş çaplı bir araştırma, yapay zeka destekli sohbet asistanlarının haberle ilgili sorulara verdikleri yanıtların neredeyse yarısında “kayda değer” hata içerdiğini ortaya koydu. Çalışma, ChatGPT, Google Gemini, Microsoft Copilot ve Perplexity gibi önde gelen sistemlerden alınan binlerce yanıtı doğruluk, kaynak gösterme, yorum ile olgu ayrımı ve bağlam açısından değerlendirdi. Bu araştırma sonucunda yüzde 45 civarında yanıtın en az bir ciddi sorun barındırdığını raporladı. Bu sonuç, yapay zekaların haber ve güncel olaylara ilişkin bilgi üretimindeki rolünü yeniden düşünmemiz gerektiğine işaret ediyor. Buradan yola çıkarak, dijital çağın en dönüştürücü gücü olarak kabul edilen üretken yapay zeka, vaat ettiği ütopya ile potansiyel distopya arasındaki ince çizgide tehlikeli bir salınım sergiliyor.

Bu bulgu, Silikon Vadisi'nin parlak sunumlarının ve milyarlarca dolarlık yatırımların ötesinde, soğuk bir gerçeği yüzümüze çarpıyor. Aylardır süren hızlı entegrasyon sürecinin ardından gelen bu "uyandırma servisi" sadece mühendisleri değil aynı zamanda gazetecileri, akademisyenleri, politikacıları ve bizzat kamuoyunu temel sorularla baş başa bırakıyor. Yapay zeka, kontrolümüzden çıkarak raydan mı sapıyor? "Doğru bilgi" kavramı, algoritmik bir gürültü içinde geri dönülmez biçimde yok mu oluyor?

Sorunun temel taşı olarak tanımlanan "halüsinasyon" aslında bir hata değil, sistemin doğasında olan bir özelliği. EBU'nun yüzde 50'lik hata oranı tespiti yapay zekanın "raydan çıktığı" yönündeki popülist korkuları beslese de teknoloji uzmanı bakış açısından sorunun daha temel ve yapısal olduğu görülüyor. Sorun, yapay zekanın bir "bilince" kavuşup yalan söylemeyi seçmesi değil, sorun bu sistemlerin "bilgi" ile "olasılık" arasındaki farkı bilmemesidir.

Büyük dil modelleri (LLM) devasa internet verisi üzerinde eğitilmiş "istatistiksel tahmin motorlarıdır. Her elektronik sistemde olduğu gibi bu modeller de her "doğruyu" bilmezler, sadece, verilen bir bağlamda hangi kelimenin bir sonrakinden sonra gelme olasılığının en yüksek olduğunu hesaplarlar. Bu süreç, "halüsinasyon" (sanrı) olarak bilinen olguyu doğurur: Model, bir bilgi boşluğuyla karşılaştığında duraksamaz. Aksine, son derece otoriter, kendinden emin ve ikna edici bir dille tamamen uydurma veriler, sahte akademik makaleler, var olmamış tarihi olaylar veya geçerli görünüşlü yasal emsaller icat eder.

Tehlike tam da burada başlar. Yapay zeka, bir nükleer fizik denklemini açıklarken kullandığı "uzman" üslubun aynısını, "dünyanın düz olduğunu" iddia eden bir komplo teorisini savunurken de kullanabilir. EBU araştırması, bu "özgüvenli cehaletin" nadir bir sistem arızası değil, mevcut teknolojinin temel çalışma prensibinin doğal bir yan ürünü olduğunu acı bir şekilde ortaya koymuştur. Bu durum, özellikle tıp, hukuk ve finans gibi kritik sektörlerde bu araçların denetimsiz kullanımının ne kadar yıkıcı olabileceği gerçeğiyle yüzleşmemiz gerektiğini de ön plana çıkarmıştır.

Dezenformasyonun endüstrileşmesiyle bilgi erozyonu hızlanıyor mu?

"Doğru bilgi" kavramı, yapay zekadan çok önce, sosyal medyanın yarattığı yankı odaları ve "gerçek-ötesi" çağın siyasi kutuplaşmasıyla zaten ağır bir darbe almıştı. Ancak yapay zeka, bu erozyonu basitçe hızlandırmıyor, onu endüstriyel bir boyuta taşıyor.

Yapay zekanın rolü iki katmanlıdır. "Gürültünün Otomasyonu" ile daha önce bir dezenformasyon kampanyası yürütmek için organize ekipler, zaman ve ciddi bir bütçe gerekirken; bugün tek bir kötü niyetli aktör, dakikalar içinde binlerce sahte blog yazısı, yüzlerce farklı dilde çarpıtılmış haber metni ve on binlerce manipülatif sosyal medya yorumu üretebilir. Bu, "doğru" bilginin, devasa bir "yanlış" bilgi okyanusunda boğulması anlamına gelir.

"Güvenin Çöküşü" ile "Deepfake" (derin sahtecilik) teknolojisi, artık sadece eğlencelik bir yenilik değil, ulusal güvenliği tehdit eden bir risk faktörüdür. Siyasilerin söylemediği sözleri söylediği, yapılmamış eylemlerin kanıtı olarak sunulan sahte ses ve video kayıtları, gerçeğin kendisini şüpheli hale getirir. Stanford Üniversitesi'nden bir medya sosyoloğunun deyimiyle, "Yapay zekanın yarattığı en büyük tehlike, insanların yalana inanması değil, artık hiçbir şeye inanamaz hale gelmesidir." Bu, sivil toplumun ve demokratik tartışmanın temelini oluşturan ortak gerçeklik zeminini yok eden en önemli unsurdur.

Panzehir zehire mi dönüşüyor?

"Model Çöküşü" döngüsünde ironik bir şekilde, yapay zeka algoritmaları uzun yıllar boyunca internetteki bilgi kirliliğini (spam, nefret söylemi, sahte haberler) tespit edip temizlemek için en büyük umudumuzdu. Ancak şimdi bizzat bu sistemler kirliliğin ana kaynaklarından biri olma tehlikesiyle karşı karşıyayız diyebilir miyiz?

Daha da endişe verici olan, uzmanların "Model Çöküşü" veya "Otokatalitik Döngü" olarak adlandırılan bir teorik bir felaket senaryosudur. Süreç ise şöyle işliyor:

"Aşama 1: Yapay zeka modelleri, insanlar tarafından üretilen (ve görece kaliteli) internet verileriyle eğitiliyor.

Aşama 2: Bu yapay zeka modelleri, interneti devasa miktarda sentetik içerikle dolduruyor.

Aşama 3: Gelecek nesil yapay zeka modelleri, eğitilmek için internetten veri topladığında, artık ağırlıklı olarak önceki yapay zekanın ürettiği verileri buluyor."

Eğer bu veriler yüksek oranda hatalıysa, yeni model bu hataları "gerçek" olarak kabul ediyor. Başka bir deyişle yüzde 51 çoğunluğu ele geçiren bilgi, doğru olup olmadığına bakılmaksızın (ki makine baksa da karar verici değil) "gerçek" olarak tercih ediliyor. Bu, bir fotokopi makinesinden alınan fotokopinin tekrar fotokopisinin çekilmesine benzer. Her döngüde görüntü kalitesi düşer, gerçeklikten uzaklaşılır. Kısacası yapay zeka, kendi yarattığı hatalı verilerle kendini zehirleyerek, gerçek insan bilgisinden kopuk, tamamen kendi içine çökmüş bir halüsinasyon döngüsüne girebilir.

Güvenilir yapay zekaya nasıl ulaşabiliriz?

Nasıl bir bebeğin dünyaya gelişinde anne doğum sancıları çekiyorsa, biz de yapay zeka bebeğinin varoluş sürecinde kendisine ebeveynlik yapıyorsak, benzer şekilde büyüme sancılarını da hep birlikte çekiyor pozisyondayız. Doğumdan vazgeçiyor muyuz? Hayır. Aynı şekilde bu sancılar sonucunda elbirliğiyle dünyaya getirdiğimiz bebeğin emeklemesinden ilk adımlarına, ayakta duruşundan birey haline gelmesine kadar onu nasıl büyütüyorsak yapay zeka da bizim onu ne şekilde büyüttüğümüzle doğru orantılı kişilikler kazanacak.

Yapay zeka süreçlerinin geleceğine pozitif bakacak olursak, EBU araştırmasının çizdiği bu kasvetli tablo, yapay zekanın sonu değil, aksine kritik bir "büyüme sancısı" ve acil bir "yetişkinliğe geçiş" çağrısıdır. Bu yüzde 50'lik hata oranı, teknolojinin mevcut sınırlarını net bir şekilde tanımlamıştır. Şimdi endüstri, bu sınırları aşmak için çözümlere odaklanmalıdır.

Teknik çözümler, bizi güvenilir yapay zekaya doğru taşıyacak en önemli unsurların başında gelmektedir. Geleceğin yapay zekası, geri beslemeli artırılmış üretim (RAG) sayesinde bilgiyi "icat etmek" yerine "bulmak" üzerine kurulu olacak. RAG sistemleri, bir soruya cevap vermeden önce internetten (veya daha iyisi, doğrulanmış, kapalı bir veri tabanından, örneğin bir haber ajansının arşivi veya bir tıp kütüphanesi) aktif olarak araştırma yapar. Cevabını bu doğrulanmış kaynaklara dayandırır ve en önemlisi, kaynak gösterir. Bu, modeli bir "kahin" olmaktan çıkarıp, denetlenebilir bir "araştırmacı asistana" dönüştürür.

"Dijital Filigran" ve "İçerik Kökeni" (C2PA) ile yapay zeka tarafından üretilen her metin, görsel veya ses dosyasına, insan gözünün görmediği ancak makinelerin okuyabildiği bir "dijital doğum sertifikası" (filigran) eklenmesi için çalışmalar hız kazanmıştır. C2PA gibi girişimler bir içeriğin nerede, ne zaman ve nasıl (insan mı, yapay zeka mı) oluşturulduğunu belirten, değiştirilemez bir kayıt sistemi sunmayı amaçlamaktadır.

İnsan ve regülasyon odaklı çözümlere göz attığımızda, "Döngüdeki İnsan" (Human-in-the-Loop) bakış açısıyla teknoloji endüstrisi, yapay zekanın "otonom bir aracı" olduğu fikrinden hızla uzaklaşıp, "yetkin bir ikinci pilot" (co-pilot) modeline geçiyor. Bir pilot, uçağı oto pilota alabilir ancak kontrolleri bırakmaz. Aynı şekilde, gazeteciler, doktorlar, avukatlar ve eğitimciler, yapay zekanın ürettiği taslakları bir başlangıç noktası olarak kullanacak, ancak nihai doğrulama, etik süzgeç ve sorumluluk daima insanda kalacaktır.

Küresel düzenlemeler ve şeffaflık açısından AB'nin Yapay Zeka Yasası (AI Act) gibi düzenlemeler, yüksek riskli yapay zeka sistemleri için katı şeffaflık, denetlenebilirlik ve doğruluk standartları getirmeyi amaçlamaktadır. Bu sayede, şirketler artık modellerinin nasıl eğitildiğini ve hata oranlarını gizleyemeyecek.

Kaostan rönesansa varabilecek miyiz?

Bu tip negatifle yüzleşmemizi sağlayan araştırmalar, bir sonun ilanı değil, acil bir eylem planı çağrısıdır. Evet, yapay zeka şu anki haliyle bilgi kirliliğini artırma potansiyeline sahip bir "olasılık motoru" gibi görünüyor. Ancak bu durum, teknolojinin doğasında var olan kalıcı bir kusur değil, mevcut yaklaşımımızın bir sınırıdır.

Önümüzdeki süreç, yapay zekanın kendisinden çok bizim onu nasıl yöneteceğimizle ilgili olacak. Güvenilir veri tabanlarına dayalı (RAG), şeffaf (C2PA) ve insan denetiminde (HITL) çalışan sistemlere doğru evrildiğimizde, bu teknoloji bir dezenformasyon aracı olmaktan çıkıp, insanlığın bilgiye erişiminde eşi benzeri görülmemiş bir "rönesans" başlatabilir.

Şu anki görevimiz, bu güçlü ama kusurlu aracı sorumsuzca serbest bırakmak değil, onu terbiye etmek, doğrulanabilir gerçeklere demirlemek ve en önemlisi, eleştirel düşünme yeteneğimizi ona devretmemektir. Bilgi kirliliğini temizlemek için geliştirilen sistemlerin kendilerinin kirletici olmaması, bizim kolektif sorumluluğumuzdadır.

[Devrim Danyal, Blockchain & Yapay Zeka Akademi kurucusu ve Gelecek Teknolojileri eğitmenidir.]

* Makalelerdeki fikirler yazarına aittir ve Anadolu Ajansının editoryal politikasını yansıtmayabilir.


Anadolu Ajansı web sitesinde, AA Haber Akış Sistemi (HAS) üzerinden abonelere sunulan haberler, özetlenerek yayımlanmaktadır. Abonelik için lütfen iletişime geçiniz.