Birleşmiş Milletler Uluslararası Çocuklara Yardım Fonu (UNICEF) deepfake (yapay zeka teknolojisiyle üretilen gerçekçi görüntü) ve çocuk konulu bir rapor paylaştı. Rapora göre, çocuk istismarı amacıyla ve 'deepfake’ yöntemiyle üretilen içeriklerin sayısı artıyor.
Son araştırmalara göre 11 ülkede en az 1,2 milyon çocuk, son bir yılda yapay zeka araçlarıyla görüntülerinin cinsel içerikli 'deepfake'lere dönüştürüldüğünü bildirdi. Bazı ülkelerde bu, 25 çocuktan 1'ine denk geliyor. Raporda sürekli eğitim ve acil yasal düzenleme ihtiyacına dikkat çekildi.
Bilginin Doğrusu Cebinizde:Yanıltıcı içerikler her yerde! Sosyal medyada önünüze düşen dezenformatif haberlerin doğruları her gün telefonunuza gelsin isterseniz, bağlantıya tıklayın:
Teyit Hattı’nın WhatsApp kanalına katılın.
UNICEF Çocuk Koruma ve Göç Uygulamaları Küresel Programlar Bölümü ve UNICEF Strateji ve Kanıt Ofisi tarafından Şubat 2026'da yayınlanan "Yapay Zeka ve Çocuk Cinsel İstismarı ve Sömürüsü" özet raporunda "Deepfake istismarı da bir istismardır" mesajı veriliyor. Ortaya çıkan riskleri ve kanıtları ele alan raporda acil eylem öncelikleri sıralandı:
- Yapay zeka destekli görüntü veya video oluşturma araçlarının giderek yaygınlaşması, çocuğa yönelik cinsel istismar materyali üretimi riskinde önemli bir artış gözlemleniyor.
- Hükümetler ve özel girişimler, yapay zekayla üretilen cinsel içeriklerin oluşturulmasını ve yayılmasını önlemek için acil eyleme geçmeli.
- Ebeveynler, eğitimciler, sosyal hizmetler, ruh sağlığı uzmanları ve kolluk kuvvetlerinin, etkilenen çocukları desteklemek için kaynağa ve sürekli eğitime ihtiyacı var.

Güçlü yapay zeka görüntü oluşturma araçlarının yükselişinin, çocuk koruma alanındaki risk ortamını dönüştürdüğü belirtilen raporda, günümüz şartları ile 5 yılın verileri karşılaştırıldı. Rapora göre 5 yıldan daha kısa bir süre önce, yüksek kaliteli üretken modeller büyük ölçüde özel şirketler tarafından kullanılıyordu ve bunları kullanmak önemli miktarda işlem gücü ve uzmanlık gerektiriyordu. Bugün, açık kaynaklı modeller tüketici sınıfı donanımlarda çalışabiliyor ve bu da faillerin cinsel istismar içeren içerik oluşturmasını çok daha kolaylaştırıyor.
Raporda, bu tür içeriklerin çocukların cinsel obje haline getirilmesine yol açtığı, talebi körüklediği ve benzerlikleri kullanılan çocukları mağdur ettiği ifade edildi. Çalışmada, "Ayrıca bir görüntünün acil yardıma ihtiyacı olan gerçek bir çocuğu mu gösterdiğini belirlemeyi zorlaştırarak mağdur tespitini de zorlaştırır. Potansiyel olarak zaten kıt olan kolluk kuvvetleri kaynaklarını boşa harcar ve çocukları korumaya yönelik müdahaleleri geciktirir." ifadelerine yer verildi. Raporda güncel risklere işaret edildi: "Bu gelişmeler, çocukların dijital ortamda karşılaştığı risklerde önemli bir artış olduğunu göstermektedi. Failler, çocuğun bilgisi veya haberi olmadan gerçekçi cinsel görüntüler oluşturabilir; bu da bir çocuğun korunma hakkının, hiçbir mesaj göndermeden veya olayın gerçekleştiğini bilmeden ihlal edilebileceği anlamına gelir. Çocuklar daha sonra sonuçların tüm ağırlığıyla karşı karşıya kalırlar: Utanç, damgalanma, akranlarından ve yetişkinlerden gelen ahlaki yargılama, sosyal izolasyon ve uzun vadeli duygusal zarar."

Raporda yapay zeka destekli görüntü veya video oluşturma araçlarına erişimin artmasının, çocuk cinsel istismarı materyallerinin (CSAM) üretimi ve yayılmasında artışa yol açtığına; bu risklerin de belgelendiğine ve hızla arttığına işaret edildi:
- Birleşik Krallık İnternet İzleme Vakfı (IWF), bir ayda, CSAM karanlık ağ forumunda yapay zeka tarafından oluşturulmuş 14 bin şüpheli görüntü buldu; bunların neredeyse 3’te 1’inin suç teşkil ettiği tespit edildi ve ilk gerçekçi yapay zeka çocuk cinsel istismarı videoları da tespit edildi.
- Güney Kore'de, kolluk kuvvetleri 2022 ile 2024 yılları arasında yapay zeka ve deepfake teknolojilerini içeren cinsel suçlarda 10 kat artış olduğunu ve suçlananların çoğunluğunu gençlerin oluşturduğunu bildirdi.
- ABD'de Thorn'un araştırması, her 10 gençten 1'inin arkadaşlarının veya sınıf arkadaşlarının üretken yapay zeka araçlarını kullanarak diğer çocukların rızasız, sentetik müstehcen görüntülerini oluşturduğu vakaları bildiğini ortaya koydu.
- UNICEF, ECPAT (Çocuklara yönelik ticari cinsel sömürü) ve INTERPOL tarafından "Zararı Engelleme" projesi kapsamında yapılan son büyük ölçekli araştırmalar, 11 ülkede en az 1,2 milyon çocuğun son bir yılda yapay zeka araçlarıyla görüntülerinin cinsel içerikli 'deepfake'lere dönüştürüldüğünü bildirdiğini gösterdi. Bazı ülkelerde bu, 25 çocuktan 1'ine veya tipik bir sınıftaki bir çocuğa denk geliyor.
- Çocuklar bu tehdidin farkında: 11 ülkede halkın yaklaşık 3'te 2'si "Yapay zekanın sahte cinsel görüntüler oluşturmak için kullanılabileceğinden endişe duyduğunu" söyledi. Endişe düzeyleri ülkeden ülkeye büyük ölçüde değişiyor ve bu da bağlama uygun farkındalık ve koruma önlemlerine duyulan ihtiyacı vurguluyor.
- ABD merkezli Ulusal Kayıp ve İstismar Edilen Çocuklar Merkezi (NCMEC) raporuna göre teknolojik gelişmeler, bir çocuğun bedeninin, kimliğinin ve itibarının uzaktan, görünmez bir şekilde ve kalıcı olarak ihlal edilebileceğini ortaya koyuyor. Çocuklar, uydurulmuş ancak yine de gerçek gibi hissettiren, sosyal güvenilirlik taşıyan ve on yıllarca dolaşımda kalan görüntüler kullanılarak tehdit ve şantaja maruz kalabilir.

Raporda benzeri görülmemiş bu durumun; 'önleme ve eğitim', 'yasal çerçeve' ve 'müdahale ve destek' gibi meseleleri gündeme getirdiği belirtildi:
- ÖNEMLİ AMA YETERSİZ: Çocuklara çevrimiçi güvenlik ve cinsel içerikli görüntüler oluşturmanın veya paylaşmanın riskleri hakkında bilgi vermeye odaklanan mevcut önleme çabaları önemli ancak yetersizdir.
- DESTEKLEME KAPASİTESİ: Ebeveynler ve bakıcılar, yapay zeka destekli cinsel istismar ve taciz konusunda bilgilendirilmeli ve etkilenen çocukları destekleme anlayışına ve kapasitesine sahip olmalıdır.
- ÖN CEPHE OKUL: Okullar, ön cephe ortamları olarak, öğrencileri yapay zeka ile ilgili riskler konusunda eğitmelidir. Bu riskler arasında deepfake çıplak görüntüler ve yapay zekâ araçlarının 'çıplaklaştırma/soyma' işlevleri yer almaktadır. Bu araçların etkilenenlere verdiği önemli zararlar da anlatılmalı, zararlı davranışların bildirilmesi teşvik edilmeli ve eğitimciler uygun şekilde yanıt vermeleri için eğitilmelidir.
- SÜREKLİ EĞİTİM: Sosyal hizmetler, ruh sağlığı uzmanları ve kolluk kuvvetleri, etkilenen çocukları desteklemek için kaynaklara ve sürekli eğitime ihtiyaç duymaktadır.
- AKRAN ETKİSİ: Yapay zeka tarafından üretilen çocuk cinsel istismarı materyallerinin, özellikle akranlar tarafından üretildiğinde, benzersiz psikolojik etkilerinin farkında olunmalıdır.

- ACİL YASA: En önemlisi, yapay zeka tarafından üretilen cinsel içerik tehdidi acil yasal düzenleme gerektirmektedir. Ulusal ceza kanunları dijital çağa uygun olarak güncellenmeli ve uygulanmalıdır. Bu, CSAM tanımlarının yapay zeka tarafından üretilen materyalleri de kapsamasını, ulusal çerçevelerin uluslararası standartlarla uyumlu hale getirilmesini ve çocuk mağdurlar için çözüm yollarının garanti edilmesini içerir.
- CEZAİ, HUKUKİ, İDARİ YAPTIRIM: Devletler ayrıca çocuk cinsel istismarı ve çocukları bu tür zararlardan koruma yükümlülüklerinin ihlali ile ilgili suçlar bakımından tüzel kişiler için çeşitli cezai, hukuki ve idari yaptırımların mevcut olmasını sağlamalıdır.
- ÇOCUK HAKLARINA ÖZEN: Artan endüstri eylemi, hesap verebilirlik ve şeffaflık şarttır. Devletler, şirketlerden özellikle 'çocuk hakları etki değerlendirmeleri' olmak üzere çocuk hakları konusunda gerekli özeni göstermelerini talep etmelidir. Şirketler, düzenli raporlamalarında çocuk hakları etkilerine ilişkin sağlam açıklamalar içermelidir.
- REHBER STANDARTLAR: Veri seti sağlayıcılarından model geliştiricilerine kadar yapay zeka değer zincirindeki her aktör, tasarımla güvenliği entegre etmelidir. Bu, kötüye kullanımı veya yasadışı kullanımı azaltmak için açık kaynaklı modeller için ön sürüm güvenlik testlerini içerir ve ortaya çıkan standartlar rehberlik sunar. Endüstrinin, endüstriler arası girişimlere ve araştırma çabalarına katkıda bulunarak, yapay zeka çağında çocuk haklarını ve refahını destekleyecek çözümlerin geliştirilmesine katkıda bulunmada ölçülemez bir rolü vardır.