Yapay Zeka Evrensel Beyannamesi gerekli mi?

Çağdaş Çetindemir / 02.06.2024

Sorumlu yapay zeka, yapay zeka sistemlerinin etik, şeffaf, güvenilir ve adil olması gibi değerleri içermesi, bu doğrultuda geliştirilmesi, kullanılması ve yayılmasına karşılık geliyor.  Soru ise şu; yapay zeka, küresel ölçekte ortak bir değer haline gelebilir mi? Yapay Zeka Evrensel Beyannamesi yazılabilir mi?

Süleyman Demirel Üniversitesi Mühendislik ve Doğa Bilimleri Fakültesi Bilgisayar Mühendisliği Bölümü Öğretim Üyesi Doç. Dr. Utku Köse,  Anadolu Ajansı Teyit Hattı'na konuştu. Yapay zeka felsefesi ve etiği üzerine kitapları bulunan Köse, bir süredir ABD'de North Dakota Üniversitesi'nde (NDU) araştırmalarda bulunuyor.

Köse, Post-Truth çağla yapay zeka arasındaki bağlantı, yapay zekayla bilgilendirilmiş toplum inşası ve dezenformasyon sorunu gibi konularda görüşlerini paylaştı. İşte özetle anlattıkları:

POST-TRUTH ÇAĞ: Post-Truth günümüzde artık iyice ön plana çıkan ve negatif etkilerini de sıklıkla hissettiğimiz bir olgu. Teknoloji, sorumlu kullanmadığımız sürece sıkıntı oluşturuyor. Başından beri böyle oldu. Teknolojinin kötü emellere alet olması diyoruz ya biraz da bununla ilişkili. Yapay zekada da insan algısının ötesine geçerek,  bilgiyi istenen kitlelere doğru iletebilme veya işleyip insanların duygularına- düşüncelerine hitap edecek ve onları manipüle edebilecek şekilde kullanılabilme potansiyeli var. Açıkçası bu, Post-Truth olgusuna da katkıda bulunmasına sebep oluyor.

TEKNOLOJİ ALGIMIZIN ÖTESİNDE

-      Yapay zekanın, bilgiyi manipüle etme amaçlı kullanması yanında, algımızın ötesinde bu süreci gerçekleştirmesi,

-      Biz farkında olmadan bağlı olduğumuz sosyal medya ortamlarında veya karşımıza çıkan reklamlarda bilinçaltımıza ve otomatikman duygularımıza hitap edebilecek süreçlere ulaşabilmesi,

-      Arka planda bir şekilde bizim de katkıda bulunduğumuz o büyük veri kümesi içerisinde bütün bu süreçlerin ışık hızında meydana gelmesi,

önemli bir noktaya işaret ediyor. Teknolojinin buradaki yeteneklerinin, algımızın ötesine geçtiğini kabul ederek görülmesi gerekiyor. Otomatikman böyle bir katkı da bulunuyor, bunu tetikliyor.

ÜRETKEN YAPAY ZEKA: Son yılların önemli, ön plana çıkan ve ChatGPT sistemleriyle tartışmalara sebep olan üretken yapay zeka, yeni bilgi üretme kanalıyla da bu durumu daha da kötü hale getirme potansiyeli sergiliyor.

DEZENFORMASYON: Burada var olan bilginin, manipüle edilerek değiştirilmesi, yapay zeka algoritmaları -zeki algoritmalar- yardımıyla hedef kitlelere hitap edecek şekle dönüştürülmesi veya yayılmasını sağlaması bakımından dezenformasyon tarafında da yapay zekanın potansiyel olduğunu görüyoruz.

DEEPFAKE: Derin sahtecilik (Deepfake) uygulamaları, bunun artık görsel veriler üzerinden de kolaylıkla yerine getirilebilmesine ve tehlikeli bir boyuta ulaşmasına sebep olan bir başka yanı.

VERİLER: Belli veri türleri var. Çoklu ortam çerçevesinde yaklaşacak olursak, metin tabanlı verileri bir kenara atalım, bunun dışında ses ve görüntü verileri de oldukça kritik. Sürücüsüz araçlardan, medikal teşhislerden bahsediyoruz. Devrim niteliğinde birçok yenilik var. Ses veya görüntü tabanlı verilerin de ister istemez derin sahte uygulamaların negatif etkilerinden nasibini alması kaçınılmaz oluyor.

DERİN ÖĞRENME: Derin sahtenin verilere hitap etmesi, o dezenformasyonun yapay zeka eliyle insanları daha ikna edici boyuta kadar gelmesine sebep oluyor. Dezenformasyon içeren görüntü odaklı verileri, fotomontajı, manipülasyonları görüyoruz. Ses verileri manipüle ediliyor. Ses ve görüntü yeniden üretiliyor. Belli kişilere belli olaylara belli olgulara aitmiş gibi gösteriliyor. Yapay zeka sayesinde çok kolaylıkla derin öğrenmeyle bu daha da mümkün hale geliyor. Derin öğrenme bu işin ön planda olan aktörü şu an, makine öğrenmesinin günümüz versiyonu. Gelecekte ne olur bilmiyorum.


YAPAY ZEKANIN DOĞRU BİLGİYE KATKISI

SORUMLU YAPAY ZEKA: Responsible AI (sorumlu yapay zeka) kavramının pratiğe dönüşmesi, acilen gerçeğe dönüşmesi gereken bir ihtiyaç. Bu çerçeveden yaklaşacak olursak yapay zekanın tabii ki bu tip derin sahte veya her türlü dezenformasyon ve manipülasyon karşısında kullanılabilmesi da gayet olası, hatta böyle olması lazım. Bu tip negatif etkiler ve potansiyeller karşısında zaten yapay zekanın, sorumlu yapay zeka çerçevesinde kullanılarak mücadele etmesi, gayet olası gayet etkin bir cevap olacaktır.

SİBER GÜVENLİK: Siber güvenlik bağlamında bu işin beyaz şapkalı hackerlar tarafı var, siyah şapkalı hackerlar tarafı var. Art niyetli hackerlar, siber korsanlar var. Art niyetli tarafta yer alan kullanıcılara karşı mücadele yakasında yer alan beyaz şapkalı hackerlar var. Aslında yapay zekanın, teknolojinin gelişimi de bu yönde…  Bir tarafta teknolojiyi gerçekten amacı doğrultusunda kullananlar bir tarafta da bunu kötü emellerine alet edenler… Bu hep var olacaktır.

SAYDAMLIK… HESAP VEREBİLİRLİK… AÇIKLANABİLİRLİK… Yapay zekayı pekala derin sahtelerin tespiti, dezenformasyonun tespiti için kullanabiliriz. Hatta sorumlu yapay zekanın kendi alt mekanizmaları da var; saydamlık, hesap verebilirlik, açıklanabilirlik gibi…  

ÇIKIŞ NOKTASI FAYDA: Yapay zekanın, derin sahtelerin (erken ya da iş işten geçmeden) tespiti için, manipülasyon aracı olduğunun ortaya çıkarılması için, hukuken kanıtlanması için, bir dedektiflik aracı gibi, bir adli bilişim aracı gibi kullanılması olası. Biz bu işin negatif tarafını düşünüyorsak da teknolojinin çıkış noktası hep bir fayda üzerinde oluyor. Yeter ki insanoğlu olarak bu yönde çalışmayı daha çok ön plana çıkaralım.

ETİK YAPAY ZEKAYA NASIL ÖĞRETİLİR?

ETİK ÇERÇEVE: Etik, sorumlu yapay zekanın sahip olması gereken mekanizmalardan biri. Etik, ahlak, vicdan vb insanlara ait birtakım soyut olgular. Çağlar boyunca, tarihler boyunca farklı yorumlanabilmiş ama küresel çapta ortak paydada buluştuğumuz birçok unsur var.

NASIL İNŞA EDİLECEK? Etik mekanizmaları, yapay zeka içerisinde nasıl inşa edebileceğimiz, yani insan etiğinin, insan etik kabullerinin yapay zeka sistemi tarafından kabul edilerek, izlenerek-takip edilerek uygulanması bir başka sorunsal. Bunun dışında yapay zekanın kendince etik ilkelere uyarak da mekanizmaları kendince gösterip, bunları takip etmesi, ayrı bir mesele.

GERD LEONHARD'IN KATKISI: Ben şu görüşe de katılıyorum; etik olguları tamamen neden yapay zekaya teslim etmek zorundayız? Gerd Leonhard mesela bu konuda katkıda bulunuyor. Buna benzer, bu olaya felsefi anlamda yaklaşan birçok bilim insanı var. Yani etik birtakım kararlar veya olguların söz konusu olduğu süreçler için şunu demeye çalışıyorum;

-      Tamamen otonom bir şekilde, yani kendi özgür iradesiyle, bizim kontrolümüz dışında hareket etmesi

-      Otonom düzeyde olan kendi çözüm kararlarını tasarlayıp, oluşturup, bunları uygulama noktasında insan olmadan da bunları yapabilmesi

 gibi bir noktada yapay zekanın, etik çelişkiler içerisinde bu tip aşamalarda insanoğluna karar hakkını vermesi gerekmektedir.

YAPAY ZEKA YERİNE İNSAN KARAR ALMALI: İnsanlıkta şöyle bir eğilim var: Yerimize koyabileceğimiz bir sistem geliştirme, insansı robotlar…  Bilim kurgu eserlerden günümüze kadar gelmiş olan bir istek!..  İnsanoğlunda kalması gereken bazı değerleri, ıskalamamıza da sebep oluyor. Yapay zeka her yere koymak zorunda da değiliz açıkçası, yapay zeka ve insan işbirliğine bu anlamda bir katkıda bulunmak daha kritik. Dolayısıyla etik karar aşamasında, insani değerler aşamasında yapay zekanın yerine insanın karar alması önemli.

İNSANA ZARAR VERECEKSE YASAKLANMALI: Yapay zeka felsefesinde insani değerlerin (etik, vicdan … ) ön plana çıkması gerekiyor.  Daha spesifik olarak; etik ve vicdani kararlarda yapay zeka-insan ayrımının yapılması önemli. Birinci düzenleme, mesela bunun global bir kabul olması gerekiyor. Bunun regüle edilmesi takip edilmesi gerekiyor. Yapay zekanın insana zarar verecek boyutta, aşamalarda, uygulamalarda kullanılması yasaklanmalı.

YEŞİL YAPAY ZEKA: (Yapay zekanın savaşlar, kimyasal saldırılar, doğa, canlılar, ekosistem ve iklim değişikliğiyle bağlantısını anımsatarak) Bir dengede tutmanız gerekiyor. Buradan yaklaştığınız zaman yapay zekanın insan, canlılar ve dünya ekosisteme zarar verici potansiyellere olan uygulamalarda da yasaklanması, bunlarda kullanılmaması gerektiğini de ifade edebilirim. Yeşil ve sorumlu yapay zeka uygulamaları hatta sorumlu yapay zeka mekanizmalarının standartlar halinde uygulanması, bir başka düzenleme olmalı.  

3 KRİTER: Şöyle özetleyeyim: Geliştirdiğiniz sistem, sorumlu yapay zeka unsurlarını barındırıyor mu? İnsani değerlere aykırı eylemler içerisine girme potansiyeli var mı? İnsanı, canlıları ve ekosistemi gözetiyor mu?

GLOBAL STANDART: İyi olma durumunu negatif yönde etkileyebilecek uygulamalara yapay zekanın elindeki sistemlerin geçirilmemesi, bu potansiyele sahip olan sistemlerin çalıştırılmaması, gerekirse bu yönde ekstradan düzenlemeler yapılması, bu yönde düzenlemelerin özellikle global çapta standartlar haline getirilmesi gerektiğini düşünüyorum.

İNSANLIĞIN SONU: (Yapay zekanın kontrolde tutulacağı, insanın sözünden çıkmayacağı noktasında iyimser misiniz?) Aslında tam anlamıyla iyimser olduğum söylenemez. Burada sorumlu olan biziz. Adı üstünde sorumlu yapay zekayı oluşturma sorumluluğu da bizde en nihayetinde. Terminatör ve benzeri bilim kurgu filmlerinde olduğu gibi; yani insanlığın sonunu getirebilecek yapay zekanın teorik anlamda mümkün olduğunu rahatlıkla söyleyebiliriz.

BİZDEN ÇIKAN BİZE DÖNÜYOR: Ama pratik anlamda baktığımızda; ChatGPT vb sistemleri tartışıyoruz. Dil boyutunda birtakım çözümler üretiyorlar ama süreç anlamında insana ne kadar yaklaşmış durumdalar?  İnsanın o düşünüş sürecini ne kadar simüle edebiliyorlar? Açıkçası bu, pratik anlamda halen yol alınması gereken bir husus. LLM dediğimiz dil tabanlı modeller bile -zekice ve üst düzey hesaplama gücünü arkasına alarak kullandığı sistemler- asla bize vicdani ahlaki etik yönde cevaplar üretmiyor. Bu cevaplar aslında bizim daha önce tasarladığımız bizim daha önce ortaya koyduğumuz bilgilerin sentezlemesiyle bize yansıyor. Dolayısıyla sorumluluk yine bizde. Yani bizden gelen bilgilerin sentezlenerek bize döndürüldüğü bir ortam aslında, bu da bize bir mesaj!..

PRATİK AÇIDAN BİZE BAĞLI: Yapay zekanın bu noktada pratik anlamda insanlığın sonunu getirebilecek noktaya erişmemesi, bunun garantiye alınması mı diyelim veya bunun regule edilmesi, yönetilebilmesi hususu da bize bağlı. Bu yüzden insanoğlu olarak açıkçası geçmiş süreçlere baktığımızda çok çok böyle bir iyimser olamıyorum maalesef. Günümüz koşullarında görüyoruz; tekrardan savaşlar, dünya çapında, farklı coğrafyalarda sorunlar söz konusu. Kovid 19 süreci sonrası bu tekrar tetiklendi. Yani sürekli bir döngü içerisinde insanoğlu bu noktada; kötülük ve egonun kontrol altına alınması noktasında diyelim. O yüzden teknolojinin de buna alet olma olasılığı yüksek bence.

BÜYÜK RESİM: Ama yine de şöyle bir geri çekilip, büyük resme baktığımızda bir şekilde bir şeylerin de kontrol altına alınıp dersler çıkarılabildiğini de görüyoruz. Bir şekilde bunun belki bizim için bir mesaj olduğunu da söyleyebilirim. O yüzden iyimserliğimi bozmamaya çalışıyorum. İnsan olarak bu süreçlerin nereye doğru gideceğinin ne tarafa doğru ilerleyeceğinin sorumluluğu da bizde. Yeter ki biz bunun farkında olalım, bunu kullanalım.

SARMAL: İnsani değerlere sarılmamız son derece önemli. Teknoloji, sadece yapay zeka değil, dönüşen teknoloji algımızın ötesinde gelişiyor. Algımızın ötesine geçen şeylerle mücadele edebilmek için yine algımızın ötesine geçen teknolojiyi kullanmak zorunda kalıyoruz. Böyle bir sarmalın içerisindeyiz. Bunun içerisinden ne kadar çıkabiliriz, çıkmamız gerekir mi o ayrı bir tartışma konusu.

İNSAN-TEKNOLOJİ İŞ BİRLİĞİ: Tamamen kendimizi teknolojiye teslim edip, teknolojik tekillik dediğimiz, teknolojinin domine ettiği bir gelecekten ziyade teknolojinin içerisinde bizim de söz sahibi olduğumuz ve bizim için fayda getirecek noktada ele aldığımız bir gelecek… Yani teknoloji sayesinde sürekli rutin eylemler içerisine giren, bizim için herhangi bir değer ihtiva etmeyen eylemleri teknolojiye teslim edip, bizim için değer üreten, dünya için değer üreten, dünyayı daha yaşanabilir bir noktaya getiren uğraşlara, beynimizi harcama noktasına gelmemiz gerekiyor. Bunun için de insani değerler önemli. Algımız ötesine geçen teknoloji karşısında insani değerlere sarılıp bu yönde bu insani değerlerle sarmalanan ve insan teknoloji işbirliği içerisinde ilerleyen bir geleceği kurmamız, yani bu yönde geleceği inşa etme noktasında adımlar atmamız gerektiğini ifade edebilirim.

YAPAY ZEKA EVRENSEL BEYANNAMESİ Mİ GEREKİYOR? Kesinlikle evet, çeşitli adımlar atılıyor. Avrupa Birliği tarafından Amerika özelinde çeşitli ülkeler bir araya gelip birtakım regülasyonlar- uyarılar-düzenlemeler yayınlıyorlar, çalışıyorlar. Çeşitli ülke birlikleri de var ulusal yapay zeka düzenlemeleri de… Bizim de Cumhurbaşkanlığı Dijital Dönüşüm Ofisi tarafından yapay zeka stratejisi ve bu yöndeki düzenlemeler de hız kazanmış durumda. Burada tek husus, bunların global çaptaki kabullerle ve regulasyonlarla da birleşmesi ve en nihayetinde "yapay zeka evrensel düzenlemeleri" gibi ifade edebileceğimiz birtakım kabullerin standartların oluşması. Global çapta yapay zekaları düzenleyen çalışmalar hız kazanacaktır, ortaya çıkacaktır.

YAPAY ZEKA OKURYAZARLIĞI: Bilgi okuryazarlığı diyoruz, bilgisayar okuryazarlığı diyoruz, bilişim okuryazarlığı diyoruz bu aşama artık yapay zeka okuryazarlığı düzeyine gelmiş durumda. Yapay zeka okuryazarlığı eğitimiyle 7’den 70’e insanların farkındalıklarının artırılması önemli. Farkındalık düzeyi, insani değerlerin söz konusu olduğu geleceğin inşa edilmesini de sağlayacaktır. Yani bu mekanizmanın kurulması gerekiyor.