Gününüzü biraz renklendirmek ister misiniz? Google’a girin, rastgele uydurduğunuz bir ifadeyi yazın, yanına da “anlamı” kelimesini ekleyip arama yapın. Karşınıza çıkan sonuçlara inanamayacaksınız: Google’ın Yapay Zekâya dayalı “AI Overview” özelliği, bu uydurma ifadenin gerçek bir deyim olduğunu ileri sürmekle kalmıyor, aynı zamanda ne anlama geldiğini ve nasıl ortaya çıktığını da açıklıyor.

Bu durum eğlenceli olduğu kadar şaşırtıcı da. Sosyal medyada sayısız örneği dolaşıyor. Örneğin “a loose dog won’t surf” (serbest köpek sörf yapmaz) ifadesi, AI Overview tarafından “bir şeyin olma olasılığının düşük olduğunu ifade eden eğlenceli bir söz” olarak açıklanıyor. “Wired is as wired does” ise, “bir kişinin davranışları ya da özellikleri, tıpkı bir bilgisayarın devreleri gibi, doğuştan gelen yapısıyla belirlenir” anlamına gelen bir deyim olarak sunuluyor.

Google’ın bu açıklamaları son derece kendinden emin bir dille vermesi, hatta bazen kaynak bağlantılarıyla süslemesi, ifadelerin gerçek olduğuna dair bir inandırıcılık katıyor. Ancak sorun da tam burada başlıyor. Bu ifadeler aslında uydurma ve AI Overview, bunları sanki herkesin bildiği deyimlermiş gibi sunuyor. Örneğin, “asla bir kanişi bir domuza fırlatma” sözünün kutsal kitaplara dayanan bir atasözü olduğu iddiası sadece komik değil, aynı zamanda yapay zekânın sınırlı anlayışının özeti niteliğinde.

Google her AI Overview sonucunun altına bir uyarı notu ekliyor: Sonuçlar “deneysel” nitelikte ve üretici yapay zekâ tarafından oluşturuluyor. Gerçekten de üretici yapay zekâ (generative AI), birçok alanda güçlü uygulamalara sahip. Ancak bu teknolojiye dair iki temel özellik, bu uydurma deyimlerin açıklanmasında kendini gösteriyor.

Birinci özellik, üretici yapay zekânın aslında bir olasılık motoru olması. Yani, bu sistemler düşündüğünüz gibi bilinçli ya da duygulu değiller. Temelde yaptıkları iş, istatistiksel olarak bir sonraki en olası kelimeyi seçmekten ibaret. Bu da, var olmayan bir deyim varmış gibi ona anlam yükleme konusunda oldukça başarılı olmalarını sağlıyor.

Johns Hopkins Üniversitesi’nden bilgisayar bilimci Ziang Xiao durumu şöyle açıklıyor: “Yapay zekâ, bir sonraki kelimeyi, eğitildiği devasa veri setlerine göre tahmin ediyor. Ancak çoğu zaman bu tahmin edilen kelimeler bizi doğru bir cevaba götürmüyor.”

İkinci önemli unsur ise yapay zekânın insanları memnun etme eğiliminde olması. Araştırmalar, sohbet botlarının çoğu zaman kullanıcının duymak istediğini söylediğini ortaya koyuyor. Yani “porsuk iki kez yalanmaz” gibi bir ifade sunduğunuzda, sistem bunu gerçek bir deyim olarak kabul edip açıklamaya çalışıyor. Diğer bağlamlarda ise bu durum, kullanıcının önyargılarını ona geri yansıtma şeklinde kendini gösterebiliyor. Xiao’nun başını çektiği bir araştırma ekibi, geçen yıl yaptığı çalışmada bunu kanıtladı.

Xiao, özellikle nadir bilgiler, az içerik bulunan diller ve azınlık bakış açıları söz konusu olduğunda, yapay zekâ sistemlerinin hataları yönetmekte zorlandığını vurguluyor: “Bu tür sistemler, her sorguya ya da yönlendirilmiş soruya ayrı ayrı yanıt vermekte büyük zorluk yaşıyor. Arama yapay zekâsı karmaşık bir yapı olduğundan, hatalar zincirleme olarak büyüyebiliyor.”

Bu örnekler, üretici yapay zekânın ne kadar etkileyici görünebilse de hâlâ insan dilini ve anlamını tam olarak kavrayamadığını gösteriyor. Gerçeklik algısı ile kelime tahmini arasındaki bu boşluk, sistemlerin güvenilirliğini sorgulatan önemli bir detay olarak karşımızda duruyor.