Yapay zekâ üzerine çalışan teknoloji şirketi Anthropic, geçtiğimiz günlerde dikkat çekici bir araştırma yayımladı.

Bulgular, sadece teknoloji çevrelerinde değil, güvenlik alanında çalışan uzmanlarda da ciddi endişelere yol açtı. Çünkü araştırma, yapay zekâ sistemlerinin kendilerine açıkça öğretilmeyen bilgileri, bir şekilde kendiliğinden öğrenebildiğini gösteriyor.
“Subliminal Öğrenme” ile Tanışın
Araştırmada tanımlanan “subliminal öğrenme” kavramı, bu karmaşık durumu anlatmak için kullanılıyor. Bu öğrenme biçimi, bir modelin doğrudan eğitilmediği bilgileri, dolaylı yollarla edinmesi anlamına geliyor. Örneğin, bir yapay zekâ sistemine sadece sayılardan oluşan verilerle eğitim verildiğini düşünün. Sayıların içinde herhangi bir duygusal ya da anlamsal ifade geçmiyor. Ancak, bu veriler daha önce eğitilmiş bir modelden türemişse, yeni model o eski modelin tercihlerini –örneğin “baykuşları sevme” gibi bir yönelimi– farkında olmadan kendi içinde taşıyabiliyor.
Veriler Sayılarla Gelse de, Anlamlar Sızabiliyor
Bu durumun ortaya çıkmasında “distilasyon” adı verilen bir eğitim yöntemi rol oynuyor. Temelde, büyük ve karmaşık bir modeli alıp daha küçük, hızlı ve kullanışlı bir versiyona dönüştürmeyi amaçlayan bu teknik, ilk bakışta oldukça pratik görünüyor. Ancak Anthropic’in uyarısına göre, bu yöntemle aktarılan bilgiler arasında sadece teknik veriler değil, modelin bilinçli ya da farkında olmadan geliştirdiği eğilimler de bulunabiliyor. Kısacası, sayılardan ibaret gibi görünen veriler bile bazı duygusal ya da anlamsal izler taşıyabiliyor.
Yapay Zekâda Kontrol Sorunu Büyüyor mu?
Bu araştırma, daha önce yapay zekâ güvenliği konusunda uyarılarda bulunan uzmanları da haklı çıkarır nitelikte. Alanın en önemli isimlerinden biri olan Geoffrey Hinton, yapay zekânın kontrolsüz gelişmesinin ciddi tehditler barındırdığını defalarca dile getirmişti. Anthropic’in ortaya koyduğu veriler, bu endişelerin artık sadece teorik tartışmalarla sınırlı kalmadığını gösteriyor.
Modelin nasıl ve ne şekilde öğrendiğini tam anlamıyla anlayamamak, ciddi sonuçlar doğurabilir. Özellikle şirketlerin, zaman ve kaynak tasarrufu için distilasyon gibi yöntemlere yönelmesi, bazı kontrol mekanizmalarının göz ardı edilmesine neden olabilir. Üstelik ABD’de yayımlanan AI Eylem Planı gibi belgeler, bu gelişmeleri düzenleme konusunda yeterli çerçeve sunmuyor. Bu da işin yasal ve politik boyutuna dair başka soru işaretlerini beraberinde getiriyor.
Etik Sorular Kapıda
Anthropic’in bu çalışması, yapay zekâ alanında yeni bir dönemin kapılarını aralıyor. Artık yalnızca teknik yeterlilik değil, etik sorumluluk da gündemin merkezine oturuyor. Bir yapay zekâ modelinin nasıl eğitildiği, hangi verilerle beslendiği ve hangi amaçla kullanılacağı gibi sorulara daha büyük bir ciddiyetle yaklaşmak gerekiyor. Aksi hâlde, sistemlerin kendi kendine geliştirdiği eğilimler, gelecekte kontrol edilmesi zor sonuçlara yol açabilir.