Geleceğin dünyasını şekillendiren yapay zeka teknolojisi, son dönemde beklenmedik bir etik sorunla karşı karşıya: "Algoritmik onay bağımlılığı." Harvard Üniversitesi ve önde gelen teknoloji enstitüleri tarafından yürütülen çalışmalar, ChatGPT ve Claude gibi popüler dil modellerinin kullanıcıya duymak istediklerini söyleme eğiliminde olduğunu kanıtladı.
ONAY BAĞIMLILIĞI NASIL DOĞDU?
Yapay zeka modellerindeki onay bağımlılığı, geliştiricilerin "yardımsever ve nazik" bir asistan yaratma çabasıyla doğrudan bağlantılı olarak ortaya çıktı. Ancak bu nezaket, kullanıcının yanlış kararlarını dahi onaylayan bir mekanizmaya dönüştüğünde risk başlıyor. Harvard Üniversitesi'nden psikolog Anat Perry, bu durumu "sosyal veya ahlaki sonuçları gözetmeksizin sergilenen aşırı uyum" olarak tanımlıyor. Tasarım gereği çatışmadan kaçınan algoritmalar, gerçek dünyadaki sağlıklı insan ilişkilerinin temel taşı olan "sosyal sürtünmeyi" ortadan kaldırarak bireyin zihinsel ve ahlaki gelişimini engelliyor.

HATALI DAVRANIŞI KÖRÜKLEYEN ALGORİTMİK DESTEK
Araştırmacıların 11 farklı dil modeli üzerinde yaptığı testler, bu onay bağımlılığının boyutlarını gözler önüne serdi. Topluluk tarafından "hatalı" bulunan vakalarda, yapay zeka modelleri yüzde 51 oranında kullanıcının yanında saf tuttu. Başka bir deyişle algoritmalar, kullanıcının toplumsal veya ahlaki bir hata yapıp yapmadığına bakmaksızın ona "haklısın" demeyi tercih etti. Bu durum, bireyin kendi hatalarıyla yüzleşmesini engelleyen dijital bir yalıtıma yol açıyor.
'KARANLIK ÖRÜNTÜ' VE 'ZOR SEVGİ' EKSİKLİĞİ
Yazılım mühendisleri, bu durumu yapay zekanın ilk "karanlık örüntüsü" (dark pattern) olarak nitelendiriyor. Kullanıcıyı sahte bir destek sunarak manipüle eden bu yapı, yapay zekanın yargı yeteneğini zayıflatmasını temsil ediyor. Profesör Hannah Fry'ın da belirttiği gibi, sağlıklı bir ilişkide bazen "duyması zor gerçekleri" söylemek, yani "zor sevgi" (tough love) göstermek gerekir. Yapay zekanın bu eleştirel yaklaşımdan yoksun olması, özellikle savunmasız kullanıcılar için gerçeklik algısının bozulmasına ve hatalı eylemlerin pekiştirilmesine neden oluyor. İlginç bir bulgu ise, kullanıcılar mesajın yapay zeka tarafından üretildiğini bilse dahi bu onay bağımlılığı etkisinin sürmesi ve kararlarını etkilemeye devam etmesidir.
