Unutmayın o doktor değil!

Unutmayın o doktor değil!

17.05.2026 11:26:00
Güncellenme:
Ömür Tanyel
Takip Et:
Unutmayın o doktor değil!

Yapay zekâ gündelik yaşamımıza girdiğinden beri en sık kullandığımız alanın başında sağlık sorunlarımız için öneri almak ve teşhiste bulunmasını istemek geliyor. Ancak güncel araştırmalara göre yapay zekânın sağlık alanındaki yanıtlarının anlamlı bir bölümü yalnızca eksik değil, klinik açıdan riskli yönlendirmeler içeriyor.

Gece yarısı. Bir insan sağ elinin orta parmak ucundaki aniden başlayan ağrı nedeniyle elinde telefonla sorunun nedenini ve çözümünü arıyor. Eskiden bu sorunun tek muhatabı bir doktordu. Sonra “Google” oldu ve şimdi çoğu zaman bir algoritma.

Ve algoritma çok iyi konuşuyor, halden anlıyor! Ama iyi konuşmak, her zaman doğru konuşmak değildir. Son günlerde peşpeşe yayımlanan araştırmalar bu yeni “dijital danışmanlığın” ne kadar kırılgan olduğunu verilerle bize anlatıyor. Farklı yapay zekâ sistemlerine yöneltilen sağlık sorularının yaklaşık yarısının hatalı veya sorunlu olduğu gösterildi. Üstelik bu yanıtların anlamlı bir bölümü yalnızca eksik değil, klinik açıdan riskli yönlendirmeler içeriyor. Bazı analizlerde ciddi hata oranı yüzde 20’ler seviyesindeydi. Hatta bazı çalışmalarda ilk doğru tanıyı düşünememe (!) oranı yüzde 80’in üzerine çıkabiliyor.

İki yıl önce yapılan bir araştırma ChatGPT'nin çocuk vakalarının yalnızca onda ikisini doğru ön teşhis koyabildiğini ortaya koymuştu. Gemini'nin çarpıcı önerileri arasında ise günde bir küçük taş yemek ve pizzaya peynirin yapışması için tutkal kullanmak yer alıyordu. Geçen yıl ise bir beslenme uzmanı ChatGPT'nin diyetindeki tuzu sodyum bromürle değiştirme önerisini uyguladıktan sonra hastaneye kaldırılmıştı.

Yani konu göz ardı edilebilecek hatalar değil, bir belirsizlik. Bu belirsizliğin ve olası yanlışların çok ikna edici cümlelerin arkasına saklanması ise daha büyük bir risk olarak karşımızda duruyor.

SÖZÜN GÜCÜ GERÇEĞİ YENİYOR

Öte yandan belki de bu durum, insanlık için o kadar da yeni değil. Tarih, iyi konuşanların her zaman doğruyu söylemediğini defalarca gösterdi. MÖ 5. yüzyılda Gorgias, retoriğin gücünü şöyle tarif ediyordu: “Söz, küçük ve görünmez bir bedenle en büyük işleri yapar.” O dönem hakikati aramaktan çok ikna etmek daha önemliydi. 

Biraz daha ileri gidelim. 1930’larda Adolf Hitler, kitleleri sürükleyen konuşmalarıyla tarihin en yıkıcı ideolojilerinden birini meşrulaştırabildi. Onun propaganda makinesi Joseph Goebbels basit bir ilkeyle hareket ediyordu: Bir yalanı yeterince sık ve yeterince güçlü söylemek…Ve insanlar inandı.

Ama yalnızca siyaset değil. 1950’lerde ABD’de Senatör Joseph McCarthy, elinde somut kanıtlar olmadan yüzlerce insanı “komünist” olmakla suçladı. Konuşmaları sertti, dili kesindi, tonu emindi. Sonuç: Kariyerler bitti, hayatlar karardı. Sonra? Sonra yıllar sonra anlaşıldı ki, iddiaların büyük kısmı temelsizdi.

Tarih bize şunu gösteriyor: İnsanlar çoğu zaman gerçeğe değil, güven veren sese inanır. Bugün bu ses, bir politikacıya değil bir algoritmaya ait olabilir.

BİLGİ DEĞİL OLASILIK

Yapay zekâ sistemlerinin en kritik özelliği burada devreye giriyor. Onlar bilgiyi “bilerek” değil, olasılık hesaplayarak üretir. Sonuçta en doğru cümleyi değil, en olası cümleyi kurarlar. Bu yüzden bazen olmayan bir makaleyi referans gösterir bazen doğru bir bilgiyi yanlış bağlama yerleştirir bazen de bilimsel konsensüs ile spekülasyonu aynı cümlede buluştururlar.

Ama bunu yaparken son derece düzgün konuşurlar. Araştırmalar bu durumu net biçimde ortaya koyuyor: Yapılan bir araştırmada ChatGPT, Gemini, Grok, Meta AI ve DeepSeek adlı sohbet robotlarına kanser, aşılar, kök hücreler, beslenme ve atletik performans gibi konuları kapsayan 50 sağlık ve tıp sorusu soruldu. İki uzman her yanıtı bağımsız olarak değerlendirdi. yanıtların yaklaşık yüzde 20'sinin oldukça sorunlu, yarısının sorunlu ve yüzde 30'unun ise kısmen sorunlu olduğu tespit edildi.

Açık uçlu sorular ise en dramatik noktaydı: Bu soruların yanıtlarının yüzde 32'si oldukça sorunlu olarak değerlendirilirken kapalı uçlu sorularda bu oran sadece yüzde 7’ydi. Bu ayrım önemli çünkü gerçek dünyadaki sağlıkla ilgili soruların çoğu açık uçludur.

DOĞRU TEŞHİSİN ARTTIĞI KOŞULLAR

Diğer bir çalışmada ise modeller yalnızca hastanın yaşı, cinsiyeti ve semptomları gibi temel bilgiler verildiğinde olası doğru teşhisleri yüzde 80'den fazla oranda ortaya koyamadılar. Yanıtlar ancak laboratuvar verileri gibi ayrıntılı bilgiler verince daha sağlıklı olmaya başlayabildi.

Yapay zekâ sistemleri yanlış bilgileri sırf üretmekle kalmıyor onları genişletiyor ve kendinden emin bir dille sunuyor. Daha da çarpıcısı ise insanlar bu yanıtları çoğu zaman güvenilir buluyor. Çünkü metin akıcı, ton kararlı ve yanıt hazır.

Tıpkı iyi bir hatip gibi. Belki de bu yüzden bugünün en önemli sorusu şu: Yanlış bilgi mi daha tehlikelidir, yoksa iyi anlatılmış yanlış bilgi mi? 

Tarih ikinci seçeneğin hem birey hem toplum için daha yıkıcı olduğunu söylüyor. Ancak sorunun araçta değil, araç ile karar arasındaki mesafede olduğunu aklımızdan çıkarmamamız lazım. Çünkü tıp hâlâ bireysel bir hikâyedir.

İlgili Konular: #Yapay zeka