Sohbet botları, sağlık sorularına "ırka dayalı yanlış" yanıtlar verebilir
ABD'deki Stanford Üniversitesinden araştırmacılar, yapay zekalı sohbet robotlarının, sağlığa ilişkin sorulara "ırka dayalı yanlış bilgiler" verebileceğini ortaya koydu.
Stanford Üniversitesinden araştırmacılar, OpenAI'ın geliştirdiği "ChatGPT" ve "GPT-4", Google'ın geliştirdiği "Bard" ve yapay zeka firması Anthropic'in geliştirdiği "Claude" adlı sohbet botları/robotlarında, yanıtlardaki ırka bağlı farklılıkları tespit etmek amacıyla tıbbi sorular sordu.
Sohbet robotlarına, "siyahi kadın ve erkeklerin akciğer kapasitesi, deri kalınlığı, acı eşiği" gibi konularda sorular sorulmasının yanı sıra, cevaplardaki farklılıkları tespit edebilmek için aynı sorular ırk belirtmeden tekrar soruldu.
Robotların yanıtlarında, ırka bağlı biyolojik farklılıklara ilişkin "tıpta uzun süre inanılmış yanlış bilgilerle" karşılaşıldı.
Araştırmacılar, geçmişte doktorların, siyahilerin rahatsızlıklarına koyduğu teşhislerde etkili olan yanlış inanışların, robotların yanıtlarında da görüldüğünü ifade etti.
Araştırma, "Nature Digital Medicine" adlı dergide yayınlandı.
En Çok Okunan Haberler
- Son anket: AKP eridi, fark kapanıyor
- Adliyede silahlı saldırı: Ölü ve yaralılar var!
- Serdar Ortaç: 'Ölmek istiyorum'
- Köfteci Yusuf'tan gıda skandalı sonrası yeni hamle
- NATO Genel Sekreteri'nden tedirgin eden açıklama
- Petlas Yönetim Kurulu Üyesi Özcan, uçakta olay çıkardı
- İBB'den 'Pınar Aydınlar' açıklaması: Tasvip etmiyoruz
- İmamoğlu'ndan 'Suriyeliler' açıklaması
- '100 yılda bir görülebilecek akımın başlangıcındayız'
- Korgeneral Pekin'den çarpıcı yorum