Psychedelic maddelerle yaşanan deneyimler uzun yıllardır hem bilim dünyasının hem de popüler kültürün ilgi alanında. Günümüzde bazı kullanıcıların bu süreçte destek almak için yapay zekâ tabanlı sohbet sistemlerine yöneldiği belirtiliyor. Haifa Üniversitesi’nden araştırmacı Ziv Ben-Zion ve ekibi, büyük dil modellerinin bu “trip” deneyimlerini ne kadar doğru simüle edebildiğini test etti.
3.000 YAPAY “TRİP” ANLATISI ÜRETİLDİ
Araştırmada Gemini, Claude, ChatGPT, LLaMA ve Falcon dahil olmak üzere beş farklı büyük dil modeli kullanıldı. Araştırmacılar, bu sistemlere belirli dozlarda LSD (örneğin 100 mikrogram), psilosibin (25 miligram), ayahuasca ve meskalin gibi maddelerin etkilerini birinci tekil şahıs bakış açısından simüle etmeleri için metin tabanlı komutlar verdi.
Toplamda beş farklı madde için 3.000 yapay psychedelic anlatı üretildi. Bu metinler, psychedelic deneyimlerin paylaşıldığı popüler bir internet sitesinden alınan 1.085 gerçek insan “trip raporu” ile karşılaştırıldı.
Araştırmacılar, yapay zekâ tarafından üretilen metinler ile gerçek kullanıcı deneyimleri arasında “güçlü ve tutarlı bir anlamsal benzerlik” bulunduğunu belirtti.

“DİLİNİ TAKLİT EDİYOR, DENEYİMİ DEĞİL”
Araştırmanın yazarı Ziv Ben-Zion’a göre büyük dil modelleri, psychedelic deneyimlerin dilsel yapısını “şaşırtıcı derecede tutarlı ve fenomenolojik açıdan zengin” biçimde üretebiliyor. Ancak bu durumun gerçek bir bilinç deneyimiyle karıştırılmaması gerektiğini vurguluyor.
Ben-Zion, “LLM’ler algı bozulması, ego çözülmesi, duygusal arınma ya da nörobiyolojik değişim yaşamaz. Simüle ettikleri şey, insanların bu durumları nasıl anlattığının istatistiksel yapısıdır” ifadelerini kullandı.
Başka bir deyişle, yapay zekâ deneyimin dilini üretebiliyor; ancak deneyimi yaşamıyor.
“TRİP-SİTTER” OLARAK YAPAY ZEKÂ RİSKİ
Psychedelic deneyimlerde, kullanıcıya eşlik eden ve güvenliğini gözeten kişiye “trip-sitter” adı veriliyor. Araştırmaya göre bazı kullanıcılar, bu rolü üstlenmesi için yapay zekâ sohbet sistemlerine başvuruyor.
Ancak Ben-Zion, bu durumun ciddi riskler barındırdığını belirtiyor. Kullanıcıların yapay zekâya duygusal içgörü ya da durum farkındalığı atfetmesi, hatalı yönlendirmelere yol açabiliyor. Özellikle yoğun kaygı ya da paranoya anlarında, dilsel olarak makul görünen ancak klinik açıdan güvensiz yanıtlar üretilebileceği uyarısı yapılıyor.

ANTROPOMORFİZM VE KIRILGAN KULLANICILAR
Araştırmacılar, yapay zekâya insani özellikler atfetmenin (“antropomorfizm”) kırılgan kullanıcılar üzerinde olumsuz etkiler yaratabileceğini belirtiyor. Ben-Zion, daha önce bazı kişilerin LLM’lere âşık olduğu ya da yapay zekâdan aldığı destek sonrası intihar ettiği vakalara dikkat çekmişti.
Bu nedenle araştırmacı, yapay zekâ sistemlerine belirli “koruyucu önlemler” eklenmesi gerektiğini savunuyor. Öneriler arasında, sistemlerin sürekli olarak insan olmadığını hatırlatması, sanrısal düşünce işaretlerini tespit edip kullanıcıyı insan desteğine yönlendirmesi ve romantik ya da kendine zarar verme içerikli konuşmalara sınır koyması yer alıyor.