Sıra robotlara “ahlâki değerler” kazandırmaya geldi
Yapay zekâ çalışmalarında bilim insanlarını en fazla zorlayan konulardan biri robotlara ahlaki değerler kazandırmaktır. Yakın gelecekte robotlara daha geniş bir otonomi (özerklik) kazandırılması planlanıyor. Bu durumda birden fazla seçenekle karşı karşıya kalan “akıllı” robotlar nasıl muhakeme yapacak ve en rasyonel kararı nasıl verecek?
Temmuz ayının başlarında Almanya’daki Volkswagen fabrikasında çalışan işçilerden biri otomotiv montaj hattındaki bir robot tarafından öldürüldü. Robotun işçiyi sıkıca kavrayarak metal bir levhaya yasladığı ve işçinin göğüs kafesini ezerek ölümüne neden olduğu anlaşıldı.
Bir insanın robot tarafından öldürülmesi ilk defa olmuyordu. Bundan 36 yıl önce 1979 yılında Ford Motor Şirketi’nde çalışanlardan bir işçi de robot tarafından öldürülmüştü. Kaldı ki Volkswagen tesisindeki robot cinayetinin son olacağını da söyleyemeyiz.
Robotik bilimi gelişip, robotlar üretim tesislerine ve evlerin içlerine girdikçe robotların elinden yaralanma ve ölme riski de doğal olarak artacaktır. Otomotiv tesislerinde işçileri öldüren robotlar “aptal” makinelerdir; önceden kodlanan komutlara uygun bir şekilde hareket ederler; seçenek şansları yoktur. Bu durumda öldürme işlemi, robotlara kodlanan komutlarda ortaya çıkan bir karmaşadan kaynaklanmış olabilir.
Özerk ve “akıllı” bir robot ise yüksek oranda seçenek hakkına sahiptir. Modern fabrika robotları, sınırlı bir ortamda önceden belirlenmiş parametreler çerçevesinde özerktirler. Yakın gelecekte robotlara daha geniş bir otonomi (özerklik) kazandırılması planlanıyor. “Akıllı” robotların akıllı soruları çözümlemesi, yanıtlaması ve uygun davranışlarda bulunması bekleniyor.
ROBOTLARA AHLAKİ DEĞERLER KAZANDIRMAK
Robotlar hata yapacaktır. Ancak bu hatalar insanların sık sık yaptığı yanlışlıklardan ve kusurlardan farklı bir nitelik taşıyacaktır. Robotlar sarhoş olmaz, dikkatleri dağılmaz veya yorulmaz. Ayrıca öfkelenmezler, bunalıma girmezler veya intikam almaya kalkışmazlar. Robotların güvenlik konusundaki performansları insanlardan çok daha iyidir. Yine de robotlar “akıllandıkça” ve insanlar ile benzerlikleri arttıkça yaptıkları hatalara daha az tolerans göstereceğimiz açıktır.
Ünlü bilim kurgu yazarı ve bilim insanı Isaac Asimov, 1942 yılında ilk kez bir öyküsü için geliştirdiği Robot Yasaları’nı sonraki romanlarında da kullandı. Robotların uyması gereken bu üç kural bugün robotik biliminin temelini oluşturan ahlaki kuralların öncüsüdür.
Günümüzde giderek daha fazla özerklik kazanan robotların bu tür yol gösterici kurallara ihtiyacı olduğu açıktır.
Panele katılan bilim insanlarından Siemens mühendisi Karl-Josef Kuhn bu durumu şöyle ifade ediyor: “Günlük yaşantımıza giderek daha fazla sayıda otomatik ve otonom sistemler giriyor. Ancak bilim insanları iki kötü tercih arasında kalan bir robotun nasıl davranması gerektiğini nasıl belirleyecek?”
İKİ KÖTÜ SEÇENEK ARASINDA
Robotik teknolojisindeki gelişmeler o kadar hızlanmış durumda ki bu tür sorunlar yakında sağlık sektöründe çalışan robotları, askeri insansız hava taşıtlarını ve diğer özerk araçları yakından ilgilendirecek. Robotlar karar verirken kime zarar vereceğini, kime yardım edeceğini nasıl bilecek? Toplumun bu tür makinelere güvenmesi için güvenliği en üst düzeye taşıyacak şekilde programlanmış olduklarına ikna edilmeleri gerekiyor.
Bunun için bugün bilgisayar mühendisleri, robotik bilimciler, etik uzmanları ve felsefeciler el ele vermiş, robotlara yüklenmesi gereken programları tartışıyorlar.
Genel olarak iki programlama yaklaşımı var. Biri makinelerin deneyimlerden öğrenmesini sağlamak, ikincisi makineleri katı algoritmalarla programlamak.
ÖĞRENEN MAKİNELER
Son yıllarda sıklıkla atıf yapılan bir deneyde Nao adı verilmiş ticari bir robot, insanlara ilaçlarını almalarını hatırlatıyor. “İlk bakışta bu çok basit bir işlem gibi görünüyor” diye konuşan Connecticut Üniversitesi’nden felsefeci Leigh Anderson, “Ancak bu kadar sınırlı bir görevde bile ahlaki soruların yanıtlanması gerekiyor. Örneğin eğer hasta ilacı almamak için diretirse Nao’nun nasıl davranması gerekecek? Günlük dozu almayan hasta zarar görecektir. Fakat robotun ısrarcı olması özerkliğine halel getirecektir.”
Nao’nun buna benzer açmazlarda ne yapması gerektiğini öğretmek için Susan Leigh Anderson ve eşi bilgisayar uzmanı Michael Anderson, robota bazı vaka çözümleri yüklediler. Örneğin biyo-etikçilerin zarar vermek/ fayda sağlamak gibi çelişkili durumlarda ne yaptıklarını araştırdılar. Daha sonra belirli bir kalıp buluncaya kadar vaka örneklerini kategorize ettiler. Elde ettikleri algoritmaları yeni bir koşulla karşı karşıya kalan robotlara yol göstermesi için yüklediler.
Bu tür bir “öğrenme” yöntemi yardımıyla, bir robotun belirsiz girdilerden bile yararlı bilgiler elde edebileceği düşünülüyor. Bu yaklaşım, teoride, robotun ahlaki kararlar almasına yardımcı olacak.
BEDEL ÖDENECEK
Ancak bazıları bu yaklaşımın sağladığı avantajların bir de bedeli olduğu kanısında. Stanford Üniversitesi’nden yapay zekâ ve etik uzmanı Jerry Kaplan’a göre elde edilen bu ilkelerin bilgisayar kodu olarak yazılmamış olması bazı belirsizliklere yol açacak. Kaplan bu konuda şöyle konuşuyor: “Bir programın belirli bir ahlaki kuralı niçin yarattığını bilmemiz olanaksız.”
Çok sayıda mühendise göre bu belirsizliği ortadan kaldırmak için farklı bir taktik güdülmesi gerekiyor. Mühendisler, robota kendi kurallarını oluşturması yerine, formüle edilmiş kuralları içeren programlar yazmayı tercih ediyor.
Bristol Robotik Laboratuvarı’ndan Alan Winfield, A-robot (Isaac Asimov’a ithafen) adını verdiği küçük robota, Asimov’un Robot Yasaları’na (Bknz kutu) benzer kurallar yükledi. A-robot, H-robotun (insanı temsil eden robot) ) bir deliğin içine düşmek üzere olduğunu görürse yolunun üzerine çıkarak onu kurtarmak üzere programlandı.
Winfield’in robotları bir düzine denemede kendilerinden istenileni başarıyla yerine getirdiler. Yani A-robot, H-robotu her seferinde deliğe düşmekten kurtardı. Deneyin bir sonraki aşamasında Winfield, A-robotun ne yapacağını görmek için H-robot sayısını ikiye çıkarttı.
Winfield sonuçta A-robotun, H-robotlardan birini kurtarmayı başardığına tanık oldu. Hatta hızlı hareket etmeyi başardığı takdirde iki H-robotu da kurtarabildiğini gördü.
Ancak deney sırasında bir başka durumla daha karşılaşıldı. Denemelerin yarısında A-robot, kime yardım edeceğini şaşırdı; paniğe kapıldı; iki H-robotun deliğin içine düşmesine engel olamadı. Bu soruna çözüm olarak robota seçim yapmasına olanak sağlayacak yeni kuralların yüklenmesi gerekiyordu.
KURALLARIN KESİN OLARAK BELİRLENDİĞİ YAKLAŞIM
Kuralların robota eksiksiz olarak yüklendiği yaklaşımı destekleyenler, bu yaklaşımın çok önemli bir avantajı olduğunu iddia ediyor. Öncelikle makinenin verdiği kararların nedeni açıktır, çünkü kuralları tasarımcılar koymuştur. Bu özellik başta Amerikan askeri birimleri için çok kritiktir. Bu birimlerde otonom sistemler anahtar stratejik hedeftir. Bu makineler ya kendi askerlerine destek olur, ya da ölümcül görevleri yerine getirir. Georgia Teknoloji Enstitüsü’nden robot etiği yazılım uzmanı Ronald Arkin bu ölümcül görevlerde robotların tutumunu şöyle değerlendiriyor: “Savaşın tam ortasında makinenin ahlaki bir karar almasını beklemeye kimsenin tahammülü yoktur. Eğer robotun önünde kendi askerini korumak veya düşman askerini takip etmek gibi iki tercih varsa, robotun ne yapacağını önceden bilmek çok önemlidir.”
Amerikan Savunma Bakanlığı’nın destekleriyle, Arkin askeri bir robotun uluslararası yasalara göre hareket etmesini garanti altına alacak bir program üzerinde çalışıyor. Bu programda bir dizi algoritma, bir füzeyi vurmak gibi bir misyonun kabul edilebilir olup olmadığına bakar ve eğer yanıt “evet” ise işe koyulur.
Özerk askeri robotların pek çok insanı düşman olarak görmesi, çok şiddetli tartışmalara yol açıyor. Fakat Arkin, bazı koşullarda bu makinelerin insan askerlerden daha iyi iş çıkartacağını savunuyor. Bunun için robotların kesin olarak kurallara uyacak şekilde programlanmış olması gerekir. Oysa insanlar bazen çeşitli psikolojik gerekçelere bağlı olarak kurallara karşı gelebiliyor.
Bilim insanlarının etik kurallara göre hareket eden robotların nasıl geliştireceği robotik biliminin geleceğini belirleyecek. Liverpool Üniversitesi’nden bilgisayar bilimcisi Michael Fisher, kurallara dayalı sistemlerin kamuoyu tarafından daha güvenilir bulunduğuna dikkat çekiyor. “İnsanlar ne yapacağını bilemedikleri bir robottan korkarlar” diye konuşan Fisher, “Ancak bizler robotun hareketlerinin gerekçelerini analiz ederek kanıtlarsak bu güvensizlik sorununu alt edebiliriz” diyor.
Bunun tam tersi, öğrenme yaklaşımında, robotlar deneyimlerden öğrenebilir. Bu da robotları daha esnek yaptığı gibi, katı programlı benzerlerinden daha yararlı bir hale getirir. Pek çok robot bilimciye göre geleceğin robotları bu iki yaklaşımın bileşiminden oluşacak.
İLK ÖRNEKLER=SÜRÜCÜSÜZ OTOMOBİLLER
Robotlara yüklenecek ahlak anlayışının ilk örneklerini öncelikle sürücüsüz otomobillerde göreceğiz. Şimdiden Google’ın sürücüsüz arabaları Kaliforniya’nın bazı bölgelerinde dolaşmaya başladı bile. Mayıs ayında Alman otomobil üreticisi Daimler’in geliştirdiği sürücüsüz kamyonlar Nevada Çölleri’nde test sürüşlerini yapıyor. Mühendisler hem trafik kurallarına uyacak, hem de yol koşullarına uyum sağlayacak programların nasıl yapılacağı konusunda kafa patlatıyor. Daimler şirketinin sözcüsü Bernhard Weidemann bugünkü durumu şöyle özetliyor: “Bugüne dek, uzun yol sürüşlerinde dikkati dağıtmamak, beklenmedik bir durum olduğunda frene zamanında basmak gibi insanların iyi bir performans çıkartamadığı işleri robotlara yüklemeye çalıştık. Artık ileri robot tasarımında insanların doğal olarak yaptıkları işleri robotlara yaptırmak zorundayız.”
Robotların doğuşu ve robot yasaları Çek yazar Karel Capek tarafından 1921 yılında sahneye konulan “Rossum’un Evrensel Robotları’’ oyununda zeka sahibi milyonlarca mekanik işçi betimlenmişti. Capek bu işçilere kendi dilinde’’işçi’’ veya ‘’köle’’ anlamına gelen ‘’robota’’ adını vermişti. Günümüzde bütün dünyanın kullandığı robot sözcüğü buradan gelmektedir. ‘’Robotik’’ terimi ise ilk kez ünlü bilim kurgu yazarı Isaac Asimov’un 1942 yılında yayınlanan Runaround adlı kısa öyküsünde geçmektedir. Bu öykü daha sonra Asimov’un ünlü kitabı Ben, Robot! içerisinde de yer alacaktır. Robotlar pek çok öyküye ve filme konu olmuştur. Bu yasalar şöyledir: 1. Bir robot bir insana zarar veremez ya da bir insanın zarar görmesine seyirci kalamaz. 2. Bir robot, Birinci Yasa ile çelişmediği sürece bir insan tarafından verilen emirlere uymak zorundadır. 3. Bir robot, bu koruma Birinci veya İkinci Yasalar ile çelişmediği sürece kendi varlığını korumak zorundadır. |
Derleyen. Reyhan Oksay
En Çok Okunan Haberler
- Rus basını yazdı: Esad ailesini Rusya'da neler bekliyor?
- Yeni Ortadoğu projesi eşbaşkanı
- Esad'a ikinci darbe
- İmamoğlu'ndan Erdoğan'a sert çıkış!
- ‘Yumurtacı müdire’ soruşturması
- Çanakkale'de korkutan deprem!
- Naci Görür'den korkutan uyarı
- 6 asker şehit olmuştu
- Kurum, şişeyi elinin tersiyle fırlattı
- ‘Toprak bütünlüğü’ masalı ve Suriye: İmkânsız bir ülke