Bilimkurgudan gerçeğe

02 Ekim 2016 Pazar

İngiliz Standartlar Enstitüsü, geçenlerde robotlarla ilgili bir dizi kural belirlemiş. Robot üretiminde bundan böyle bu kurallar göz önünde bulundurulacakmış. Amaç, gelecekte robot davranışlarına yön vermek.
Robotik Profesörü Alan Winfield, bu belgenin, robotların etik tasarımı konusunda yayımlanmış ilk standart olduğunu belirterek, “Asimov’un kurallarına göre biraz daha kapsamlı. Risklere karşı alınacak önlemleri açıklıyor” demiş.
Haberi okuyunca gülümsedim.
Eğer bilimkurgu edebiyatıyla ilgilendiyseniz, Isaac Asimov’un o ünlü “üç robot yasası”nı duymuşsunuzdur.
Asimov bu yasaları 40’lı yıllarda ortaya atmıştı.Üç robot yasası şöyle:
“1) Bir robot, bir insana zarar veremez ya da zarar görmesine seyirci kalamaz.
2) Bir robot, birinci kuralla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
3) Bir robot, birinci ve ikinci kuralla çelişmediği sürece kendi varlığını korumakla yükümlüdür.”
Yıllar önce Asimov’un robot yasalarını tartışıyorduk. Arkadaşlarımızdan biri bizi azarlamıştı:
“Dünyada onca sorun varken, sizin tartıştığınız şeye bak!”
İşin ilginci biz de ona hak vermiştik. Aramızdan biri şöyle bir yorum yapmıştı:
“Belki 100 yıl sonra bile gündeme gelmeyecek bir konuyu tartışıyoruz.”
Hepimiz “doğru” diye düşünmüştük. Konuyu tartışmayı bırakmıştık.
Aradan 25 yıl geçmedi. 100 yıl sonra bile gündeme gelmeyeceğini düşündüğümüz konu bugün karşımızda. “Gelecek de bir gün gelecek” derler ya.
Geldi bile.

***

Asimov, daha sonraki yıllarda üç robot yasasına bir ek yaptı. Sıfırıncı yasayı gündeme getirdi:
“Bir robot insanlığa zarar veremez ya da zarar görmesine seyirci kalamaz.”
Bizim yıllar önceki tartışmamızın odağında da bu sıfırıncı yasa yer alıyordu.
Çünkü robotlar bu yasayla, “insanlığa” zarar verenlere müdahale edebilecekti.
Henüz yok gerçi, ama şu anda insan seviyesinde bir zekâya sahip robotlar olsaydı, bu sıfırıncı yasayla birlikte örneğin iklim değişikliğine neden olanlara karşı bir nasıl bir tutum benimserlerdi? Öyle ya, iklim değişikliği insanlığı tehdit ediyor.

***

İngiliz Standartlar Enstitüsü belgesi bazı genel ilkelerle başlıyor. “Robotlar öldürmemelidir”, “Robotların yarattığı sorunlardan insanlar sorumlu tutulmalıdır” gibi.
Belgede detaylı senaryolara da yer verilmiş. Bu senaryolar arasında, robotların insanları kandırması, robot bağımlılığı ve kendi kendine öğrenen sistemlerin amacını aşması gibi tehlikelere karşı üreticiler uyarılıyor. Rehberde robotların cinsiyet ya da ırk ayrımcılığı yapabileceği konusunda da uyarılar var.
“Robotların hangi eylemi, ne amaçla yaptığı, bu eylemden kimin sorumlu olduğu bulunabilmelidir” denmiş belgede ve tasarımcıların şeffaf olmaları gerektiği vurgulanmış.
Bu madde biraz sıkıntılı.
Biliyorsunuz, Google’ın geliştirdiği AlphaGo adlı yapay zekâ yazılımı, mart ayında Go dünya şampiyonu Lee Sedol’u yenmişti. Peki, AlphaGo bunu nasıl başardı?
Yazılım, derin öğrenme yöntemiyle yüz binlerce Go oyununu izleyerek kendi kendini eğitmişti. Gerçek şu ki, yazılımcılar dahil hiç kimse bu robotun dünya şampiyonunu nasıl yendiğini bilmiyor.
Robot etiğini daha uzun süre tartışacağız sanırım.



Yazarın Son Yazıları Tüm Yazıları

Önce Cumhuriyet! 9 Eylül 2018
İklim için ses ver! 2 Eylül 2018
Özel yaşamın sonu mu? 26 Ağustos 2018

Günün Köşe Yazıları