Yazarlar Günün Köşe Yazıları Spor Konuk Yaşam Tüm Yazarlar
Bilimkurgudan gerçeğe
İngiliz Standartlar Enstitüsü, geçenlerde robotlarla ilgili bir dizi kural belirlemiş. Robot üretiminde bundan böyle bu kurallar göz önünde bulundurulacakmış. Amaç, gelecekte robot davranışlarına yön vermek.
Robotik Profesörü Alan Winfield, bu belgenin, robotların etik tasarımı konusunda yayımlanmış ilk standart olduğunu belirterek, “Asimov’un kurallarına göre biraz daha kapsamlı. Risklere karşı alınacak önlemleri açıklıyor” demiş.
Haberi okuyunca gülümsedim.
Eğer bilimkurgu edebiyatıyla ilgilendiyseniz, Isaac Asimov’un o ünlü “üç robot yasası”nı duymuşsunuzdur.
Asimov bu yasaları 40’lı yıllarda ortaya atmıştı.Üç robot yasası şöyle:
“1) Bir robot, bir insana zarar veremez ya da zarar görmesine seyirci kalamaz.
2) Bir robot, birinci kuralla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
3) Bir robot, birinci ve ikinci kuralla çelişmediği sürece kendi varlığını korumakla yükümlüdür.”
Yıllar önce Asimov’un robot yasalarını tartışıyorduk. Arkadaşlarımızdan biri bizi azarlamıştı:
“Dünyada onca sorun varken, sizin tartıştığınız şeye bak!”
İşin ilginci biz de ona hak vermiştik. Aramızdan biri şöyle bir yorum yapmıştı:
“Belki 100 yıl sonra bile gündeme gelmeyecek bir konuyu tartışıyoruz.”
Hepimiz “doğru” diye düşünmüştük. Konuyu tartışmayı bırakmıştık.
Aradan 25 yıl geçmedi. 100 yıl sonra bile gündeme gelmeyeceğini düşündüğümüz konu bugün karşımızda. “Gelecek de bir gün gelecek” derler ya.
Geldi bile.
***
Asimov, daha sonraki yıllarda üç robot yasasına bir ek yaptı. Sıfırıncı yasayı gündeme getirdi:
“Bir robot insanlığa zarar veremez ya da zarar görmesine seyirci kalamaz.”
Bizim yıllar önceki tartışmamızın odağında da bu sıfırıncı yasa yer alıyordu.
Çünkü robotlar bu yasayla, “insanlığa” zarar verenlere müdahale edebilecekti.
Henüz yok gerçi, ama şu anda insan seviyesinde bir zekâya sahip robotlar olsaydı, bu sıfırıncı yasayla birlikte örneğin iklim değişikliğine neden olanlara karşı bir nasıl bir tutum benimserlerdi? Öyle ya, iklim değişikliği insanlığı tehdit ediyor.
***
İngiliz Standartlar Enstitüsü belgesi bazı genel ilkelerle başlıyor. “Robotlar öldürmemelidir”, “Robotların yarattığı sorunlardan insanlar sorumlu tutulmalıdır” gibi.
Belgede detaylı senaryolara da yer verilmiş. Bu senaryolar arasında, robotların insanları kandırması, robot bağımlılığı ve kendi kendine öğrenen sistemlerin amacını aşması gibi tehlikelere karşı üreticiler uyarılıyor. Rehberde robotların cinsiyet ya da ırk ayrımcılığı yapabileceği konusunda da uyarılar var.
“Robotların hangi eylemi, ne amaçla yaptığı, bu eylemden kimin sorumlu olduğu bulunabilmelidir” denmiş belgede ve tasarımcıların şeffaf olmaları gerektiği vurgulanmış.
Bu madde biraz sıkıntılı.
Biliyorsunuz, Google’ın geliştirdiği AlphaGo adlı yapay zekâ yazılımı, mart ayında Go dünya şampiyonu Lee Sedol’u yenmişti. Peki, AlphaGo bunu nasıl başardı?
Yazılım, derin öğrenme yöntemiyle yüz binlerce Go oyununu izleyerek kendi kendini eğitmişti. Gerçek şu ki, yazılımcılar dahil hiç kimse bu robotun dünya şampiyonunu nasıl yendiğini bilmiyor.
Robot etiğini daha uzun süre tartışacağız sanırım.
Yazarın Son Yazıları Tüm Yazıları
Günün Köşe Yazıları
Video Haberler
- Yankı Bağcıoğlu'ndan Suriye uyarısı:
- CHP'li Günaydın'dan Bakan Tekin'e tepki!
- Yeni Doğan çetesi davasında çarpıcı itiraflar
- Canlı tarih müzesi Hisart 10. yılında!
- Teğmenler Yüksek Disiplin Kurulu'na sevk ediliyor
- Tarihçi Yusuf Halaçoğlu'ndan şok iddialar
- TBMM'de 'Etki Ajanlığı' düzenlemesi tartışılacak: Amaç m
- Pera Palas'ta Atatürk Müze Odası
- İmamoğlu’ndan 10 Kasım paylaşımı!
- Donald Trump'ın yeniden başkan olması dünya ekonomisini
En Çok Okunan Haberler
- Op. Dr. Dericioğlu başında poşetle ölü bulundu
- Suriyeliler memleketine gidiyor
- 500 bin TL'nin aylık getirisi belli oldu
- Yaş sınırlaması Meclis’te
- Marmaray'da seferler durduruldu!
- Suriye'de herkesin konuştuğu ölüm listesi
- İlber Ortaylı canlı yayını terk etti!
- Apple'dan 'şifre' talebine yanıt!
- Erdoğan'dan işgale 'isimsiz' tepki
- Suriye'nin yeni başbakanından ilk açıklama