Fotoğrafları çıplak gösteren yazılım kapandı: "Yeni nesil politik skandallara hazır olun"

Yapay zeka teknolojileri kullanarak herhangi birinin fotoğrafını çıplak hale getiren DeepNude uygulaması kapatıldı. “Dünya, henüz buna hazır değil” açıklaması yapan uygulamanın geliştiricileri, “Eğlence için yapmıştık ama bu şekilde para kazanmak istemiyoruz” dedi. Ancak Deepfake adı verilen bu yeni teknoloji, önümüzdeki dönemde çok kişinin başını yakacak gibi duruyor…

cumhuriyet.com.tr
01 Temmuz 2019 Pazartesi, 13:43

Herhangi birine ait olan fotoğrafları, yapay zeka teknolojileri kullanarak üzerindeki kıyafetler olmadan çıplak gösterdiğini iddia eden DeepNude uygulaması faaliyetlerine son verdi. Geçen hafta Vice’ta yayınlanan bir haberle gündeme gelen skandal uygulama, Twitter hesabı üzerinden yaptığı açıklamada, “Dünya, henüz DeepNude'e hazır değil" denildi.
İnsan beyninin bilgi işleme tekniğinden esinlenerek geliştirilen yapay sinir ağları teknolojisini kullanan DeepNude programı, uygulamaya yüklenen fotoğraftaki kişileri çıplak gösterdiğini ileri sürüyordu.

DEEPNUDE NEDİR?

Yazılımla ilgili olarak Vice’ta yayınlanan haberin ardından tüm dünyada geniş yankı uyandıran uygulama, hem kişisel mahremiyeti hiçe sayması hem de ahlaki olarak yoğun bir şekilde eleştirilmişti. Uygulamanın sadece kadın fotoğraflarında çalışması ise tartışmanın boyutunu daha da alevlendirmişti.

Kişisel mahremiyet savunucuları, “Bu yazılım tam anlamıyla korkunç. Artık herkes, çıplak fotoğrafları olmasa dahi intikam pornosunun bir kurbanı olabilir. Bu teknoloji halka açılmamalı" açıklamaları yapmıştı. DeepNude uygulamasının ücretsiz sürümünde çıplak fotoğraflardaki cinsel bölgeler, siyah bir bant ile kapatılırken; 50 dolarlık ücretli sürümünde ise tamamen çıplak fotoğraflar, 'Fake' (sahte) ibaresiyle gösteriliyordu.

‘BU ŞEKİLDE PARA KAZANMAK İSTEMİYORUZ!’

Ancak bu eleştirilere karşın, 50 dolarlık bir ücret karşılığında satışa sunulan uygulama, haberin yayınlanmasının hemen ardından yoğun bir ilgiyle karşılaşmış ve programın indirilme sitesi kilitlenmişti.

Habertürk'ten Necdet Çalışkan'ın haberine göre yaşanan bu gelişmelerin ardından fotoğraftaki kişileri çıplak gösteren DeepNude, geliştiricileri tarafından kapatıldı. Bu tartışmalı yazılımın geliştiricileri de DeepNude’u birkaç ay önce sadece eğlence için geliştirdiklerini ifade ederek, “Bu şekilde para kazanmak istemiyoruz. İnternette mutlaka DeepNude'un bazı kopyaları paylaşılacaktır, ancak onları satan taraf olmayacağız” açıklaması yaptı.

YENİ NESİL POLİTİK SKANDALLARA HAZIR OLUN!

Yapay zeka teknolojilerini gelişimi, sahte fotoğraf ve video oluşturmak isteyenler için de artık giderek artan oranda bir araç olmaya başladı. Bu tarz fotoğraf ve video uygulamalarında, genel olarak Deepfake teknolojileri kullanılıyor.

Bu yüzden DeepNude bu alanda yaşanan ne ilk ne de son skandal olacak gibi duruyor. Bu tarz uygulamaların sadece müstehcenlik alanında değil, politik skandallarda bile kritik rol oynaması muhtemel.

MARK ZUCKERBERG’İN DE BAŞINA GELDİ

Hatta geçen günlerde Facebook'un sahip olduğu resim ve video paylaşım platformu Instagram'da, Mark Zuckerberg'in sahte bir videosu ortaya çıkmıştı. Bu videoda Zuckerberg, milyonlarca kişinin bilgilerine sahip olduğunu söylüyor, bunun nasıl bir güç anlamına geldiğini düşünülmesini istiyordu.

Zuckerberg'in sahte videosuyla tartışılmaya başlanan deepfake videolarla ilgili olarak Instagram CEO'su Adam Mosseri ise şu an için bu konuda bir politikalarının olmadığını, öncelikle bu deepfake videolarını nasıl tanımlayacaklarına karar vermeleri gerektiğini ifade etmişti.