Deepfake’lerin Yarattığı, Teknolojinin Çözemeyeceği 3 Tehdit

Diyelim ki elimizde Deepfake Anlamakinatör isimli bir makine var ve rastgele bir deepfake görüntüsünü, ne kadar düzgün olursa olsun deepfake olarak işaretleyebiliyor. Ayrıyeten bu aygıtın işaretlemediği her görüntünün da gerçek olduğu biliniyor. Yani kesin ve kusursuz bir halde görüntüler ayrılabiliyor. 

Peki bu icat bize deepfakeler ile gayrette kâfi olacak mıdır? Altı ay içerisinde çok gerçekçi deepfake görüntülerin ortaya çıkabileceği söyleniyor. Yani 2020 yılındaki ABD başkanlık seçimleri, geçersiz görüntülerin savaş alanına dönüşebilir. Teknoloji uzmanları bu mevzuya natürel ki “ateşe ateşle karşılık verelim” biçiminde (ya da teknolojiye teknolojiyle) yanaşıyorlar. Facebook ve Microsoft, ABD Hükümeti’nin dayanağıyla ‘medya olay yeri inceleme’ geliştirmeye çalışıyor. Google’ın araştırmalar için devasa bir data tabanı var. 

Deepfake yeni bir teknik olsa da, oluşturduğu geçersiz bilgi yayma ve birilerine ziyan verme tehdidi her vakit bulunuyordu. Kusursuz bir makine her şeyi yakalasa da işin bu boyutunu yakalayamıyor. 

Sorun #1- Deepfake detektörleri içerikleri değerlendiremez

Ülkemizin bir noktada deepfake’e en yakın içeriklerini yapan, geçtiğimiz yıllarda kaybettiğimiz tiyatro sanatkarı Levent Kırca olmuştur. O periyotta plastik makyajla pek çok ismi canlandıran tiyatrocunun manzaralarının düzmece olduğunu hepimiz biliyorduk. Bugün emsal bir manzara deepfake ile oluşturulduğunda yapılacak olan detektör, bunun berbat gayeli mı olduğunu, yoksa mizah hedefli ya da kurgusal bir şey mi olduğunu anlamayacaktır. Profesör Kate Klonick, fazla otomasyonun yanlışlı kararlar yahut sansüre sebep olacağını belirtirken kurgu, mizah ve palavra haber ortasındaki farkın felsefik olduğunu söylüyor. 

Bu durumun tahlili olarak moderasyonun güzelleştirilmesi, bazen de yanlışsız olanı yapmak için bir şeyleri kaybetmenin göze alınması gerekiyor. Daha eğitimli ve daha yetenekli moderatörlerin yetiştirilmesi gereklidir. 

Sorun #2- Deepfake detektörleri, en çok muhtaçlığı olanları korumayabilir

Yeni bir teknoloji birinci çıktığı vakit, berbat niyetli kullanımları birinci olarak toplumsal açıdan zayıf durumda görülen şahısları gaye alır. Photoshop teknolojisi doksanlı yıllarda birinci kez hayatımıza girdiğinde, çeşitli bayanların yüzleri yetişkin sinemalarındaki bayanların vücutları üzerine yerleştirilerek karalama kampanyaları yapılmıştı. Sonuç? Kimse bu bahiste bir şey yapmadı, ta ki tehdit herkese yönelene kadar. Miami Üniversitesi’nden Mary Anne Franks, “Rızası olmayan bayanların cinsel sömürüsü problemine gereğince dikkat etseydik, o vakit bu mevzuyla başa çıkmakta toplumsal, türel ve kültürel manada şu an daha düzgün noktada olurduk” diyor. 

Bu hususta ne yapılabilir? Birinci olarak bu stil içerikler yapabilecek olsak dahi yapmamak işin birinci adımı. İkincisi de bu mevzuda yardımcı olabilecek bir teknoloji geliştirebiliyorsak bunu herkesin kullanımına açmak. 

Sorun #3- Deepfake tespit edilene kadar kurban için çok geç olabilir

Öncelikle, bir sefer bir haber yayıldıktan sonra o haberin yanlış olduğu bilgisi birebir süratte yayılmıyor. En kolay örnek, ülkemizde yapılan çabucak her palavra haberi herkes duyarken kimse haberlerin doğruluğunu denetim eden tertiplere bakmıyor. Ülkemizde bu gayeyle kurulmuş pek çok site ve sivil toplum kuruluşu var. 

Ayrıca, bir kişinin manzaralarını isteği dışında kullanmanın pek de önemli yaptırımları bulunmuyor. Bu hususta da yasal düzenlemeler yapılması gerektiği düşünülüyor. 

Bu meseleye karşı bir tahlil olarak, dijital sahtecilik kabahatinin da tanımlanması gerekiyor. 

Başa dön tuşu