İnsanlar artık gerçek şeylerin gerçek olduğuna inanmayı terk ediyorlar. Nasıl mı? İşte yanıtı. Kanıtları sorgulamak değerlidir fakat dezenformasyon aktörlerinin asıl istediği, daha fazla sorgulamanız değil, her şeyi sorgulamanızdır.
2018’in sonlarında, Gabon halkı aylardır başkanları Ali Bongo’yu halk arasında görmemişti. Bazıları onun hasta olduğundan hatta öldüğünden şüphelenmeye bile başlamıştı. Hükümet dedikoduları örtbas ediyordu. Spekülasyonlara son vermek için Bongo’nun felç geçirdiğini fakat sağlığının iyi olduğunu açıklamıştı. Kısa bir süre sonra, onun alışılageldik yeni yıl video mesajlarından birini yayınladılar.
Ancak video gerilimleri yatıştırmak yerine tam tersini yaptı. Dijital Haklar Örgütü ve birçok kişi hemen görüntülerde yer alan Bongo’nun Deepfake olduğudan şüphelendi. Deepfake, yapay zekâ yardımıyla değiştirilmiş veya üretilmiş gerçek kişi videolarıdır.
Bu inanç, hükümetin bir şeyler sakladığına dair şüpheleri körükledi. Bir hafta sonra ordu videoyu motivasyonun bir parçası olarak göstererek başarısız bir darbe başlattı. Daha sonraki adli bilişim analizleri, videoda değiştirilmiş veya manipüle edilmiş hiçbir şeyin olmadığını kanıtladı. Bu önemli değildi. Deepfake fikri, zaten tehlikeli bir durumun çözünmesini hızlandırmak için yeterliydi.
2020 ABD başkanlık seçimleri öncesinde giderek daha fazla inandırıcı olan deepfake teknolojisi, bu tür sahte medyanın siyasi görüşü nasıl etkileyebileceği konusunda korkulara yol açtı. Ancak bu aldatmacayı tespit etmeye odaklanan bir siber güvenlik şirketi olan Deeptrace Labs’ın son raporu, deepfake’lerin gerçekten dezenformasyon kampanyalarında kullanıldığı bilinen hiçbir örnek bulamadı. Deepfakelerin daha güçlü bir etkiye sahip olduğu şey, bu şekilde kullanılabilecekleri bilgisiydi.
“Deepfakes, sahte medyanın gerçek gibi görünmesi açısından siyaset için bir risk oluşturuyor ancak şu anda daha somut tehdit, deepfake fikrinin gerçeği sahte gibi göstermek için nasıl kullanılabileceğidir.” diyor raporun yazarlardan biri olan Henry Ajder ve ekliyor:
“Deepfake’lerin siyasi etkisi üzerine spekülasyon yapan aldatıcı ve sansasyonel haberler, deepfake’lerin etkili olduğu gerçek vakaları gölgede bıraktı.”
Belgeler artık kanıt değil
İnsan hakları aktivistleri ve dezenformasyon uzmanları, deepfakes sahneye çıktığından beri ayrı ama iç içe geçmiş tehditler konusunda uyarıda bulundular. Son iki yılda, ABD’li teknoloji şirketleri ve politikacılar neredeyse yalnızca Ajder’in bahsettiği ilk soruna odaklandı: teknolojinin sahte şeyleri gerçek gibi gösterme kolaylığı.
Ancak uzmanları daha çok rahatsız eden ikincisidir. Engeller yaratmak deepfake oluşturmayı hızla düşürebilecekken bir şeyin doğruluğunu sorgulamak hiçbir teknoloji gerektirmez. Kâr amacı gütmeyen Thoughtful Technology Project’i (Düşünceli Teknoloji Projesi) yürüten dezenformasyon uzmanı Aviv Ovadya, “En başından beri bu alandaki en büyük endişem buydu!” diyor.
Medyaya olan güveni sarsmak, özellikle kırılgan siyasi ortamlarda derin yankı uyandırabilir. İnsanların insan hakları ihlallerini belgelemelerine yardımcı olan, kâr amacı gütmeyen bir kuruluş olan Witness’ın program direktörü Sam Gregory bir örnek veriyor. Geçmişte polis şiddeti yaşayan Brezilya’da vatandaşlar ve aktivistler, bir memur bir sivili öldürürken çektikleri herhangi bir videonun artık soruşturma için yeterli olmayacağından endişe ediyor. Gregory, gerçek kanıtların makul bir şekilde sahte olarak reddedilebileceğine dair bu korkunun, dünya çapında ev sahipliği yaptığı atölye çalışmalarında tekrar eden bir tema haline geldiğini söylüyor:
“Bir şeyin ‘deepfake’ olduğu iddiasının gelişmesi… Güçlülere başka bir silah veriyor: Gücü tükenmiş insanların yolsuzluğu ve insan hakları ihlallerini göstermek için kullanmaya çalıştıkları her şey hakkında ‘Bu sahte’ demek.”
Gerçeğin gerçek ve sahtenin sahte olduğunu kanıtlamak
Bu sorunları çözmek, her iki tehdit türünü de anlamayı gerektirecektir. Ovadya, “Gerçek bir şeyin gerçek olduğunu ve sahte bir şeyin sahte olduğunu göstermeyi mümkün olduğunca kolaylaştırmak istiyorsunuz!” diyor.
Son aylarda Facebook, Google gibi teknoloji şirketleri ve pek çok araştırma grubu, eğitim algılama algoritmaları için veri tabanları ve üzerlerinde oynanıp oynanmadığını belirlemek için dijital fotoğraflara yerleştirilebilen filigranlar gibi sahte bilgileri açığa çıkarmaya yönelik araçlara odaklandı.
Çeşitli girişimler, içeriğin sürümleri daha sonra dağıtılırsa karşılaştırma için bir temel oluşturmak üzere, çekildiklerinde fotoğrafları ve videoları doğrulayan tüketici uygulamaları aracılığıyla güven oluşturmanın yolları üzerinde çalışıyor. Gregory, teknoloji devlerinin bu iki tür kontrolü de yaygın olarak kullanabilmek için doğrudan platformlarıyla bütünleştirmesi gerektiğini söylüyor.
Teknoloji şirketlerinin insan içerik editörleri de çalıştırması gerekiyor ve medya kuruluşlarının gazetecileri ve teyitçileri hem tespit hem de doğrulama konusunda eğitmesi gerekiyor. Olay yerinden raporlama, bir videonun gerçeği yansıtıp yansıtmadığını doğrulayabilir ve önemli bir nüans katmanı ekleyebilir. Deepfakes hakkında yakın zamanda bir rapor yayınlayan bilgi araştırmaları uzmanı Britt Paris:
“Teknik modeller, sahte videonun içeriğini kültürel bağlamlarda yorumlayamaz veya nasıl daha fazla yeniden bağlamlandırılabileceğini hayal edemez.”
Ovadya: “Dezenformasyon aktörlerinin gerçekten istediği şey, daha fazla sorgulamanız değil, her şeyi sorgulamanızdır.”
Örnek olarak Paris, Nancy Pelosi ve Jim Acosta’nın geçen yıl viral hale gelen değiştirilmiş videolarına işaret ediyor. Her ikisi de deepfake değil, sözde “cheapfake” idi – izleyicileri yanlış yönlendirmek için hızları basitçe değiştirilmişti. Paris, “Deepfake’leri belirlemek için kullanılan teknik yöntemlerle bu değiştirilmiş videoları yakalamanın bir yolu olmazdı” diyor. Bunun yerine, gazeteciler onları çürütmek zorunda kaldı. -bu da insanların gazetecilere güvenmeleri gerektiği anlamına geliyordu.
Son olarak, tüm uzmanlar, halkın daha fazla medya okuryazarlığına ihtiyacı olduğu konusunda hemfikirdir. Ovadya, “Gerçek bir şeyin gerçek olduğunu kanıtlamakla, kamuoyunun gerçek şeyin gerçek olduğuna gerçekten inanmasını sağlamak arasında fark vardır” diyor. İnsanların içeriği tahrif etmenin ve içeriğin doğruluğundan şüphe duymanın, kasıtlı olarak kafa karışıklığı ekmek için kullanılabilecek taktikler olduğunun farkında olması gerektiğini söylüyor.
Gregory, haber tüketicilerine çok büyük bir sorumluluk yüklememe konusunda uyarıyor. Ancak araştırmacılar, platformlar ve gazeteciler, haberler halka ulaşmadan önce neyin gerçek neyin sahte olduğunu netleştirmek için mümkün olduğunca çok çalışma yapmalıdır.
Ovadya, nihai hedefin genel şüphecilik aşılamak değil, deepfake’i etkisizleştirmek için “sosyal, eğitimsel, aşılayıcı altyapı” inşa etmek olduğunu söylüyor. “Nelerden kaçınmaya çalışmalıyız?” diye soruyor ve ekliyor:
“Kanıtları sorgulamak değerlidir fakat dezenformasyon aktörlerinin asıl istediği, daha fazla sorgulamanız değil, her şeyi sorgulamanızdır. Bu ise aradığımız şeyin antitezi”.
Çeviren
Şevval Cengiz
Kaynak
- https://www.technologyreview.com/2019/10/10/132667