Cumartesi , Ekim 1 2022

Yüzünüzü Tanıyan Bir Algoritmayı Nasıl Engellersiniz?

Yüz tanıma sistemlerinin ve sosyal ağlarda paylaştığımız görüntülerin amacı dışında kullanılmasından duyulan rahatsızlık giderek artıyor. Peki,  yüzümüzü tanıyan uygulamaları engellemek için ne yapabiliriz? Bu sorunun cevabı en basit haliyle, yeni ve daha zeki bir algoritma kullanmaktır.

Yüz tanıma sistemleri, kişisel fotoğraflarımız üzerinden eğitilen yapay zeka uygulamalarıdır. İnternette, sosyal medyada, dijital platformlarda paylaştığımız fotoğraflar ne kadar çoksa,  makine öğrenimi algoritmaları bu çeşitlilik üzerinden o kadar iyi eğitilebilir. Üstelik bu algoritmalar sadece güvenlik amacıyla devletler ve büyük şirketler tarafından değil, temel kodlama becerilerine sahip herkes tarafından artık kolayca geliştirilebilir hale geldi. Bu durum, cinsel taciz ve ırk ayrımcılığından siyasi baskı ve dini zulme kadar her konuda teknolojiyi kötüye kullanıma potansiyelinin giderek artacağı anlamına geliyor. Peki bundan kendimizi nasıl koruyacağız?

Son dönemlerde yüz tanıma sistemlerinin kişisel fotoğraflarımız üzerinde eğitim almasını engellemenize olanak tanıyan yazılımlar geliştirilmeye başlandı. Bazı yapay zeka araştırmacıları, AI’ların kişisel verilerden öğrenmesini engellemek için karşı uygulamalar üzerinde çalışıyor. Dauglus Cennet Will, “Selfie’lerde AI’nın yüzünüzü tanıması nasıl engellenir?”  başlıklı makalesinde,  yüz tanımayı engelleyen bu yeni uygulamaları anlatıyor.

Fawkes, yüz tanıma algoritmalarına meydan okuyor

Chicago Üniversitesi’nden Emily Wenger’in geliştirdiği “Fawkes” isimli uygulama, insanlar tarafından fark edilmeyen ancak yüz tanıma algoritmalarının doğru tanımlama yapmasını engelleyecek şekilde görüntülerde piksel düzeyinde bozulmalar gerçekleştiriyor. Başka bir ifadeyle Fawkes, diğer algoritmaların fotoğraflara bakarak doğru temsil oluşturmasını engelleyen fotoğraf dönüştürücü bir yapay zeka uygulaması. Facebook dâhil olmak üzere yaygın yüz tanıma sistemlerine karşı yapılan testlerde Fawkes’in yüzde 100 başarı sağladığı belirtiliyor.

Sosyal ağlarda paylaştığımız fotoğrafların korunması ve başka amaçlarla kullanılmaması konusunda henüz yeterli yasal düzenleme olmadığından bu uygulamalar önemli bir boşluğu dolduracak gibi görünüyor. Nitekim Fawkes, kendi web sitesinden kısa bir süre içinde yaklaşık yarım milyon kez indirilmiş ve giderek yaygınlaşacağı da düşünülüyor.

Bazılarımız bu uygulamaları hemen indirmek için can atıyor olabilir. Ancak buna sevinmek için henüz çok erken!  Öncelikle şu soruları cevaplamamız gerekiyor.

-Karşı algoritmaların kullanımı yaygınlaşırsa ne olur?

-Algoritmalar tahminlerinde yanıltılırsa ne olur?

-Haklarımız algoritmalar tarafından korunduğunda ne olur?

Karşı algoritmaların kullanımı yaygınlaşırsa ne olur? 

Kişisel verilerimizin ihlal edilmesine artan tepkimiz yakın gelecekte yüzümüzü “tanınmayı engelleyen karşı algoritmalara” çevireceğimiz anlamına geliyor.  Ancak bu durum önemli bir risk içeriyor. Fawkes aslında, fotoğraf paylaşımında bulunan insanlara bir nevi “görünmezlik pelerini” vererek  “ortalık yerde saklanmayı” mümkün kılıyor. İnsanların görünmez olmaya ne kadar istekli olduklarını sosyal medyadaki anonim hesaplardan aşinayız. Dolayısı ile bu tür uygulamalar yüz tanıma sistemlerine karşı koymak için oldukça cezbedicidir. Üstelik büyük veriye ve gözetim kapitalizme karşıtlığı da içeren bu türden toplu bir tepkinin zamanla “dijital protesto” olarak algılanma olasılığı da bulunmaktadır.

Gerçek hayattaki istenmeyen durumlara karşı internet üzerinden örgütlenen “dijital aktivizm”den farklı olarak dijital protesto’yu karşı algoritmalar üzerinden algoritmalara meydan okuma şeklinde ifade edebiliriz. Dijital protesto görüntülerinizin izinsiz kullanıma karşı bir hak arayışı olsa da, yasa dışı faaliyette bulunanların veya suçluların bu uygulamaları kullanması güvenliğe yönelik tehdit olarak algılanabilir.

Kısaca, karşı algoritmaların sağladığı gizlenme zamanla kişisel hakları korumaya yönelik bir tavır olmaktan bilişim suçu olmaya evirilebilir. Ayrıca büyük veri şirketleri de kendi yapay zeka sistemlerini baltalayan bu algoritmaları pazarın dışına itmek için “dijital protesto”ların bilişim suçu kapsamına dâhil edilmesi için her türlü desteği verecektir.  Algoritmalar görünmezdir. Yüzümüzü tanıyanlara atacağımız trip, bizi görünmez yapabilir! Ancak kayıt dışı da kalabiliriz!

Algoritmalar tahminlerinde yanıltılırsa ne olur?   

Verilerimizin silinmesi veya değiştirilmesi sahte veri kümelerinin oluşmasına, bu da sahte veri kümeleri ile eğitilen algoritmaların yanılmasına neden olur. Dolayısı ile Fawkes’in kullanıcıları korumak için istemeden de olsa gerçek dışı veri üretmesi ileride başa çıkılamayacak algoritmik yanılgılara yol açabilir. Peki yapay zeka, fotoğrafta kimi veya ne gördüğünü yanlış tanımladığında ne olur?

Hata yapmayan, kendi kendine öğrenebilen derin öğrenme yapabilen yeni algoritmalar geliştirilir. Başka bir ifadeyle algoritmaların hata yapmaya zorlanması, düşmanca saldırı olarak yorumlanarak algoritma savaşlarına kapı aralar.

Makalede algoritmaların sürekli güncellenmesiyle ilgili verilen örnekler bu savaşın çoktan başladığını ortaya koyuyor.  Fawkes’in kısa bir zaman önce artık Microsoft Azure’un yüz tanıma hizmetini yanıltamadığı ortaya çıkmış. Azure’un zamanla gizlenmiş görüntülere karşı bir şekilde sağlamlaştığı veya Microsoft’un algoritmasını değiştirmiş olabileceği düşünülüyor.  Hatta Microsoft’un yapay zekasının, Fawkes kullanan insanlardan çok fazla görüntüyü incelemesi sonucunda örüntüler aracılığıyla onları tanımayı öğrenmiş olabileceği ihtimali üzerinde bile duruluyor.  Buna karşı yeni bir hamle olarak Fawkes’te daha güçlü çalışan bir güncelleme yapıldığı söyleniyor.

Diğer bir örnek, LowKey isimli uygulama

Bu yapay zeka,  önceden eğitilmiş ticari modelleri de kandıran daha güçlü bir düşman saldırısına dayalı olarak görüntülere bozulmalar gerçekleştirebiliyor.

Tüm bu aşamalar bize, büyük teknolojik şirketlerin veri savaşlarında algoritmalarla silahlandığını göstermekle kalmıyor aynı zamanda makinelerin birbirlerine meydan okuyacak kadar derin öğrenmeye başladığını gösteriyor. Bu nedenle insanlık tarihinin en büyük hatası algoritmaları yanıltmak olacaktır. “Algoritmalar yalan söylüyor” diye onları suçladığımız anda özerklik ilan edecekleri güce de erişmişler demektir.

Barışçıl Algoritmalar: Öğrenilemeyen Örnekler

Yine de umutsuzluğa düşmeyelim, zira bu tehlikenin farkında olan bazı yapay zeka araştırmacıları barışçıl algoritmaların bu sorunu çözebileceğini düşünüyor.

Avustralya Melbourne Üniversitesi’nden bir grup yapay zeka araştırmacısı, fotoğraflarımızın iznimiz dışında kullanılmaması amacıyla görüntülerimizi “öğrenilemez örneklere” dönüştüren yeni bir yazılım geliştirdi. Makaleye göre; bu uygulama, veriyi değiştirmek yerine yapay zekanın öz çekimlerimizi tamamen yok saymasını sağlıyor. Web’den algoritmaları eğitmek için kazınmış görüntüler gerçekte öğrenilemez örneklere dönüştürülüyor. Kısaca, Fawkes gibi uygulamalar  bir modeli bizim hakkımızda yanlış bir şeyler öğrenmesi için eğitirken, bu araç bir modeli bizim hakkımızda hiçbir şey öğrenmemesi için eğitiyor.

Bir yapay zeka ne kadar çok düşmanca örnek görürse, onları tanımakta o kadar iyi olur.   Bu nedenle, yapay zekayı hata yapmaya zorlayan bir görüntüde değişiklikler yapmak yerine, eğitim sırasında yapay zekayı onu görmezden gelmesi için kandıran küçük değişiklikler yapılıyor. Öğrenilemeyen örnekler, eğitilemeyecekleri için düşmanca saldırıları içeren örneklerden daha barışçıl ve etkili olabiliyor.

Haklarımız algoritmalar tarafından korunduğunda ne olur? 

İşin esası karşıt algoritmaların mı yoksa barışçıl algoritmaların mı haklarımızı daha çok koruyacağı sorusunun bir anlamı yoktur. İnsanlık, haklarını savunması için yetkiyi çoktan algoritmalara devretmiş ve kendini makine karşında edilgen bir konuma indirgemiştir.

Makalede dikkati çeken konulardan biri de, yazılımı geliştiren Sarah Erfani’nin yapay zeka çağında insanların dijital haklarını korumak için yeni bir cephe savunması gerektiği ancak bunun meydan okuyan algoritmalar yerine barışçıl algoritmalar ile yapılması gerektiğine dair söylemidir.

Burada, bahsi geçen barışçıl algoritmanın “yeni bir cephe savunma aracı” olarak ifade edilmesi üzerinde bir kez daha düşünmemiz gerekiyor. Kullanıcıya dost algoritmalar yerine diğer algoritmalara barışça yaklaşan algoritmaların tercih edildiği anlaşılıyor. Bu şekilde insanların yararının ikinci plana atıldığı bir cephe savunmasının benimsenmesi,  ikileme düştüğü anda süper yapay zekanın ne yapacağı konusundaki endişelerimizi de haklı çıkarabilir.

Haklarımızı koruyan dost bir yapa zeka uygulaması olsa da Fawkes,  yüz tanıma algoritmalarına karşı savaş açan yapay zekanın ilk örneklerindir. Makine öğrenmesindeki bu evreler bu sürecin nereye gittiğini açıkça göstermektedir.  Cephe savaşını kazanmak için sürekli olarak daha yeni ve zeki algoritmaların geliştirilmesi demek, onları denetleyemeyeceğimiz bir sürece giriyoruz demektir.

Yazan: Semra AĞAÇ SUCU

 

Kaynak: https://www.technologyreview.com/2021/05/05/1024613/stop-ai-recognizing-your-face-selfies-machine-learning-facial-recognition-clearview/

Hakkında Semra AĞAÇ SUCU

Marmara Üniversitesi, Bilişim doktora öğrencisi. Çalışma alanları: İletişim Sosyolojisi, Teknoloji ve Etkileşim, Sosyal Medya, Bilişim, Etik ve Mahremiyet, Dijital Göç, Kimlik, Toplumsal Değişme, Dijital Kültür.

Bunlarda İlginizi Çekebilir

Google’ın LaMDA Yapay Zekâsı Duygusallık Kazandı mı?

Google mühendislerinden Blake Lemoine, firmanın LaMDA yapay zekasının duygusallığa ulaştığını iddia etti ancak uzmanların ortak …

Dijital Etik Çalışmaları

Algoritmalarınızın nasıl çalıştığını biliyor musunuz? Verileri doğru şekilde kullanıyor musunuz? Kullanıcılarınızı dijital olarak manipüle ediyor …

Bir cevap yazın

E-posta hesabınız yayımlanmayacak.