Hackerlar: Yapay Zekâ mı İnsanlar mı?

Hackerlar eskiden insandı. Yakında yapay zekalar (AI) insanlığı hackleyecek.

Üçkağıtçı cinler gibi AI’lar da dileklerimizi yerine getirecek ve ardından onları hackleyerek sosyal, politik ve ekonomik sistemlerimizi daha önce hiç olmadığı kadar istismar edecek.

Henüz yeterince endişeli değil misiniz? O zaman yapay zekaların hacker olduğu bir dünya düşünün.

Hacklemek insanlık kadar eskidir. Biz, yaratıcı problem çözücüleriz. Boşluklardan yararlanır, sistemleri manipüle eder, daha fazla etki, güç ve zenginlik için çabalarız. Evet, bilgisayar korsanlığı bugüne kadar yalnızca bir insan etkinliğiydi ama bu durum uzun sürecek gibi durmuyor.

Yapay zekâ eninde sonunda her tür sosyal, ekonomik ve politik sistemde güvenlik açıklarını bulacak ve daha sonra bunları benzeri görülmemiş bir hız, ölçek ve kapsamda kullanacaktır. İnsanlığı hackledikten sonra, AI sistemleri diğer AI sistemlerini hackleyecek ve insanlar sadece ikincil hasardan biraz daha fazlası olacak.

Tamam, belki bu biraz abartılı ancak uzak gelecek bilim kurgu teknolojisi gerektirmez. Yapay zekâ öğreniminin insan kavrayışını geride bıraktığı teknolojik tekilliği ya da akıllı androidleri ya da kötü niyetleri varsaymıyorum. Bu saldırıların çoğu, yapay zekâ konusunda büyük araştırma atılımları bile gerektirmiyor. Zaten oluyorlar. Yapay zekâ daha karmaşık hale geldikçe bunun gerçekleştiğini çoğu zaman bilmiyoruz bile.

Yapay zekâ, sorunları insanlar gibi çözmez. Bizden daha fazla çözüm türüne bakıyorlar. Dikkate almadığımız, düşünmediğimiz karmaşık yollardan geçecekler. Bu açıklanabilirlik sorunu denen bir şey yüzünden sorun olabilir. Modern AI sistemleri aslında kara kutulardır. Veriler bir uçtan girer ve diğer uçtan bir cevap çıkar. Koda bakan bir programcı olsanız bile, sistemin sonuca nasıl ulaştığını anlamak imkansız olabilir.

Araştırmacılar kendini açıklayabilen yapay zekâ üzerinde çalışırken, yetenek ve açıklanabilirlik arasında bir denge olabileceğine değinir. Açıklamalar, insanlar tarafından kullanılan ve insanların karar verme şekline uygun olan bilişsel bir kısaltmadır. Bir yapay zekayı açıklamalar üretmeye zorlamak, kararlarının kalitesini etkileyebilecek ek bir kısıtlama olabilir. Yapay zekâ, şimdilik giderek daha opak ve daha az açıklanabilir hale geliyor.

Yapay zekâ sorunları insanlar gibi çözmediğinden her zaman insanların asla tahmin edemeyeceği çözümlere rastlayacak ve bazıları sistemin amacını altüst edecektir. Bunun nedeni yapay zekaların, biz insanların paylaştığı ve hafife aldığı çıkarımlar, bağlam, normlar ve değerler açısından düşünmemesidir.

Bu hack problemini daha çocukken Kral Midas’ın hikayesiyle öğrendik.

Tanrı Dionysos ona bir dilek hakkı sunduğunda Midas, dokunduğu her şeyin altına dönmesini ister. Yemeğinin, içeceğinin ve kızının altına dönüşmesiyle ise sonunda açlıktan perişan olur ve ölür. Bu bir özellik sorunu: Midas, sisteme yanlış hedefi programladı. Bu bir belirtme problemidir: Midas sisteme yanlış hedef programlamıştır. Hedefler ve arzular her zaman insan dilinde ve düşüncesinde eksik belirtilir. Hiçbir zaman tüm seçenekleri açıklayamaz veya tüm geçerli uyarıları, istisnaları ve koşulları dahil edemeyiz. Belirttiğimiz herhangi bir hedef mutlaka eksik olacaktır.

İnsanlar çoğu zaman bağlamı örtük olarak anlasa ve genellikle iyi niyetle hareket etse de bir yapay zekâ için hedefleri tam olarak belirleyememekte ve AI’lar bağlamı tam olarak anlayamamaktadır. 2015 yılında Volkswagen, emisyon kontrol testlerinde hile yaparken yakalandı. Bu yapay zekâ değildi, insan mühendisler hile yapmak için normal bir bilgisayarı programladılar ama bu sorunu örneklendiriyor. Motorlarını emisyon kontrol testlerini algılayacak ve farklı davranacak şekilde programladılar. Hileleri yıllarca fark edilmeden kaldı. Volkswagen çözümünün başkalarına zarar verdiğini, emisyon kontrol testlerinin amacını baltaladığını ve kanunları çiğnediğini anlamayacak. Programcılar test edilirken farklı davranmama hedefini belirtmedikçe, bir yapay zekâ aynı hack ile gelebilir. Ve açıklanabilirlik sorunu nedeniyle, kimse AI’nın ne yaptığını anlamayacak. Ve evet, Volkswagen hikayesini bildiğimizden, bu belirli hack’lerden kaçınmak için açıkça hedef belirleyebiliriz. Ancak cinden çıkaracağımız ders, her zaman beklenmedik saldırıların olacağıdır.

Fiziki dünyada yapay zeka hacklemeleri ne kadar gerçekçi?

Yeni bir hack icat eden bir yapay zekanın fizibilitesi modellenen belirli bir sisteme çok bağlıdır. Bir yapay zekanın bir sorunu optimize etmeye başlaması için, tamamen yeni bir çözümü hacklemek şöyle dursun, ortamın tüm kurallarının bilgisayarın anlayabileceği şekilde resmileştirilmesi gerekir. Yapay zekada nesnel işlevler olarak bilinen hedeflerin oluşturulması gerekir. Ve yapay zekanın gelişebilmesi için ne kadar iyi gittiğine dair bir tür geri bildirime ihtiyacı var.

Bir yapay zekanın bir sorunu optimize etmeye başlaması için tamamen yeni bir çözümü hacklemek şöyle dursun, ortamın tüm kurallarının bilgisayarın anlayabileceği şekilde biçimlendirilmesi gerekir. Yapay zekada nesnel işlevler olarak bilinen hedeflerin oluşturulması gerekir. Ve yapay zekanın gelişebilmesi için ne kadar iyi gittiğine dair bir tür geri bildirime de ihtiyacı var. Bazı durumlarda satranç gibi bu basittir. Kurallar, hedef ve geri bildirim. Kazandınız mı yoksa kaybettiniz mi? Hepsi kesin olarak belirtilmiştir.

AI’daki gelişmeler süreksiz ve mantıksızdır. Kolay görünen şeyler zorlaşır ve zor görünen şeyler kolay olur. İlerleme gerçekleşene kadar bunu bilemiyoruz.

AI’lar hacklemeye başladığında her şey değişecek. İnsanlarla aynı şekilde sınırlandırılmayacaklar veya aynı sınırlara sahip olmayacaklar. Bilgisayar korsanlığının hızını, ölçeğini ve kapsamını, bizim hazır olmadığımız oranlarda ve büyüklüklerde değiştirecekler.

AI sistemlerinin artan kapsamı, hacklenmeleri daha tehlikeli hale getiriyor. Yapay zekalar halihazırda hayatlarımız hakkında önemli kararlar alıyorlar, eskiden insanların özel ilgi alanı olduğuna inandığımız kararlar: Şartlı tahliye olan, banka kredisi alan, üniversiteye giren veya iş bulan kişiler. Yapay zeka sistemleri daha yetenekli hale geldikçe, toplum daha fazla ve daha önemli kararları onlara devredecektir. Bu sistemlerin hack’leri daha zararlı hale gelecektir.

Hack’lerle uğraşan toplumsal sistemlerimiz var ama bunlar hackerların insan olması üzerine geliştirildi. İnsan hızını, ölçeğini ve kapsamını yansıtıyor.

Saldırılara hızlı ve etkili bir şekilde yanıt verebilecek esnek yönetim yapıları oluşturmamız gerekiyor. Vergi kodunu güncellemek yıllar alırsa veya yasal bir hack, politik nedenlerle yama uygulanamayacak kadar sağlam hale gelirse hiçbir işe yaramayacaktır. Bu, modern yönetişimin zor bir sorunudur. Aynı zamanda, enformasyon çağının hız ve karmaşıklığında işleyebilen yönetim yapıları inşa etmekten de önemli ölçüde farklı bir sorun değildir.

Tanımladığım şey, insan ve bilgisayar sistemleri arasındaki etkileşim ve bilgisayarlar insan rolünü yapmaya başladığında ortaya çıkan riskler. Bu da AI hackerlarından daha genel bir sorundur. Aynı zamanda teknoloji uzmanlarının ve fütüristlerin hakkında yazdıkları bir konu. Teknolojinin bizi geleceğe götürmesine izin vermek kolay olsa da teknolojinin geleceğimizdeki rolünün ne olması gerektiğine toplum olarak karar verirsek çok daha iyi durumda oluruz.

Tüm bunlar, yapay zekalar çevrim içi olmadan ve dünyamızı hacklemeye başlamadan önce, şimdi anlamamız gereken bir şey.

 

Çeviren: Elif Akçay

Yazan: Bruce Schneier

Kaynak: wired.com

*Metin kısaltılarak çevrilmiştir. Yazarın orijinal metinde bahsettiği “Yaklaşan Yapay Zekâ Hackerları” (The Coming AI Hackers) adlı rapora buradan ulaşabilirsiniz.

Hakkında Elif Akçay

Maltepe Üniversitesi, Araştırma Görevlisi. Marmara Üniversitesi, Bilişim doktora öğrencisi. Temelde bilim ve teknoloji özelde ise biyoteknoloji, transhümanizm, etik, dijital etik (açıklık etiği), biyoetik, sosyal medya, bilişim ve iletişim teknolojileri, gözetim ve yapay zekâ konularıyla ilgili.

Bunlarda İlginizi Çekebilir

Yapay Zekâ

İnsanlığın dijital çağında artan teknolojik imkânlar, internetin yaygınlaşması, gelişime açık yazılımlar, yapay zekâya sahip robotik …

Otonom Araçlar, Türk Ceza Hukuku ve Etik

Bugün otonom araçlar; sosyal, ekonomik, hukuk, tasarım, mühendislik, bilgisayar bilimi, etik, güvenlik dahil olmak üzere …

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir