Sophos Akademi

  1. Anasayfa
  2. »
  3. Bilişim ve Teknoloji
  4. »
  5. Kamu Çıkarı Açısından Yapay Zeka: Tekel Tehdidiyle Yüzleşmek

Kamu Çıkarı Açısından Yapay Zeka: Tekel Tehdidiyle Yüzleşmek

Geçtiğimiz hafta yayınlanan bir rapor; sadece bir avuç Büyük Teknoloji şirketinin mevcut tekel gücünden yararlanarak ve agresif bir şekilde diğer aktörleri kendi bünyesine katacağını, yapay zekanın geleceğini kontrol edeceklerini ve dijital çağın en kötü sorunlarının çoğunu büyütme riskine nasıl açık olduklarını gösteriyor.

Rapor; Açık Piyasalar Enstitüsü ile Gazetecilik ve Özgürlük Merkezi, Açık Piyasalarda, 15 Kasım 2023’te Kamu Çıkarı Açısından Yapay Zeka: Tekel Tehdidiyle Yüzleşmekbaşlıklı ile yayınlandı.

Big Tech halihazırda yapay zekanın geleceğini kontrol edecek ve dijital çağın mevcut sorunlarını daha da kötüleştirecek konumda. Yapay zekaya titizlikle uygulanan rekabet politikası, yapay zekanın yalnızca büyük şirketlere değil, halka da fayda sağlamasını sağlayacaktır.

Bu sorunlar arasında yanlış bilginin yayılması ve siyasi tartışmanın çarpıtılması, haberlerin ve gazeteciliğin azalması, yaratıcı çalışma için ödenen ücretlerin zayıflatılması, çalışanların ve tüketicilerin sömürülmesi, küçük işletmelerin ve meydan okuyanların tekelci suiistimali, artan gözetleme reklamları ve çevrimiçi bağımlılık, aşırı konsantrasyon nedeniyle dayanıklılık ve güvenliğe yönelik tehditler yer alıyor.

Bu raporla şimdiye kadar büyük ölçüde ayrı tutulan iki tartışmayı bir araya getirmeye çalışıyoruz: Üretken yapay zekanın vaatleri ve tehlikeleri ile dijital çağda tekel gücünün zararları. Raporumuz, bu sorunları düzeltmek ve yapay zekanın kamu yararına çalışmasını sağlamak ve demokrasiyi parçalamak yerine güçlendirmeye yardımcı olmak için mevcut antitröst, rekabet ve diğer yasaların nasıl kullanılabileceğini inceliyor.

Rapor; düzenleyicileri, sınırlı kaynaklar göz önüne alındığında bireysel özgürlüklere ve demokratik kurumlara yönelik tehditlere odaklanarak düzenleyici eylem için net bir hedef hiyerarşisi oluşturmaya çağırıyor. Mümkün olan yerlerde öncelikle mevcut yasalardan yararlanılmasını ve yalnızca kesinlikle gerekli olduğunda yeni mevzuata ve düzenleyici kurumlara yatırım yapılmasını tavsiye ediyor.

Rapor, yapay zekadaki tekelci gücün üstesinden gelmek için bir dizi acil eylem öneriyor:

  • Bireylere ve işletmelere temel hizmetlerin sağlanmasında güçlü bekçi platformları tarafından her türlü ayrımcılığın yasaklanması;

  • Bulut bilişimi temel bir altyapı olarak kabul ederek, mülkiyeti ve kontrolü en büyük kapı denetleyici platformlarından ayırarak ve onu bir kamu hizmeti olarak düzenleyerek;

  • Büyük platformlar tarafından temel hizmet kapasiteleri dahilinde toplanan her türlü verinin doğası gereği kamuya açık olduğunu kabul ederek ve erişimi yönetmek için bir kamu yararı rejimi oluşturarak;

  • Yazarların, yaratıcıların ve diğer bağımsız yayıncıların mülklerini, bekçi şirketlerinin kötüye kullanılmasından ve kötüye kullanılmasından korumak için telif hakkı yasalarını agresif bir şekilde uygulamak;

  • Birleşmeler, yatırımlar ve ortaklıklar yoluyla yapay zeka gelişimini kontrol etmeye ve gelecekte benzer anlaşmaları engellemeye yönelik bekçi çabalarını tersine çevirmek.

“Yapay zekanın yol açtığı gerçek ve acil zararlar, Google, Microsoft ve Amazon gibi şirketlerin mevcut tekel gücünün yanı sıra iyi geliştirilmiş tartışmalar ve halihazırda var olan birçok tartışmayı ön plana çıkarmadan tam olarak anlaşılamaz veya ele alınamaz. Raporda, onların güç ve davranışlarına yönelik araçlar ve öneriler yer alıyor.  

Son yıllarda, Avrupa’da tekelcilik karşıtı yasa yapımında ve Amerika Birleşik Devletleri’nde antitröst yasalarının uygulanmasında yaşanan devrim sayesinde hükümetler, kolektif olarak güvenilir iletişim kurma, acil sorunları çözme ve çözüm üretme yeteneğimizi baltalayan güç ve teşviklerdeki ciddi dengesizlikleri düzeltmeye başladı. bir toplum olarak adil bir şekilde gelişmek. Ancak bu iş henüz bitmiş değil ve yapay zekanın ortaya çıkışı işin tamamlanmasını çok daha acil hale getiriyor.

Kaynak: www.openmarketsinstitute.org II 15 Kasım 2023

İlgili Yazılar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir