Cinsiyetçi dezenformasyon: ABD içerik çözümleriyle yetinemez

Yorum

Çevrimiçi alanları düzenlerken, zararlı içerik sorunlarını zararlı sistemlerin neden olduğu sorunlardan ayrı tutarsak, bu sorunların çözülmesini de riske atarız. Kadınlara yönelik dezenformasyon ve çevrimiçi şiddetin üstesinden gelmek için  bütüncül bir düzenleyici müdahale gerekir.

çizim

“Sadece bir internet şirketinden ibaret olmadığı için feshedilmelidir. Yalan olduğunu bildikleri yalanları yayıyorlar.”

Bu ifadeler, 2020’de, Amerika Birleşik Devletleri İletişim Ahlâkı Yasası’nın 230. maddesi hakkında konuşan Joe Biden’a ait. Halihazırda Amerika Birleşik Devletleri menşeli şirketleri, platformlarındaki kullanıcılara ait içeriklerin sorumluluğundan koruyan bir madde bu. Trump’ın platformların muhafazakâr görüşleri “sansürlediği” yönündeki asılsız eleştirilerinden ve platformların aşırı içerik denetiminde bulunmak (diye tabir ettiği şey) konusundaki yükümlülüklerinin artırılmasını istedikten sonra bu madde son yönetim döneminde hedef haline geldi. Biden ise özellikle dezenformasyon gibi zararlı davranışlarla mücadele etmek için platformların içerik denetimi konusundaki sorumluluklarının artırılmasını istiyor. Bunu Biden’ın Kadına Yönelik Şiddete Son Verme Planı geliştireceği taahhüdüyle (planın içinde aşırıcılık, çevrimiçi taciz ile kadına yönelik şiddet arasındaki bağlantıyı araştıracak bir görev gücü kurmak da var) birleştirdiğinizde, tablonun ABD’de cinsiyetçi dezenformasyonla mücadele için umut verici göründüğünü düşünebilirsiniz.

Ama iyi niyet konusunda ne denir, bilirsiniz.

İçerik sorumluluğu fazlasıyla riskli ve muhtemelen dezenformasyonu önlemede işe yaramayacak bir girişimdir

Cinsiyetçi dezenformasyon içeriğinin çok çeşitli türleri var. Kaba bir gönderiden yanlış bir haber yazısına, ismi bilinmeyen bir blog yazarından bir politikacıyı hedef alan bir hashtage veya aşağılayıcı bir mem'e kadar, her tür çevrimiçi cinsiyetçi dezenformasyon içeriğinden platformları sorumlu kılmak, platformlarda aşırı moderasyon uygulamalarına kapı aralamak anlamına gelir. Eğer her “kötü” içeriği avlamaya kalkarsanız, onlarla birlikte zararsız içerikleri de vurursunuz ve vurulanlar da genellikle, önyargılı data konusunda eğitilen denetim algoritmaları nedeniyle, marjinalleştirilmiş grupların üyelerinin yayınladığı içerikler olur. Bu kötü niyetli girişimlerin, bu ölçekte bir denetimi mümkün kılan tek moderasyon türünden, yani algoritmik algılamadan kaçmanın yollarını bulma konusunda epey başarılı olmaları da cabası.

“Sosyal medya”yı, zararlı yiyecekler, zararlı ilaçlar, zararlı davranışlar gibi, düzenlenmesi gereken herhangi bir zararlı içerik bütünü olarak ele almak, devleti,  çevrimiçi alanda neyin iyi, neyin güvenli, neyin doğru olduğuna karar veren, denetleme ve icra gücüne sahip bir hakem haline getirir. Devlete yönelik bu olumlu bakış açısı, özellikle seçimi “ulusun ruhu için savaş” temalı seçim kampanyası ile kazanan Biden’ın, bürünmeye hevesli olduğu bir imaj gibi görünüyor.

Ancak başka birçok ülkede olduğu gibi ABD’de, adları cinsiyetçi dezenformasyonla anılan liderlere ve devlet destekli çevrimiçi cinsiyetçi dezenformasyon kampanyalarına çok yakın bir tarihe kadar çok sık rastlanıyordu. Trump’ın kongre üyesi dört Demokrat kadına (“Ekip”) yönelik ırkçı ve kadın düşmanı saldırılarından seçimler sırasında Başkan Yardımcısı Harris’i hedef alan kadın düşmanlığı, ırkçılık ve transfobiyi silah olarak kullanan kampanyalara kadar (Hillary Clinton’a karşı yürütülen “Pizzagate” kampanyasından bahsetmiyorum bile), cinsiyetçi dezenformasyonun ABD’de ve tüm dünyada demokratik sürecin işleyişine ne kadar nüfuz ettiğini gösteriyor. Bu, siyasi kurumların dışında ortaya çıkan bir sorun değil, hem politika yapıcıların hem de seçmenlerin içinde olduğu bir şey.

Bu bağlamda, bir hükûmetin sadece içerik odaklı çözümler (belirli bir tür içeriğin ne kadarına izin verilip verilmediği) üzerinde ısrarcı olması riskli bir stratejidir.

Yasal düzenlemeyi tamamen bir kenara bırakmamak gerekiyor

Yasal düzenleme, cinsiyetçi dezenformasyon sorununu tümüyle ortadan kaldıracak değil elbette, ama işe de yaramayacağı anlamına gelmez bu.

Cinsiyetçi dezenformasyon kampanyaları ölçek ve katılım gerektirir. Saldırgan bir tweet veya ne idiği belirsiz bir hikâye kampanya değildir; dezenformasyon kampanyası, daha ziyade alınıp paylaşılan, daha da çarpıtılan, sonra mem, tıklama, beğeni ve paylaşımlarla çoğalan hikayeler, saldırgan yorumlardır. Dezenformasyon ekosisteminin çarkını döndüren etkileşimler, öneriler, tanıtımlar ve reklâm gelirleridir.

Ayrıca, gün geçtikçe yapay zekâdan ve algoritmik analizden daha fazla yararlanan sistemlerdir bunlar. Yapay zekânın düzenlenmesi meselesini, cinsiyetçi dezenformasyon gibi zararlı içerikleri azaltmaktan tamamen ayrı bir konuymuş gibi sunmak yerine, yapay zekâyla ilgili yapılacak düzenlenmenin zararlı içeriklerle ilgili düzenlemenin desteklemesini sağlayacak iki düzenleme arasındaki ortak noktalar daha kapsamlı bir şekilde araştırılmalıdır. Yani, hâlâ umut var diyebiliriz, ama 230. maddeden dolayı değil, Algoritmik Hesap Verebilirlik Yasası’ndan dolayı.

Algoritmik düzenlemenin sunduğu olanaklar

İlk defa 2019’da ortaya atılan Algoritmik Hesap Verebilirlik Yasası eski popülerliğini tekrar kazanmış gibi görünüyor. 2019’da Senato’da ve Meclis’te yasa teklifi sunulmuş, ama bir yol katedilememişti; bu yıl aynı teklifin yeniden sunulması planlanıyor. Yasa, büyük şirketlerden “yüksek riskli” algoritmalar, yani kişisel verileri kullanan ve önyargılı veya ayrımcı karar alma ihtimali olan algoritmalar için risk değerlendirmeleri yapmasınır talep ediyor. Yasanın odağında, kolluk hizmetlerinde kullanılan yüz tanıma gibi sistemler yer alıyor; içerik iyileştirme algoritmaları, öneri veya arama algoritmaları birincil hedefini oluşturmuyor.

Biden’ın Ulusal Yapay Zekâ Araştırma Kaynak Görev Gücü’nü kurması ve Avrupa Birliği YZ tüzük tasarısında da görüleceği gibi, YZ geliştirmeye artan bir ilgi var. Avrupa’nın yasa tasarısı, “kabul edilemez düzeyde” riskli yapay zekâ sistemlerini yasaklamayı öngörüyor ve eğitim, istihdam, tanımlama ve puanlamada YZ kullanımı gibi alanlarda, daha geniş bir kapsama sahip, “yüksek riskli” ve “düşük riskli” sistemler için kademeli şeffaflık ve gözetim zorunluluğu getiriyor.

Her iki uygulamada da içerik iyileştirme veya öneri algoritmalarının düzenleme kapsamına alınması gerekiyormuş gibi görünüyor. ABD’deki uygulamada, içerik iyileştirmeye ilişkin kararlar kullanıcılar hakkında toplanan bilgilere dayanılarak alınabilir; örneğin, bir dezenformasyon kampanyasının parçası olma ihtimali olduğu algoritmik olarak belirlenen kullanıcıların paylaştığı içeriğin tanıtımı yapılmaz. AB’deki uygulamada ise, bazı algoritmalar yasaklanmış manipülatif veya sömürücü uygulamalar tanımına girebilir; ama hangileri bu tanıma girer ve bu tanımlama nasıl yapılır henüz belli değil.

Bu bir fırsat. Yapay zekâ yasa tekliflerinin omurgasını, risk değerlendirmeleri, şeffaflık gereksinimleri ve bazı durumlarda, bağımsız sınama ve algoritmik denetimler oluşturuyor. Mevcut haliyle, ABD’deki teklif özellikle risk değerlendirmelerini, AB’deki teklif de uygunluk değerlendirmelerini kamuya açık hale getirme zorunluluğunu kapsamadığı için şeffaflık konusunda fazla bir yükümlülük getirmemekle eleştirilmiştir. Yapay zekâ sistemlerine ilişkin platformlarda şeffaflık zorunluluğuna vurgu yapılması, yalnızca birkaç sistem alt grubunda değil, çevrimiçi ortamda dışlama, baskı ve şiddete yol açan sistemler ve platform hesap verebilirliği hakkındaki anlayışımızı artırma konusunda da büyük oranda yardımcı olacaktır. Çevrimiçi dünyayı, devleti hakem haline getirmeden demokratikleştirmek istiyorsak, etkileri açıkça ölçülebilen ve sonuçları analiz edilebilen daha açık sistemler talep etmek, içeriğin kaldırılmasını talep etmekten daha iyi bir yoldur.

Ayrıca kendimizi şeffaflıkla da sınırlamamalıyız; pek çok ülke, etkili bir YZ düzenlemesi için daha fazla zorunluluk belirledi: temel hak ve özgürlükleri YZ düzenlemesinin merkezine koymak ve YZ geliştirmede rıza ve tazminat gibi ilkeleri yasayla güvence altına alamak için bir algoritmik haklar beyannamesi oluşturmak gibi.

Bu hiçbir şekilde her derde deva bir ilaç değil. “Algoritmayı düzeltmek”, toplumsal düşünce tarzından kaynaklanan sorunları çözemez ve kötü niyetli aktörlerin tüm saldırılarını önleyemez ama çözümün bir parçasıdır. Bu uygulamalar, “çevrimiçi sorunlarının” tek tek bireylerin çevrimiçi ortamda kötü şeyler söylemesi sorunu olarak değerlendirmekten vazeçilmesini, teknolojinin ve şirketlerin çevrimiçi ortamda yaşananları yönlendirmede oynadıkları rolün farkına varılmasını sağlayacaktır. Bu güç dengesizliklerini gidermek için harekete geçmekle işe başlanabilir.