Algoritmik Adaletsizlik: Ya düzelt ya son ver

Yorum

Bilgisayarların genellikle nötr bir teknoloji olduğu düşünülür. Ancak makine öğrenmesinin, ırk ve toplumsal cinsiyet konusunda modası geçmiş toplumsal normlar, değerler ve davranışlardan oluşan bir veri havuzunda gerçekleştiği korkutucu bir biçimde anlaşıldı. Bu durum sinsice ilerleyen zararlara yol açabilir.

digital network and woman

Irksal ve toplumsal cinsiyet eşitliği konularında düşe kalka ilerleyen dünyanın önünde bambaşka şaşırtıcı bir engel var: otomatik karar almakla görevlendirilen bilgisayar sistemleri. Bu, belki de tarihimizdeki en sinsi eşitsizlik biçimi. Genellikle, bilgisayarların hayatımızda pek çok önemli alanda, insani önyargıları ortadan kaldıracak nötr bir teknoloji olduğu düşünülür. Maalesef, giderek artan kanıtlar, otomatik karar algoritmalarının küresel olarak toplumlar genelinde, toplumsal cinsiyet ve ırk ayrımcılığını yaydığını, yoksul ve kırılgan gruplar aleyhine adaletsizliklere yol açtığını ortaya koyuyor.

Sorunun nedenlerinden biri, beyaz erkeklerin hakim olduğu bir teknoloji dünyasında var olan programcıların bilinçsizlikten kaynaklı önyargıları ve hatta düşüncesizliğidir. Ancak algoritmik adaletsizliğin en yaygın nedeni, derin öğrenme algoritmalarının kullanılmasından kaynaklanmaktadır ki alınan kararlar, çok büyük miktarda veri içinde bulunan örüntülere dayanır. Irk ve toplumsal cinsiyete ilişkin toplumsal değerler, normlar ve davranışlar yavaş yavaş iyiye doğru değişse de, bu eskilerin ayak izleri, makine öğrenmesi algoritmaları için gerekli olan eğitim verilerinin çoğunun elde edildiği internette kalmaya devam eder. Örneğin, çalışmalar, ‘erkek’ patron, başkan, lider ve müdür ile ilişkilendirilirken ‘kadın’ın yardımcı, asistan, çalışan ve hizmet eden ile ilişkilendirildiğini göstermiştir. Yani, büyük veri içinde kilitli kalmış yoksulluk, toplumsal cinsiyet, ırk ve etnisiteye dair sahip olduğumuz tarihsel değerler, toplumun daha fazla adalet ve hakkaniyet ihtiyacı önünde engel oluşturuyor.

Makine öğrenmesi azınlıkları toplumdan dışlayabilir

Makine öğrenmesi sistemini mühendislik bağlamında kullanmanın faydalarından biri, bunun eğitim verisi içindeki uç değerlerin etkisini azaltması ya da ortadan kaldırmasıdır. Bir karar algoritması bağlamında ise bu ‘uç değer’, azınlık demek olabilir, etnik gruplar ya da veri içinde düşük bir temsile sahip diğer gruplar gibi. Bu, derin öğrenme bakımından çok bilindik bir sorundur; Google, bir sistemi ayakkabı çizimleri geliştirmesi için eğitmek amacıyla çok basit bir veri örneği sunar. Verilerin çoğu düz ayakkabı ve spor ayakkabı çizimlerinden oluşmaktayken çok az sayıdaki veri topuklu ayakkabı çizimi içeriyordu. Bu bir azınlık bakış açısı olduğu için tamamlanmış algoritma yüksek topukları ‘ayakkabı olmayan’ olarak yanlış sınıflandırmıştı. Bu, yanlış sınıflandırmanın açıkça görülebildiği basit bir örnektir ancak ırksal ya da toplumsal cinsiyetle ilgili önyargıların algılanması daha bir titizlik gerektirir ve gösterilmesi çok daha zordur. 

Bu bağlamda, kararları belirlemek için verilerdeki hangi özelliklerin kullanıldığını bulmak son derece zor ve çoğu zaman imkansızdır. Öğrenme sürecinin ürünü, kararları oluşturmak için kullanılan büyük bir sayı matrisidir. Hiç kimse, henüz, belirli bir kararın neden alındığını tespit etmek için matrisleri derinlemesine inceleyecek genel bir yöntem bulamadı. Burası, önyargıların barındığı karanlık bir boşluktur.

Karar algoritmaları, zamanla daha gelişebilir ama bazı büyük teknoloji şirketlerinin yoğun çabalarına rağmen bir sihirli kurşun çözümü[1] yoktur. Özellikle güvenlik alanında yazılım geliştiren şirketlerin çoğu, kendi kurum içi testlerinde başarılı olduklarında ısrarlı. Önyargıları bir araya toplayıp kanıtlamak diğer örgütlenmelere düşüyor ama sistemler işlemeye devam ediyor. Bir teknolojiye büyük bir yatırım yapıldıktan sonra kusurlarına rağmen kullanılmaya devam edilmesi herkesin bildiği eski bir hikâye.

Teknoloji, özellikle yapay zekâ, en önce başarma hırsıyla aceleci davranıp hata yapar. Konuyla ilgili uzun zamandır süren çalışmalarım ve pek çok araştırma tasarısını inceleyerek edindiğim deneyim gösteriyor ki, hırs çoğunlukla kazanıyor. Aslında, hırs genellikle başarıya ulaşmada olumlu bir adımdır. Elde edilen başarı, hırs düzeyinin altında kalsa bile pek çok örnekte yine de faydalı olabilir. Ama iş, insanların yaşamlarını etkileyecek kararlar almak için algoritmaların kullanılmasına gelince, spekülatif teknolojiyle ilgili bizi yanlış yollara sürükleyebilecek hırslı iddialar konusunda son derece dikkatli olmak zorundayız.

Sivil dünyada ortaya çıkan ayrımcı algoritmik önyargı türlerini basitçe görmezden gelemeyiz ve silah geliştirme ve kullanma söz konusu olduğunda bu önyargıları hemen ortadan kaldırabilecekmişiz gibi davranamayız. Bunlar, yapay zekânın toplumda kullanımının artmasından beri gün ışığına çıkan sorunların sadece birkaçı. İleride bizleri ne tür sorunların beklediğini ve hedefleme teknolojilerinde daha ne tür muhtemel önyargıların ortaya çıkacağını bilmiyoruz.

Bu hikâyeden alınacak ders basittir. Bilgisayar algoritmalarına alacakları kararların dış kaynaklarını sağlarken ihtiyatlı bir yaklaşım geliştirmek zorundayız. Gelecekte yapılacak olası düzeltmelere güvenmemeli, bunun yerine teknolojinin bugün neler yapabileceğine bakmalıyız. Tüm dünyada adaletsizliklerin hızla çoğalmasına izin veremeyiz. Hızlı bir biçimde, şirketlerin eşitlik yasalarıyla uyumlu olduklarını kanıtlamakla yükümlü oldukları, tıpkı uyuşturucu testleri gibi, geniş çaplı algoritmik test rejimleri geliştirmeliyiz.

Karar algoritmalarının teyit edilebilir olduğu gösterilinceye kadar, ve gösterilmediği sürece, insan yaşamlarını önemli ölçüde etkileyen kararların insanlar tarafından alınmasını sağlamak için yasal olarak bağlayıcı yeni insan hakları araçları geliştirmemiz gerekir.

Kritik eşik, güvenlik

Bütün bunları birlikte değerlendirdiğimizde, kendimize, yaşamlarımızın ve davranış biçimlerimizin bütünüyle otomatikleşmiş kararların egemen olduğu ve bu otomatik kararlar tarafından denetlendiği bir dünyada yaşamak isteyip istemediğimizi sormalıyız. Bütün yaşamsal verilerimiz, Google, Microsoft ve Amazon (Alexa) gibi teknoloji devleri tarafından sürekli izleniyor. Ancak devletler, bütün bu veriyi ele geçirmek için yasal düzenlemeler yaptığında ne olacak?

Çin’in tüm nüfusunu izlemek üzere bir teknoloji geliştirdiği zaten görülebiliyor. Artık insanların akıllı telefon satın almak için resmi kimlikleriyle kaydolmaları ve resmî makamların otomatik yüz tanıma sisteminde kullanmak üzere fotoğraflarını çekmelerine izin vermeleri gerekiyor. Sincan’daki bütün Uygur Müslümanları baskı altına almak için deneyler yaptılar ve bu deneyleri sır gibi sakladılar bile. Ayrıca, Black Mirror dizisinin bir bölümünden fırlamış gibi, toplumsal bir kredi sistemi geliştirdi. Eğer toplumsal olarak kabul görmeyen bir şey yaparsanız araba kiralayamazsınız, hızlı trene binemezsiniz ya da kredi kullanamazsınız. Varmak istediğimiz yer burası mı?

Çin, nüfusun izni ya da rızası gereksinmeyen otoriter bir diktatörlük ve nüfus da devletin aldığı kararları sorgulama ya da bu kararlara itiraz etme araçlarından yoksun. Ancak bunun üzerine bir an düşünün. Bir dizi batı ülkesinde polis ve güvenlik güçleri öngörücü polislik gerekçesiyle otomatik yüz tanıma sistemi ve önyargılı algoritmalar kullanmaya başlıyor. Bazı kamu kurumları sosyal güvenlik ödemeleri için adil olmayan algoritmalar kullanıyor ve otomatik pasaport başvuruları için ırkçı algoritmalarımız var. Ancak bu, teknoloji şirketlerinin üzerimizde uyguladığı verileri ve yaşamlarımızı kayıt altına alma işinde buzdağının sadece görünen kısmı.

Bir devletin bizleri baskı altında tutmak, barışçıl gösterileri ve grevleri önlemek ve tek tip toplumsal davranış biçimleri yaratacak yeni suçlar ihdas etmek için izlenen tüm verilerimize ulaşabilsin diye yasalarını değiştirmesini sağlamak ve sonucu değiştirmek için ne gerekir?

Bu, bir terör saldırısı gibi hepimizi uçlara savuran bir acil durum olabilir. İnsanlar o zaman güvenlik ve emniyet algıları karşılığında sivil özgürlüklerinin bir şeridinin de daha ortadan kaldırılmasını kabul edebilir.

En büyük endişelerimden biri, bu makaleyi yazdığım sırada zaten bu algoritmaların ellerinde, adaletsizlikten musdarip insanlar olması ve bunun sadece başlangıç olmasıdır. Acilen ihtiyatlı bir yaklaşım geliştirmemiz gerekiyor. İlaç endüstrisinin tabi olduğu gibi büyük ölçekli testlerle adaletli oldukları kanıtlanıncaya kadar karar algoritmalarının kullanılmasını durdurmak için uluslararası düzeyde güçlü düzenlemelere ihtiyacımız var.

Bir diğer mesele, eğer açıkça görülebilen ve bütün boyutlarıyla ele alınabilen, bilgi edinme özgürlüğüne sahip bir yerde bütün bunlar yaşanıyorsa, çatışma bölgelerinde, mülteci krizlerinde ve sınır kontrollerinde acaba ne tür adaletsizlikler yaşanıyordur? Teknolojinin savaş ya da kıtlık mağdurlarının insan haklarını ihlal etmemesini güvence altına almak için araçlar geliştirmek durumundayız. Ayrıca şiddet teknolojilerinde önyargılı algoritmalar kullanılmasını engelleyerek uluslararası insancıl hukukun uygulanmasını sağlamamız da gerekiyor.

 

[1] Kitle iletişim araçlarının iletiyi almaya hazır olan insanları doğrudan etkilediğini ve yönlendirdiğini savunan bir kitle iletişim kuramı.