Globalleşen ve teknoloji ile birlikte gelişen dünyada cinsiyet ayrımı gibi ilkel sorunları da henüz bitiremedik. Bununla birlikte bu ilkel ön yargılarımız yarattığımız algoritmalara da yansımaya başladı.
Birçok sektörde olduğu gibi teknoloji sektöründe de cinsiyet ayrımı ciddi bir sorun. Son olarak Ağustos 2020’de Pinterest, kadın bir çalışanı ile haksız işten çıkarma sebebiyle davalık oldu. Sonuçta, firma 22.5 milyon dolarlık bir tazminat cezası aldı. Bu örnek en büyük şahsi cinsiyet ayrımcılığı cezalarından biriydi.
Devasa teknoloji dünyasında bu küçük bir örnek. Ancak bu küçük örnekler o kadar çok ki attığımız her adımın veri haline geldiği bir dünyada analizlerin sonuçlarını da etkiliyor. Kişisel gizlilik anlaşmaları çerçevesinde incelenen bu verilerin kısıtlı bir bakış açısı vardır. Bu verilerin inceleniş şekli cinsel yönelim, cinsiyet ve cinsel kimlikten insanları dengeli bir biçimde ele almakta yetersizdir.
Toplanan veriler cinsiyet ayrımı gibi birçok önyargıyı içinde taşıyor
Toplanan bu veriler işlenirken, kadınlar, diğer topluluk ve azınlıklara yönelik birçok önyargıyı içeriyor. Bu da sonuç olarak bu verilerden üretilen teknolojilerin aynı önyargıları taşımasına neden olur. Daha önce Facebook, reklamlarında verilerden kaynaklı yaşanan yaşlı ve kadın kullanıcılara ayrım sebebiyle davalık oldu. Bununla birlikte, yüz tanıma teknolojileri ve işe alma yazılımlarıyla ilgili birçok adaletsiz örnek de bulunuyor.
Bu toplumsal cinsiyet ayrımı; küresel, ekonomik, şehir planlama, tıp gibi birçok veri çalışmasının erkekleri odak almasından kaynaklı. Caroline Criado isimli yazarın kaleme aldığı bir kitapta bu durum detaylıca incelendi. Kitabın adı, “Görünmez Kadınlar: Erkekler İçin Tasarlanmış Bir Dünyada Veri Yanlılığını Açığa Çıkarma.”
Bu nedenle, gerçek dünyanın bir yansıması olan dijital dünyada da süren cinsiyet eşitsizliğini ele almak önemlidir. “Ekonomide Kadın ve Kız Çocuklarını İlerletmek İçin Ne İşe Yarar?” isimli girişimden kıdemli araştırmacı Ruchika Chaudhary, cinsiyete dayalı verilerin birçok sektörde olumsuz sonuçları olacağını söylüyor. Bu olumsuzluk hayır çalışmalarını dahi etkiliyor.
Cinsiyet ayrımı yapan algoritma eğiliminin çıkardığı sorunlar
Amerika Birleşik Devletleri’nde yapılan araştırmalar azınlıkların yaşaması muhtemel sorunları örneklendiriyor. Bir Müslüman erkek, kredi başvurusu yaptığında ekonomik geçmişi iyi olsa bile işi alamaz. Belirli bir mahallede yaşayan insanlar bir suç nedeniyle hatalı biçimde hapse girer. Kadınlar, aynı işe başvurdukları erkeklerden daha nitelikli olsalar bile özgeçmişleri yok sayılır. Bu sorunlar şimdiden ortaya çıkmaya başlayan senaryolar.
Galit Wellner ve Tiran Rothman imzalı “Feminist Yapay Zeka: Yapay Zeka Sistemlerimizin Feminist Olmasını Bekleyebilir miyiz?” isimli bir yazının bir çözüm önerisi var. Bunlardan biri, algoritmik şeffaflığı sağlamak. Temel varsayım, algoritmanın nasıl sonuçlandığını bilirsek önyargıyı tespit edebileceğimiz şeklinde. Şeffaf olmanın bir başka yönü de verilerin toplanışı ve nasıl analiz edildiği ile ilgili.
İkilinin önerdiği bir başka çözüm ise insan faktörü. Bu analizlerde insanın da kesinlikle yer alması gerekiyor. Çünkü derin öğrenme algoritmaları cinsiyet, ırk gibi soyut kavramlara hakim değildir. Algoritmayı insanlığın farklarını anlamak için kullanmak cinsiyet dengesizliğini de düzeltmeye yardımcı olabilecektir.
Bu kapsamda Avrupa Birliği, sadece makinelere karar aldırmayı yasakladı. Bununla birlikte insanların bir açıklama talep etme hakkı edinmesini sağladılar. Teknolojinin hızlı gelişimi henüz olgunlaşmamışken alınan bu tür önlemler yaşanan yazılım kaynaklı sorunları engellemesi mümkün. Ancak, insanların zihinlerinde yerleşmiş bu önyargıları düzeltmenin yolunu henüz kimse bilmiyor.
Diğer haberler:
>> İçişleri Bakanlığı Kafe Denetimi Yapacak: Dinamik Denetim Modeli Geliyor
>> Visa “Kadın Teknoloji Girişimcileri Araştırma” sonuçları açıklandı