• Ziraat Bankası Reklam
GÜNDEM
Yayınlanma : 12 Ocak 2026 12:16
Düzenleme : 12 Ocak 2026 12:16

Algoritmaların tarafsızlık yanılgısı: Dijital kararlar eşitsizliği derinleştiriyor

Algoritmaların tarafsızlık yanılgısı: Dijital kararlar eşitsizliği derinleştiriyor
Algoritmaların tarafsız olduğu algısı yanıltıcı. Geçmiş eşitsizlikleri öğrenip yeniden üreten bu sistemler, eğitimden ceza adaletine kadar birçok alanda ayrımcılığı derinleştiriyor.

Dijitalleşme, eğitimden istihdama kadar birçok alanda karar alma süreçlerini köklü biçimde dönüştürüyor. Üniversite kabullerinden işe alıma, kredi değerlendirmelerinden suç riski analizlerine kadar pek çok alanda algoritmalar, 'hızlı, verimli ve nesnel' çözümler olarak öne çıkarılıyor. Ancak bu teknolojik dönüşüm, algoritmaların gerçekten adil olup olmadığı ya da mevcut eşitsizlikleri teknik bir dille yeniden üretip üretmediği tartışmalarını da beraberinde getiriyor.

morgan yeni köy

ALGORİTMALAR TARAFSIZ DEĞİL, ÖN YARGI TEKNİKLEŞİYOR

İngiltere'deki Leeds Üniversitesi'nde algoritmik ayrımcılık üzerine doktora yapan Sümeyye Kara, algoritmaların insan karar vericilere kıyasla daha nesnel gördüldüğünü belirtiyor. Kara, 'İnsanların duygusal, ön yargılara sahip olduğu, algoritmaların ise duyguları olmadığı için daha adil kararlar vereceği varsayılıyor ancak bu algı gerçeği yansıtmıyor' diyor. Algoritmaların insanlardan bağımsız olmadığını, tam tersine insanların geçmişte verdiği kararlardan eğitildiğini vurgulayan Kara, 'Sınıfsal, ırksal ya da cinsiyet temelli eşitsizlikleri veriler üzerinden öğrenip bunları objektif bir çıktı gibi sunabiliyorlar. Ön yargı ortadan kalkmıyor, yalnızca teknik bir forma bürünüyor' ifadelerini kullanıyor.

AMAZON VE CEZA ADALETİNDE ÇARPICI ÖRNEKLER

Algoritmik ayrımcılığın somut örneklerle açıkça görülebildiğini belirten Kara, bu durumu iki örnekle açıklıyor. Amazon'un bir dönem kullandığı işe alım algoritmasının, geçmişte şirkette istihdam edilen çalışanların öz geçmişlerini temel alarak yeni adayları değerlendirdiğini anlatıyor. Kısa süre sonra algoritmanın kadın adayları sistematik biçimde dezavantajlı hale getirdiği ortaya çıkıyor. Kara, 'Amazon'un geçmiş verilerine baktığınızda mühendislik kadrolarının büyük oranda beyaz erkeklerden oluştuğunu görüyorsunuz. Algoritma da bu profili ideal aday olarak öğreniyor ve yeniden üretiyor' diyor. İkinci örnek ise ABD'deki ceza adaleti sisteminde kullanılan COMPAS algoritması. Bu sistemin bireylerin yeniden suç işleme riskini tahmin etmek amacıyla kullanıldığını belirten Kara, araştırmaların algoritmanın siyahi sanıkları beyaz sanıklara kıyasla daha yüksek riskli olarak etiketlediğini ortaya koyduğunu dile getiriyor.

ALTUN REKLAM

EĞİTİM SİSTEMİNDEKİ ALGORİTMİK TUZAKLAR

Kara, doktora çalışmasının merkezinde algoritmaların teknik doğruluğundan ziyade, bu sistemlerin adalet ve hakkaniyetin farklı aktörler tarafından nasıl algılandığının yer aldığını belirtiyor. Çalışmasında özellikle üniversite kabul süreçlerine odaklandığını dile getiren Kara, İngiltere'deki üniversite kabul sistemine dikkat çekiyor. Sürecin büyük ölçüde öğretmenler tarafından verilen tahmini notlara dayandığını anlatan Kara, 'İngiltere'deki özel okullardaki öğrenciler, genellikle daha yüksek tahmini notlar alırken dezavantajlı bölgelerdeki devlet okullarında öğretmenler, daha temkinli davranıyor' diyor. Pandemi döneminde sınavların iptal edilmesiyle algoritmaların not tahmininde kullanılmasının süreci daha da tartışmalı hale getirdiğini belirten Kara, bireysel performans yerine okulun geçmiş başarı ortalamalarına dayanan bu uygulamanın, dezavantajlı öğrencileri ciddi biçimde mağdur ettiğini ve yoğun protestolar sonrası iptal edildiğini söylüyor.

AA
AA