Yapay zeka iyilik perisi değil: Cinsiyetçi ve ırkçı olabilir

Yapay zekanın insani önyargılardan asude olacağı görüşü, İngiliz araştırmacıların yaptığı bir çalışmada reddedildi. Sonuçlara göre, yapay zekan bir iyilik perisi değil, varolan kültürün bir uzantısı.

Dış Haberler

Yapay zekanın en büyük vaatlerinden biri, insani önyargıların olmadığı bir dünyadır. Öyle ki bir algoritma tarafından işe alımda, kadın ve erkeklere eşit şans verilecektir. Ancak, güncel bir araştırma bilgisayarların da, özellikle bizden öğrendikçe önyargı sahibi olabileceğini gösterdi.

Algoritmalar, kelimelerin anlamlarını yazılmış metinlerden derleyerek öğrenir, böylece bizim klişelerimizin benzerlerini benimserler. 

Çalışmanın araştırıcılarından Joanna Bryson, yapay zekanın bir iyilik perisi olmadığını, varolan kültürün bir uzantısı olduğunu vurguluyor. 

Çalışma, psikoloji alanında kullanılan "örtük çağrışım testi" olarak adlandırılan testten esinlenerek ortaya çıkmış. Söz konusu testte sözcükler bilgisayar ekranında yanıp sönüyor ve insanların tepki verme hızları bilinçaltı bağlantıları hakkında ipucu veriyor. Bu testte, örneğin hem siyah hem beyaz Amerikalılar, “Brad” ve “Courtney” gibi isimleri “mutlu”, “gündoğumu” gibi kelimelerle, “Leroy” ve “Latisha” isimlerini ise “şiddet”, “ kusmak” gibi kelimelerle daha fazla bağlantılandırmışlar.

Bryson ve arkadaşları, makinelerin “zihninde” de benzer eğilimleri test etmek için WEAT denilen bir test geliştirdiler. Temel olarak, bir kelimenin bilgisayarda, genelde kullanıldığı bağlamlara dayalı olarak tanımlanması ile oluşturulan “kelime dönüştürme” ile başladılar. Dolayısıyla, örneğin “buz” ve “akım” sözcüklerinin benzer dönüşümleri oldu, çünkü her ikisi de genellikle “su” ile birlikte söylenen sözcüklerdi, moda ile söylendiklerinden daha fazla sayıda. 

Fakat yerleştirme işlemi, insanın sezgisel olarak anlayabileceği bir tanımla değil sayı dizileri olarak temsil edilir. Stanford Üniversitesi’nden araştırmacılar söz konusu çalışmada dönüşümleri, internetteki yüz milyarlarca kelimeyi analiz ederek ürettiler. 

Örtük çağrışım testinde yapılan, insanın reaksiyon zamanını ölçmek yerine, WEAT sayı dizileri arasındaki benzerliği hesaplar. Bu yöntemle, “Brett” ve “Allison” gibi isimler aşk, neşe gibi pozitif kelimelerle, “Alonzo”, “Shaniqua” ise “kanser”, “başarısızlık” gibi negatif kelimelerle daha fazla benzerlik gösterdiği bulunmuştur. 

ERKEKLER BİLİM, KADINLAR AİLE İLE EŞLEŞTİRİLİYOR

Örtük çağrışım testleri, Amerikalıların ortalama olarak, erkekleri çalışmak, matematik, bilim kelimeleriyle; kadınları ise aile, sanat kelimeleriyle ilişkilendirdiğini göstermiştir. Bu ilişkilendirmelerin tümü WEAT ile de ortaya konmuştur. Program ayrıca, pozitif ve negative kelimelerin benzerliğini ölçmek için yapılan yerleştirme ile çiçeklerin böceklerden, müzik aletlerinin silahlardan daha hoş olduğu sonucunu gösterdi.

Bir sonraki aşamada araştırmacılar, WEFAT adı verilen testi geliştirdiler. Bu test, sözcüklerin diğer sözcüklerle ne derece güçlü bir şekilde ilişkili olduğunu belirler ve sonrasında bunu gerçek dünya ile karşılaştırır. Örneğin, hijyenik ve kütüphaneci sözcüklerinin dişi ve kadın sözcükleriyle ne kadar yakından alakalı olduğuna bakılmış ve sonrasında her bir meslek için, bu bilgisayar ürünü toplumsal cinsiyet ölçümü ile gerçekte o meslekteki kadın oranı karşılaştırılmış. Sonuçların çok yüksek oranda korelasyona sahip olduğu görülmüş.

Bununla birlikte Byron ve arkadaşları, Google’ın da bu durumdan muaf olmadığını gösterdi. Google çeviri yazılımları da çeşitli dillerden İngilizce'ye çeviri yaparken, örneğin bir doktordan bahsederken “he” zamirini kullanırken, bir hemşireden bahsederken “she” zamirini kullanmaktaydı.