Cinsiyetçi yapay zeka tespit edildi. Amazon‘un iş mülakatları için kullandığı yapay zeka programının cinsiyet ayrımı yaptığı tespit edildi.
2014 yılında başlayan geliştirme süreci sonrasında yapay zeka uygulaması iş için yapılacak alımlarda kullanmaya çalışıldı. Proje Edinburgh Amazon mühendislerinin iş alımı için otomatik bir uygulama yapma isteği ile doğdu.
Sonrasında sistem içerisinde elli bin anahtar kelime ve geçmiş başvurular taranarak kaydedildi. Ayrıca çalışacak aday tespiti için de web adreslerini tarayan sistem bu konuda 500 bilgisayar modellemesi yapılarak geliştirildi. Bilgi alınan kaynaklara göre projenin amacı sisteme yüklenen özgeçmişlerden en uygun ve en iyi olanları ayıklamaktı.
Cinsiyetçi Yapay Zeka Nasıl Tespit Edildi?
Çalışmanın başladığı zamanlar içerisinde zaman zaman sistem kontrolü yapan mühendisler yapay zekanın kadınları negatif olarak ayrıştırdığını fark etti.
Kadınlardan hoşlanmayan yapay zekanın iş alımında erkeklere ayrıcalık sağlamış olduğu anlaşıldığında bunun bir sistem problemi olduğu da anlaşıldı. İncelemeler sonucunda yapay zeka sisteminin kadın adayların puanlarını düşük tuttuğu ve kız okulu mezunlarını da elediği anlaşıldı.
Bu problemin anlaşılması ile başka ayrımcı politikalar oluşmaması için mühendisler sisteme müdahale ederek incelemeler ve değişiklik yolları aramaya başladı. Ayrıca sistemin iş için yeterli olmayan adaylar da tavsiye ettiği belirlendi.
Bu tür hatalar yapay zeka sistemlerinde ilk defa olmamakta. Daha önce suç işleme ihtimali üzerine hazırlanan bir yazılımda siyahi kişilerin negatif olarak ayrıştığı da tespit edilmişti.
Bu tür hataların daha çok insana özgü olmasına rağmen makinalarda da bunların gözükmesi mühendisleri şaşırtmakta. Bu probleme benzer şartlı tahliye, kredi gibi uygulamalarda da aynı problem görülüyor.
Amazon şirketi bu sistemi danışman olarak da kullandığını açıklamıştı. Bu nedenle de kararları asıl olarak kendilerinin verdiklerini iletmişlerdi. Bunun yanında da çalışan seçiminde de çeşitliliğe önem verdiklerini belirtiyorlar.