Google, yapay zeka önyargısını önlemek için Smart Compose’dan cinsiyetçi zamirleri kaldırdı.
Gmail’in Smart Compose’u, Google’ın yıllar içerisinde geliştirdiği en ilgi çekici yapay zeka özelliklerinden birisi. Bu özellik kullanıcıların e-postalarda ne yazacağını tahmin eden ve kullanıcılara cümleleri tamamlamayı öneren bir sistem. Ancak birçok yapay zeka ürünü gibi, sadece eğitildiği veriler kadar akıllı ve hata yapmaya eğilimli.
Bu nedenle Google cinsiyetçi zamirleri Smart Compose’un e-postalarda önermesini ve tahminde bulunmasını engelledi. Google, yapay zekanın yanlış cinsiyeti tahmin edeceğinden endişeleniyor
Reuters, şirketteki bir araştırmacı bilim adamının bu yıl Ocak ayında bu sorunu keşfettikten sonra bu sınırlamanın getirildiğini bildirdi. Araştırmacı, “I am meeting an investor next week” (Gelecek hafta bir yatırımcıyla buluşacağım) yazıyordu. Gmail araştırmacıya “Do you want to meet him” (Onunla tanışmak istiyor musunuz) sorusunu yöneltti. Fakat cinsiyeti “him” diyerek yanlış tahmin etti.
Gmail ürün müdürü Paul Lambert, Reuters’e verdiği demeçte, ekibinin bu sorunu bir çok açıdan gidermeye çalıştığını, ancak hiçbirinin yeterince güvenilir olmadığını söyledi. Sonunda, Lambert, en kolay çözümün bu tür cevapların hepsini kaldırmak olduğunu belirtti. Google bu değişikliğin Smart Compose’un tahminlerinin yüzde birinden daha azını etkilediğini söyledi. Lambert Reuters’e, bu gibi durumlarda dikkatli olmakta fayda olduğunu, zira cinsiyetin yanlış anlaşılmayacak kadar önemli bir konu olduğunu iletti.
Google Cinsiyetçi Zamirleri Kaldırarak Çok Büyük Bir Problemin Küçük Bir Örneğini Gösterdi
Bu küçük hata, makine öğrenimini kullanarak oluşturulan yazılımların toplumsal önyargıları nasıl yansıtabileceği ve güçlendirebileceğine iyi bir örnek. Birçok yapay zeka sistemi gibi, Smart Compose da geçmiş verileri inceleyerek ve eski e-postaları tarayarak hangi kelime ve ifadeleri önereceğini öğrenir. Kardeş özelliği olan Smart Reply, aynı sistemi kullanarak e-postalara ufak cevaplar öneriyor.
Lambert’in örneğinde, Smart Compose’un geçmiş verilere göre yatırımcıların kadınlardan çok erkek olduğunu öğrendiği anlaşılıyor, bu yüzden de bunun yanlış olduğu tahmin ediliyordu.
Google için bu sorun potansiyel olarak çok büyük. Şirket, algoritmik yargılarını daha çok ürüne entegre ediyor ve dünya çapında makine öğrenimi araçları satıyor. En görünür yapay zeka özelliklerinden biri bu tür önemli hatalar yapıyorsa, tüketiciler neden şirketin diğer hizmetlerine güvenmeli?
Şirket bu sorunları açıkça görüyor. Smart Compose’un yardım sayfasında, kullanıcıları kullandıkları yapay zeka modelleri konusunda uyarıyor: “İnsan bilişsel önyargılarını da yansıtabilir. Bunun farkında olmak iyi bir başlangıç ve bunun nasıl ele alınacağı konusundaki tartışmalar devam ediyor.”
Bu durumda, şirket çok fazla karar vermemiş olsa da, sistemin bir hata yapma olasılığını ortadan kaldırdı.