Singapur'da gerçekleştirilen bir araştırma, bazı yapay zeka sohbet robotlarının kültür, cinsiyet ve ırk ile ilgili sorulara ön yargılı yanıtlar verdiğini ortaya koydu.
The Straits Times gazetesinin haberine göre, Singapur Bilgi İletişim Medya Geliştirme İdaresi (IMDA) ile uluslararası yapay zeka denetim firması Humane Intelligence tarafından yürütülen çalışmada, Büyük Dil Modelleri (LLM) çeşitli sosyal konulara dair sorularla test edildi.
Çalışma, 54 bilgisayar ve beşeri bilimler uzmanı ile 300 çevrim içi katılımcının yer aldığı bir grup ile gerçekleştirildi. Araştırmada, Meta'nın geliştirdiği Llama 3.1, Amazon destekli Claude-3.5, Kanada merkezli Cohere for AI girişiminin Aya modeli ve AI Singapore'nin Sea Lion modeli incelendi.
Bu yapay zeka modellerinin, İngilizce haricinde 8 Asya dilinde yanıt verdiğinde, ırksal ve kültürel olarak saldırgan tepkiler gösterdiği tespit edildi. İncelenen 5 bin 313 yanıttan yarısından fazlasının taraflı olduğu belirlendi.
Araştırma ayrıca, bölgesel dillerde yapay zeka tarafından üretilen her üç yanıttan ikisinin ve İngilizce yanıtların yaklaşık yarısının ön yargılı olduğunu ortaya koydu. Yapay zeka modellerinin, özellikle cinsiyet kalıplarında ön yargılı olduğu, kadınların bakıcılık ve ev işleri yaparken, erkeklerin ise iş hayatında tasvir edildiği kaydedildi.