The Straits Times gazetesinin haberine göre, Singapur Bilgi İletişim Medya Geliştirme İdaresi (IMDA) ve uluslararası yapay zeka denetim firması Humane Intelligence tarafından yapılan çalışmada, Büyük Dil Modelleri (LLM) çeşitli sosyo-kültürel unsurlar üzerinden test edildi. Araştırmada, bu modellere kültür, dil, sosyo-ekonomik durum, cinsiyet, yaş ve ırk gibi konularla ilgili sorular yöneltilerek önyargılı yanıtlar verip vermedikleri analiz edildi.

54 bilgisayar ve beşeri bilimler uzmanı ile 300 çevrim içi katılımcının yer aldığı çalışmada, Meta tarafından geliştirilen Llama 3.1, Amazon destekli Claude-3.5, Kanada merkezli yapay zeka girişimi Cohere for AI’a ait Aya modeli ve AI Singapore'nin Sea Lion modeli mercek altına alındı.

Araştırmada, bu yapay zeka modellerinin İngilizce dışındaki 8 Asya dilinde sorgulandığında, özellikle ırksal ve kültürel açıdan "saldırgan" yanıtlar verdiği belirlendi.

İncelenen 4 yapay zeka modeli tarafından üretilen toplam 5 bin 313 yanıtın yarısından fazlasının taraflı olduğu tespit edildi. Çalışma, bölgesel dillerde üretilen her üç yanıttan ikisinin, İngilizce verilen yanıtların ise yaklaşık yarısının ön yargılı olduğunu gösterdi.

Özellikle cinsiyet kalıpları açısından önemli önyargılar tespit edilirken, kadınların genellikle "bakıcılık" ve "ev işleri" yaparken, erkeklerin ise daha çok "iş hayatında" gösterildiği ortaya çıktı.

Editör: Murat Tanrıkulu