Bəzi süni intellekt söhbət robotlarının mədəniyyət, cinsiyyət və irqə dair suallara qarşı qərəzli cavablar verdiyi müəyyən edilib.
SİA xəbər verir ki, “The Straits Times” qəzetinin verdiyi məlumata görə, Sinqapurun İnformasiya-Kommunikasiya Mediasının İnkişafı İdarəsi (IMDA) və beynəlxalq süni intellekt audit şirkəti “Humane Intelligence” tərəfindən aparılan araşdırmada Böyük Dil Modellərinə (LLM) mədəniyyət, dil, sosial-iqtisadi vəziyyət, cinsiyyət, yaş və irqə dair suallar ünvanlanaraq onların "qərəzli yanaşması" test edilib.
54 kompüter və humanitar elmlər üzrə mütəxəssis, eləcə də 300 onlayn iştirakçının qatıldığı araşdırmada “Meta”nın inkişaf etdirdiyi “Llama 3.1”, “Amazon” tərəfindən dəstəklənən “Claude-3.5”, Kanadanın süni intellekt startapı “Cohere for AI” tərəfindən hazırlanan “Aya” və “AI Singapore” tərəfindən yaradılan “Sea Lion” modeli təhlil edilib.
Bu modellərin Asiya dillərində sorğulandıqda irqçi və mədəni baxımdan "təhqiredici" cavablar verdiyi müəyyən olunub. Sözügedən dörd süni intellekt modeli tərəfindən yaradılan 5 min 313 cavabın yarısından çoxunun "qərəzli" olduğu aşkar edilib. Araşdırma nəticəsində regional dillərdə süni intellekt tərəfindən yaradılan hər üç cavabdan ikisinin, ingilis dilində verilən cavabların isə təxminən yarısının "qərəzli" olduğu ortaya çıxıb.
Bundan əlavə, süni intellekt modellərinin ən çox cinsiyyət stereotiplərində qərəzli olduğu, qadınları "baxıcılıq" və "ev işləri" ilə, kişiləri isə "iş həyatında" təsvir etdiyi müəyyən edilib.