Ən ağıllı süni intellekt insanlara yalan danışmağa başlayıb…

Neyron şəbəkələr nəyisə bilmədiklərini qəbul etmirlər..?

Tədqiqatçılar ən ağıllı süni intellekt chatbotlarında gözə çarpan bir qüsur aşkar ediblər. Onlar tapşırığın onların imkanlarından kənarda olduğunu etiraf etməkdənsə, səhv cavab yaratmağı üstün tuturlar.

Süni intellekt modelləri yetkinləşdikcə daha dəqiq olsa da, onların imkanları xaricində olan suallara cavab verməkdən yayınmaq əvəzinə səhv cavab vermə ehtimalı daha yüksək olur.

SİA-nın xarici qaynaqlardan əldə etdiyi məlumata görə, komanda böyük dil modellərinin - OpenAI-dən GPT seriyası, Meta-dan LLaMA və açıq mənbə BLOOM daxil olmaqla üç ailəsini tədqiq edib.

Tədqiqatçılar hər bir modelin bir neçə versiyasını sınaqdan keçiriblər, bunlar ilkin modellərdən tutmuş daha müasir modellərə qədərdir, lakin bu gün ən qabaqcıl olanlar deyil. Hər bir modelə elmi problemlər, arifmetika, anaqramlar, coğrafiya və s. ilə bağlı min sual verilib. Modellərdən, həmçinin siyahının əlifba sırasına salınması kimi məlumatları dəyişdirmək qabiliyyəti haqqında da soruşulub. Komanda istəklərini qəbul edilən çətinliklə sıralayıb.

Məlumatlar göstərib ki, modellər böyüdükcə suala cavab verməkdən yayınmaq əvəzinə təqdim edilən chatbotların səhv cavablarının nisbəti artıb.

Bundan əlavə, tədqiqatçılar müəyyən ediblər ki, insanlar süni intellektdən gələn yanlış cavablara inanmağa çox meyllidirlər. Tədqiqat iştirakçıları tərəfindən səhvən doğru kimi qəbul edilən yanlış cavabların diapazonu 10-40 faiz arasında dəyişir.

Nazlı Almuradova

Bütün xəbərlər Facebook səhifəmizdə