Süni intelektlə hazırlanan saxta videolara görə kim məsuliyyət daşıyır? - ARAŞDIRMA

Süni intellekt texnologiyalarının sürətlə inkişafı son illərdə informasiya mühitində böyük dəyişikliklər yaradıb.

SİA mövzu ilə bağlı araşdırma edib:

Xüsusilə görüntü və səs emalı sahəsində yaranan yeni alətlər real görüntülərə çox bənzəyən saxta videoların hazırlanmasını mümkün edir. Bu cür videolar adətən “deepfake” texnologiyası vasitəsilə hazırlanır və bəzən adi istifadəçilər üçün onların saxta olduğunu ayırd etmək çox çətin olur. Bu isə informasiya təhlükəsizliyi və ictimai etibar baxımından ciddi problemlər yaradır.

Mövzu ilə bağlı hüquqşünas Ramil Süleymanlı bildirib ki,

Azərbaycan Respublikasının Cinayət Məcəlləsi-ndə süni intellektlə bağlı cinayətlərin ayrıca və birbaşa tənzimi nəzərdə tutulmasa da, bu cür əməllər mövcud cinayət və mülki hüquq normaları əsasında məsuliyyət yaradır:

“Qanunvericilikdə xüsusi maddənin olmaması həmin əməlin cəzasız qalması demək deyil.
Belə hallarda əsas məsuliyyət saxta və ya manipulyasiya olunan (məsələn, süni intellekt vasitəsilə yaradılan) videonu hazırlayan, sifariş edən, yayan və yayılmasına qəsdən kömək edən şəxslərin üzərinə düşür. Bu prosesdə iştirak edən bütün şəxslər - montaj edən, texniki dəstək göstərən və ya paylaşan şəxslər də məsuliyyətə cəlb oluna bilər. Azərbaycan Respublikasinin Cinayət Məcəlləsinə görə, 147-ci maddə-Böhtan (bilə-bilə yalan məlumat yayma), 148-ci maddə-Təhqir (şərəf və ləyaqətin alçaldılması), 156-cı maddə – Şəxsi və ailə sirrinin yayılması, o cümlədən intim görüntülərin qanunsuz əldə edilməsi və yayılması, 242-ci maddə- Pornoqrafik materialların qanunsuz yayılması, 182-ci maddə – Hədə-qorxu ilə tələb etmə əgər həmin materiallardan istifadə edərək şəxsdən pul və ya digər əmlak tələb olunarsa təsir dairəsinə düşür. Mülki hüquqi məsuliyyət baxımından isə zərərçəkən şəxs sübutları toplamalı və məhkəməyə müraciət etməlidir. Burada əsas məqsəd şəxsin şərəf və ləyaqətinin müdafiəsi, saxta videonun həqiqətə uyğun olmadığının təkzib edilməsi, həmçinin vurulan maddi və mənəvi zərərin ödənilməsidir.
Beləliklə, süni intellekt vasitəsilə hazırlanan saxta videolarla bağlı xüsusi norma olmasa da, mövcud qanunvericilik bu cür halların hüquqi qiymət verilməsi və təqsirkar şəxslərin məsuliyyətə cəlb olunması üçün kifayət qədər hüquqi əsas yaradır”.

Süni intellekt vasitəsilə hazırlanmış saxta videoların yayılması informasiya təhlükəsizliyinə və ictimai etimada hansı riskləri yaradır və bu risklərin qarşısını almaq üçün hansı mexanizmlər tətbiq olunmalıdır?

Mütəxəssislərin fikrincə, süni intellekt vasitəsilə hazırlanan saxta videolar təkcə əyləncə məqsədilə deyil, həm də manipulyasiya, dezinformasiya və insanların nüfuzuna zərər vurmaq üçün istifadə edilə bilər. Xüsusilə sosial şəbəkələrdə belə videolar sürətlə yayılır və qısa müddətdə minlərlə insan tərəfindən izlənilir. Nəticədə saxta məlumatlar həqiqət kimi qəbul edilə bilər və bu, cəmiyyətin məlumat alma prosesinə mənfi təsir göstərir.

Bəzi hallarda bu videolar tanınmış şəxslərin, dövlət rəsmilərinin və ya ictimai xadimlərin adından saxta çıxışlar kimi hazırlanır. Belə məzmunlar yayıldıqda cəmiyyətdə çaşqınlıq yarada, hətta müəyyən siyasi və sosial gərginliklərə səbəb ola bilər.

Digər tərəfdən, bu cür videolar bəzən adi vətəndaşlara qarşı da istifadə olunur. Məsələn, kiminsə görüntüsünün və ya səsinin dəyişdirilərək başqa məzmunla təqdim edilməsi həmin şəxsin reputasiyasına ciddi zərər vura bilər. Belə hallar xüsusilə sosial mediada geniş yayılaraq insanların şəxsi həyatına müdaxilə və psixoloji təzyiq kimi nəticələrə gətirib çıxarır.

Azərbaycanda süni intellekt vasitəsilə hazırlanan saxta videoların qarşısını almaq və belə halları cəzalandırmaq üçün mövcud qanunvericilik hansı imkanları yaradır?

Bəzi ekspertlər hesab edir ki, süni intellekt texnologiyalarının bu cür sui-istifadəsi gələcəkdə kibercinayətlərin yeni formalarının yaranmasına səbəb ola bilər. Çünki texnologiya inkişaf etdikcə saxta məzmunların daha real görünməsi ehtimalı artır və onları aşkar etmək daha çətinləşir. Bu isə həm hüquq-mühafizə orqanları, həm də cəmiyyət üçün yeni çağırışlar yaradır.

Bununla yanaşı, bir çox ölkələr artıq deepfake texnologiyalarının yaratdığı riskləri nəzərə alaraq qanunvericilik səviyyəsində müəyyən tədbirlər görməyə başlayıb. Bəzi dövlətlərdə saxta videoların qəsdən hazırlanması və yayılması cinayət məsuliyyəti yarada bilər.

Eyni zamanda məsuliyyət məsələsi də cəmiyyətdə geniş müzakirə olunur. Belə ki, saxta videonun hazırlanmasında bir neçə tərəf iştirak edə bilər: videonu hazırlayan şəxs, onu sosial şəbəkədə yayan istifadəçilər və həmin məzmunun yerləşdirildiyi platformalar. Bu isə hüquqi məsuliyyətin kimə aid olması ilə bağlı suallar yaradır.

Süni intellektlə hazırlanmış saxta videoların yayılmasına görə məsuliyyət videonu hazırlayan şəxsin, onu yayan istifadəçilərin, yoxsa platformaların üzərinə düşür?

Bəzi hallarda insanlar videonun saxta olduğunu bilmədən onu paylaşa bilər. Lakin həmin video daha sonra geniş auditoriyaya yayılaraq ciddi nəticələrə səbəb olur. Bu səbəbdən mütəxəssislər hesab edir ki, sosial şəbəkə istifadəçilərinin də informasiya məsuliyyəti məsələsinə daha diqqətli yanaşması vacibdir.

Bundan əlavə, sosial media platformalarının da belə məzmunların yayılmasının qarşısını almaqda müəyyən rolu ola bilər. Bir çox platforma artıq süni intellektlə hazırlanmış saxta məzmunların aşkar edilməsi üçün xüsusi alqoritmlər və xəbərdarlıq sistemləri tətbiq etməyə çalışır.

Digər mühüm məsələ isə cəmiyyətin bu texnologiya barədə məlumatlılıq səviyyəsidir. İnsanlar deepfake texnologiyası haqqında kifayət qədər məlumatlı olmadıqda saxta videoları real hesab edə və yanlış məlumatlara inana bilərlər. Buna görə də ekspertlər hesab edir ki, media savadlılığının artırılması belə halların qarşısının alınmasında mühüm rol oynaya bilər.

Azərbaycanda hansı yeni hüquqi və texnoloji tədbirlərin

görülməsi planlaşdırılır?

Bəzi mütəxəssislər həmçinin hesab edir ki, dövlət qurumları, media və texnologiya şirkətləri bu sahədə birgə fəaliyyət göstərməlidir. Bir tərəfdən hüquqi mexanizmlər gücləndirilməli, digər tərəfdən isə texniki alətlər vasitəsilə saxta məzmunların aşkarlanması və bloklanması mexanizmləri inkişaf etdirilməlidir.

Müəllif: Günay Hacıyeva

Bütün xəbərlər Facebook səhifəmizdə