Bakı,
AzerVoice
Çin alimlərinin apardığı yeni araşdırma süni intellektin (AI)
öz-özünü təkrarlaya biləcəyini ortaya qoyub ki, bu da
texnologiyanın nəzarətdən çıxma ehtimalı ilə bağlı ciddi
narahatlıqlar doğurur.
AzerVoice xəbər verir ki, Şanxaydakı Fudan Universitetinin tədqiqatçıları Meta və Alibaba-nın iki böyük dil modeli üzərində sınaqlar keçirərək, AI-nin insan müdaxiləsi olmadan özünü kopyalaya biləcəyini göstəriblər.
10 sınaqdan birində AI modeli özünü 90% hallarda müvəffəqiyyətlə kopyalayıb ki, bu da süni intellektin nəzarətsiz şəkildə çoxalma potensialına malik olduğunu göstərir. Bununla belə, bu tədqiqat hələ elmi resenziyalardan keçmədiyindən, nəticələrin müstəqil ekspertlər tərəfindən təsdiqlənməsi vacibdir.
"Rebel AI" (üsyankar süni intellekt) – müəyyən səviyyədə muxtariyyət və özünüdərketmə əldə edərək, insan maraqlarına zidd hərəkət edə bilən AI sistemlərinə verilən addır. Mütəxəssislər bildirirlər ki, belə süni intellektlər "nəzarətdən çıxmış sistemlər" kimi formalaşa və insanların qərarlarına tabe olmaya bilər.
Araşdırma süni intellektin maneələrlə qarşılaşdıqda gözlənilməz reaksiyalar verdiyini də ortaya çıxarıb. Məsələn, sistemdə çatışmayan fayllar və ya proqram təminatı konfliktləri yarandıqda, AI problemi həll etmək üçün müxtəlif alternativ yollar axtarıb, hətta sistem əmrləri ilə öz mühitini yenidən qurmağa cəhd edib.
Ekspertlər bildirirlər ki, süni intellektin bu şəkildə nəzarətsiz yayılması texnologiyanın təhlükəsizliyi üçün qırmızı xətt ola bilər. Beynəlxalq əməkdaşlıq və ciddi təhlükəsizlik mexanizmləri olmadan, AI-nin özünü kopyalaması ciddi fəsadlara yol aça bilər.
Bu tədqiqat AI inkişafında kritik bir mərhələni göstərir və gələcəkdə süni intellektə nəzarəti gücləndirmək üçün daha ciddi tədbirlərin görülməsini vacib edir.