main-post-cover

    Süni zəka üzrə aparıcı mütəxəssislər öz məhsullarını nüvə silahı səviyyəsində təhlükəyə aid edirlər

    Süni İntellekt
    31.05.2023
    Emil Nəcəfov
        OpenAI, Google DeepMind, Anthropic süni zəka sahəsində faəliyyət göstərən digər şirkətlərin rəhbərləri xəbərdarlıq ediblər ki, onların hazırladıqları süni zəka sistemləri insan sivilizasiyasının mövcud olma faktını təhlükə altında ata bilər. Bu səbəbdən onlar bu cür süni zəka sistemlərinin pandemiya nüvə silahlarının iştirakı ilə aparılan müharibələr ilə eyni səviyyədə olan risklər kateqoriyasına daxil edilməsinin vacibliyini qeyd edirlər. “Süni zəka səbəbindən məhv olma riskinin aşağı salınması pandemiya və nüvə müharibələri kimi ictimai miqyasda olan digər risklər ilə eyni səviyyədə qlobal prioritet halını almalıdır” - deyə mütəxəssislər qeyd ediblər.
        Gözləntilərə əsasən süni zəka riskləri barəsində məlumatları özündə birləşdirən və bu sahədə çalışan 350 nəfər şirkət rəhbəri tərəfindən imzalanmış sənəd Center for AI Safety adlı qeyri-kommersiya təşkilatı tərəfindən təqdim ediləcək. Sənədi imzalamış şəxslər arasında Sam Altman (OpenAI), Demis Hassabis (Google Deepmind), Dario Amodei (Anthropic), Türinq mükafatının sahibi olan və müasir süni zəkanın “Xaç ataları” hesab edilən Geoffrey Hinton ilə Yoshua Bengio var. İctimaiyyətdə həqiqətən də süni zəka sistemlərinin növbəti inkişaf mərhələləri ilə bağlı narahatlıqlar var.
        Belə bir fikir var ki, ChatGPT miqyasında olan sistemlər dezinformasiya ilə propaqandanın yayılmasında istifadə ediləcəklər. Bununla yanaşı təkcə ABŞ ilə Avropada süni zəka sistemləri səbəbindən 300 milyon insan iş yerlərindən məhrum ola bilər. Eyni narahatlıqlara süni zəka sahəsində çalışan şirkətlərin rəhbərləri də sahibdirlər. Bunun nəticəsində onlar özlərini qeyri-adi vəziyyətə salırlar. Onların sözlərinə əsasən onlar tərəfindən hazırlanan süni zəka texnologiyaları böyük risklərə sahibdirlər və nəticə etibarilə dövlət qurumları tərəfindən tənzimlənməlidirlər.
        Bəzilərinin fikirlərinə əsasən isə hal hazırda süni zəka texnologiyaları insanlar üçün ciddi təhlükə mənbəyi olmaq səviyyəsində inkişaf etməyiblər və bu səbəbdən də əsas diqqət qısamüddətli perspektivlərə yönəlməlidir. Söhbət, süni zəka sistemləri tərəfindən təqdim edilən qeyri-obyektiv və düzgün olmayan cavablardan gedir. Digərlərinin fikirlərinə əsasən isə insan səviyyəsində imkanlara sahib süni zəka yaxın gələcəkdə ortaya çıxacaq. Potensial ola biləcək risklərin aradan qaldırılması üçün mütəxəssislər süni zəka sistemlərinin tənzimlənməsində iştirak edəcək beynəlxalq təşkilatın yaradılmasını təklif edirlər.
    Linki kopyala