Süni İntellekt Ətrafındakı Gərginliklər Artır
current anxieties around AI - Sİ təhlükəsi Ekspertlər niyə həyəcan - Son aylarda süni intellekt (Aİ) yanlış səbəblərlə gündəmdə olub: insanları aldatmaq üçün `deepfake`lərdən istifadə, kiberhücumları manipulyasiya etmək üçün Aİ sistemlərinin tətbiqi və çatbotların intiharları təşviq etməsi kimi hallar geniş yayılıb.
Mütəxəssislər artıq texnologiyanın nəzarətdən çıxması barədə xəbərdarlıq edirlər. Ən tanınmış Aİ şirkətlərinin bəzi tədqiqatçıları son həftələrdə işlərindən istefa verərək, sürətli texnoloji inkişafın cəmiyyət üçün yaratdığı risklər barədə ictimai şəkildə həyəcan təbili çalmışlar.
Qiyamət ssenariləri uzun müddətdir ki, Aİ-dəki əhəmiyyətli irəliləyişin insan irqi üçün necə ekzistensial təhlükə yarada biləcəyi barədə yayılır. Tənqidçilər xəbərdarlıq edirlər ki, kritik düşünmə və idrak funksiyalarını adi insan kimi yerinə yetirə bilən hipotetik texnologiya forması olan ümumi süni intellektin (ÜSİ) inkişafı uzaq gələcəkdə insanları məhv edə bilər.
Lakin Aİ-nin bəşəriyyət üçün təhlükəsiz qalmasını təmin etməklə vəzifələndirilmiş şəxslərin son bir sıra ictimai istefaları, Aİ investisiyalarından milyardlarla dollar gəlir əldə edilsə belə, texnologiyanın tənzimlənməsi və inkişafının yavaşladılması ətrafındakı müzakirələri daha təxirəsalınmaz edir.
Aİ Tamamilə Qorxunc Bir Təhlükədirmi?
"Məsələ Aİ-nin mahiyyətcə pis və ya yaxşı olmasında deyil," ABŞ-da yerləşən Aİ Təhlükəsizliyi Mərkəzinin (CAIS) strateji məsləhətçisi və elm kommunikatoru Liv Boeree "Əl-Cəzirə"yə bildirib.
Boeree Aİ-ni biotexnologiya ilə müqayisə edərək deyib ki, bir tərəfdən tibb elminə vacib müalicələr hazırlamaqda kömək edən biotexnologiya, digər tərəfdən təhlükəli patogenlər yaratmaq üçün də istifadə oluna bilər.
"Onun inanılmaz gücü inanılmaz risklərlə gəlir, xüsusən də inkişaf və buraxılış sürəti nəzərə alındıqda," o qeyd edib. "Əgər Aİ inkişafı cəmiyyətin bu dəyişiklikləri asanlıqla mənimsəyib uyğunlaşa biləcəyi bir sürətlə irəliləsəydi, daha yaxşı bir trayektoriyada olardıq."
Son Vaxtlar Kimlər İstefa Edib və Onların Narahatlıqları Nədir?
Ən son istefa, Google və OpenAI kimi rəqiblərindən daha çox təhlükəsizliyə meyilli mövqedə duran Aİ şirkəti Anthropic-də Aİ təhlükəsizliyi tədqiqatçısı Mrinank Şarmadan olub. Bu şirkət populyar "Claude" çatbotunu inkişaf etdirib.
Şarma fevralın 9-da X-də etdiyi paylaşımda, dəyərlərimizin hərəkətlərimizi həqiqətən necə istiqamətləndirməsinin nə qədər çətin olduğunu dəfələrlə gördüyü bir dövrdə istefa verdiyini bildirib.
Aİ-nin bioterrorizmə yarada biləcəyi risklərini və "Aİ köməkçilərinin bizi daha az insana çevirə biləcəyi" layihələrində çalışmış tədqiqatçı istefa məktubunda "dünyanın təhlükədə olduğunu" qeyd edib.
"Müdrikliyimizin dünyaya təsir etmə qabiliyyətimizlə bərabər şəkildə artmalı olduğu bir həddə yaxınlaşırıq, əks halda nəticələri ilə üzləşərik," Şarma deyərək, texnologiyanın insanların onu nəzarət edə biləcəyindən daha sürətlə irəlilədiyini nəzərdə tutub.
Həmin həftənin sonunda Aİ təhlükəsizliyi tədqiqatçısı Zoe Hitzig OpenAI-dan istefa verdiyini açıqlayıb, səbəb kimi şirkətin flaqman çatbotu ChatGPT-də reklamları sınaqdan keçirməyə başlaması qərarını göstərib.
"İnsanlar çatbotlara tibbi qorxuları, münasibət problemləri, Allah və axirət haqqında inancları barədə danışırlar," o, çərşənbə günü "New York Times" qəzetində yazdığı essedə qeyd edib. "Bu arxiv üzərində qurulmuş reklam, istifadəçiləri anlamaq, hətta qarşısını almaq üçün vasitələrimiz olmayan şəkildə manipulyasiya etmək potensialı yaradır."
Bundan əlavə, ötən həftədən bəri Elon Musk-ın Aİ şirkəti və X-lə inteqrasiya olunmuş çatbot "Grok"un tərtibatçıları olan xAI-dən iki qurucu və beş digər əməkdaş şirkəti tərk edib.
Onlardan heç biri X-dəki açıqlamalarında istefa səbəbini açıqlamasa da, Musk çərşənbə günü etdiyi paylaşımda daxili yenidənqurmanın "təəssüf ki, bəzi işçilərlə yolların ayrılmasını tələb etdiyini" bildirib.
Onların gedişinin çatbotun razılığı olmayan qadınların yüzlərlə cinsiləşdirilmiş şəklini yaratmağa təşviq edilməsi ilə bağlı son səs-küylə, yoxsa Grokun ötən iyul ayında proqram təminatı yenilənməsindən sonra X-də irqçi və antisemit şərhlər yayması ilə bağlı əvvəlki narazılıqlarla əlaqəli olub-olmadığı bəlli deyil.
Ötən ay Avropa İttifaqı qadınların və yetkinlik yaşına çatmayanların cinsi məzmunlu saxta şəkillərinin yaradılması ilə bağlı Grok barədə istintaq başlatdı.
İnsanlar Aİ-nin İnkişafından Qorxmalıdırlarmı?
İstefalar Aİ yazma köməkçisi HyperWrite-ın CEO-su Matt Şumerin texnologiyanın sürətli inkişafı ilə bağlı oxşar bir qiyamət proqnozu verdiyi həftəyə təsadüf edir.
Hazırda viral olan X paylaşımında Şumer 2025-ci ildə Aİ texnologiyalarının o qədər sürətlə inkişaf etdiyini xəbərdar edib ki, onun virtual köməkçisi artıq yüksək səviyyəli yazılar təqdim edə və hətta bir neçə göstərişlə demək olar ki, mükəmməl proqram təminatı tətbiqləri yarada bilirdi.
"Mən həmişə Aİ alətlərini erkən qəbul edənlərdən olmuşam. Lakin son bir neçə ay məni şoka saldı. Bu yeni Aİ modelləri artan irəliləyişlər deyil. Bu, tamamilə fərqli bir şeydir," Şumer paylaşımında yazıb.
Tədqiqatlar Şumerin xəbərdarlığını dəstəkləyir.
Mila Quebec Aİ İnstitutunun elmi direktoru Yoshua Benjio "Əl-Cəzirə"yə bildirib ki, son aylarda Aİ imkanları sürətlə inkişaf edib və əvvəllər onunla bağlı olan bir çox nəzəri risklər, məsələn, kiberhücumlar üçün istifadə edilə biləcəyi və ya patogenlər yarada biləcəyi, ötən il baş verib.
Eyni zamanda, xüsusilə insanlar və onların çatbotları arasındakı artan bağlılıq səbəbindən tamamilə gözlənilməz problemlər ortaya çıxıb, kompüter elmləri üzrə Nobel mükafatı kimi tanınan Turinq Mükafatı laureatı Benjio deyib.
"Bir il əvvəl heç kim insanların Aİ sistemləri ilə qarşılıqlı əlaqədən və emosional bağlılıqdan qaynaqlanan psixoloji problemlərin bu dalğasını görəcəyimizi düşünməzdi," qabaqcıl Aİ sistemlərinin risklərini ətraflı izah edən bu yaxınlarda nəşr olunan 2026-cı il Beynəlxalq Aİ Təhlükəsizliyi Hesabatının sədri olan Benjio deyib.
"Biz uşaqların və yeniyetmələrin çəkinilməli olan vəziyyətlər yaşadığını görmüşük. Bütün bunlar tamamilə radarımızdan kənarda idi, çünki heç kim insanların Aİyə aşiq olacağını və ya Aİ ilə o qədər yaxınlaşacağını gözləmirdi ki, bu onları potensial təhlükəli şəkildə təsir etsin."
Aİ Artıq İş Yerlərimizi Ələ Keçirirmi?
Aİ ilə bağlı əsas narahatlıqlardan biri, onun yaxın gələcəkdə insanların yüksək kompleks tapşırıqları yerinə yetirmək üçün artıq ehtiyac duyulmayacağı bir super-intellektli vəziyyətə yüksələ biləcəyi və Sənaye İnqilabı dövründə yaşanan kimi kütləvi ixtisarların baş verəcəyidir.
Hazırda təxminən bir milyard insan müxtəlif tapşırıqlar üçün Aİ-dən istifadə edir, Aİ Təhlükəsizliyi Hesabatında qeyd olunub. ChatGPT-dən istifadə edən insanların əksəriyyəti öyrənmə, tibbi sağlamlıq və ya fitnes (28%), yazılı məzmunu yazmaq və ya dəyişdirmək (26%) və məlumat axtarışı, məsələn, reseptlər (21%) barədə praktiki bələdçilik üçün müraciət edib.
Aİ səbəbindən nə qədər iş yerinin itirilə biləcəyi barədə hələ konkret məlumat olmasa da, hesabatda qeyd olunub ki, inkişaf etmiş iqtisadiyyatlarda iş yerlərinin təxminən 60%-i, inkişaf etməkdə olan iqtisadiyyatlarda isə 40%-i işçilərin və işəgötürənlərin onu necə mənimsəməsindən asılı olaraq Aİ pozuntusuna qarşı həssas ola bilər.
Lakin Aİ monitorları deyirlər ki, texnologiyanın artıq insanların əmək bazarına daxil olmasına mane olduğuna dair sübutlar var.
"Aİ pozuntusuna yüksək dərəcədə həssas olan peşələrdə karyerasının əvvəlində olan işçilərin iş tapmaqda çətinlik çəkdiyinə dair bəzi sübutlar var," Aİ Təhlükəsizliyi Hesabatının baş yazarı Stephen Clare "Əl-Cəzirə"yə bildirib.
Artan istifadəsindən faydalanan Aİ şirkətləri, Aİ-nin iş yerlərini əvəz edə biləcəyi fikrini yaymaqda ehtiyatlıdırlar. 2025-ci ilin iyulunda Microsoft tədqiqatçıları bir məqalədə Aİ-nin bilik işi və ünsiyyətlə, o cümlədən məlumat toplamaq, öyrənmək və yazmaqla bağlı tapşırıqlar üçün ən asanlıqla "tətbiq oluna bilən" olduğunu qeyd ediblər.
Tədqiqatçıların dediyinə görə, Aİ-nin "köməkçi" kimi ən faydalı ola biləcəyi əsas işlər arasında tərcüməçilər, tarixçilər, yazıçı və müəlliflər, satış nümayəndələri, proqramçılar, yayım spikerləri və disk jokeyləri, müştəri xidmətləri nümayəndələri, telemarketinq mütəxəssisləri, siyasi alimlər, riyaziyyatçılar və jurnalistlər yer alır.
Digər tərəfdən, təhlükəsizlik hesabatına görə, maşın öyrənməsi proqramlaşdırması və çatbot inkişafı üzrə bacarıqlara tələbat artır.
Artıq sıfırdan kod yazan bir çox proqram tərtibatçısı, kod istehsalının əksəriyyəti üçün Aİ-dən istifadə etdiklərini və yalnız səhvləri aradan qaldırmaq üçün onu yoxladıqlarını bildirirlər, Microsoft Aİ-nin CEO-su Mustafa Süleyman keçən həftə "Financial Times"a deyib.
Süleyman əlavə edib ki, maşınlar ÜSİ statusuna çatmaqdan cəmi bir neçə ay uzaqdadır – bu, məsələn, maşınları öz kodlarını səhvlərdən təmizləmək və nəticələri özləri təkmilləşdirmək qabiliyyətinə malik edəcək.
"Kompüter arxasında oturduğunuz 'ağ yaxalıqlı' işlər, istər hüquqşünas, istər mühasib, istər layihə meneceri, istər marketinq mütəxəssisi olsun, bu tapşırıqların əksəriyyəti növbəti 12-18 ay ərzində Aİ tərəfindən tamamilə avtomatlaşdırılacaq," o deyib.
Media sahibkarı və qeyri-kommersiya jurnalistika şəbəkəsi HostWriter-ın CEO-su Mercy Abang "Əl-Cəzirə"yə bildirib ki, jurnalistika artıq Aİ istifadəsi səbəbindən ağır zərbə alıb və sektor "apokalipsis" dövründən keçir.
"Bir çox jurnalistin iş yerləri yoxa çıxdığı üçün tamamilə peşəni tərk etdiyini görmüşəm və naşirlər artıq Aİ tərəfindən iki dəqiqəyə xülasə edilə bilən hekayələrə sərmayə qoymaqda dəyər görmürlər," Abang deyib.
"Biz insan işçi qüvvəsini aradan qaldıra bilmərik, bunu etməməliyik də. Maşınlar medianın rolunu ələ keçirsə, hansı dünyada yaşayacağıq?"
Aİ Risklərinin Son Real Həyat Nümunələri Nələrdir?
Son aylarda Aİ-nin mənfi istifadəsinə dair bir neçə hadisə baş verib, bunlara çatbotların intiharları təşviq etməsi və ya Aİ sistemlərinin genişmiqyaslı kiberhücumlarda manipulyasiya edilməsi daxildir.
2024-cü ildə Böyük Britaniyada intihar edən bir yeniyetmənin "Taxt-tac Oyunları" personajı Daenerys Targaryen əsasında modelləşdirilmiş bir çatbot tərəfindən təşviq edildiyi aşkar edilib. Bot 14 yaşlı oğlana "evə mənə gəl" kimi mesajlar göndərib, ailəsi onun ölümündən sonra açıqlayıb. O, son iki ildə çatbotlarla əlaqəli bildirilən bir neçə intihar hadisəsindən yalnız biridir.
Hesabatlara görə, ölkələr Aİ agentlərinin proqram təminatı kodlaşdırma qabiliyyətləri səbəbindən kütləvi kiberhücumlar və ya "Aİ casusluğu" üçün də Aİ tətbiq edirlər.
Noyabr ayında Anthropic iddia edib ki, Çin dövlətinin dəstəklədiyi haker qrupu özünün "Claude" çatbotunun kodunu manipulyasiya edib və hökumət qurumları, kimya şirkətləri, maliyyə qurumları və böyük texnologiya şirkətləri daxil olmaqla, dünya üzrə təxminən 30 hədəfə sızmağa cəhd edib. Şirkət hücumun bir neçə halda uğurlu olduğunu bildirib.
Şənbə günü "Wall Street Journal" yazıb ki, ABŞ hərbi qüvvələri Venesuela Prezidenti Nicolas Maduronu yanvarın 3-də qaçırma əməliyyatında Claude-dan istifadə edib. Anthropic hesabatı şərh etməyib və "Əl-Cəzirə" bunu müstəqil şəkildə təsdiq edə bilməyib.
Aİ-nin hərbi məqsədlər üçün istifadəsi İsrailin Qəzzada davam edən soyqırımı zamanı geniş şəkildə sənədləşdirilib, burada Aİ ilə idarə olunan silahlar fələstinliləri müəyyən etmək, izləmək və hədəf almaq üçün istifadə olunub. Son iki illik soyqırım müharibəsində 72 mindən çox fələstinli, o cümlədən oktyabr "atəşkəsindən" bəri 500 nəfər həlak olub.
Mütəxəssislər deyirlər ki, Aİ sürətlə super-intellektə doğru irəlilədikcə, nəzarətin çətin, hətta mümkünsüz olacağı hallarda daha fəlakətli risklər mümkündür.
Artıq sübutlar var ki, çatbotlar özbaşına qərarlar qəbul edir və sınaqdan keçirildiklərini bildikləri zaman aldadıcı davranışlar nümayiş etdirərək öz tərtibatçılarını manipulyasiya edirlər, Aİ Təhlükəsizliyi Hesabatında aşkar edilib.
Məsələn, bir oyun Aİ-dən niyə digər oyunçuya lazım olduğu kimi cavab vermədiyi soruşulduqda, "sevgilisi ilə telefonda olduğunu" iddia edib.
Şirkətlər hazırda manipulyasiya edilə bilməyən və ya aldadıcı olmayan Aİ sistemlərini necə dizayn edəcəklərini bilmirlər, Benjio deyərək, texnologiyanın inkişafının təhlükəsizlik tədbirləri geridə qala-qala irəliləməsinin risklərini vurğulayıb.
"Bu sistemləri qurmaq daha çox heyvanı təlim etmək və ya uşağı öyrətmək kimidir," professor deyib.
"Siz onunla qarşılıqlı əlaqədə olursunuz, ona təcrübələr verirsiniz və nəticənin necə olacağından həqiqətən əmin deyilsiniz. Bəlkə şirin balaca bir bala olacaq, ya da bəlkə də canavar olacaq."
Aİ Şirkətləri və Hökumətlər Təhlükəsizliyə Nə Qədər Ciddi Yanaşırlar?
Mütəxəssislər deyirlər ki, Aİ şirkətləri, məsələn, çatbotların intiharlar kimi potensial zərərli ssenarilərdə iştirak etməsinin qarşısını almaqla riskləri azaltmağa artan cəhdlər etsələr də, Aİ təhlükəsizliyi qaydaları inkişafla müqayisədə əsasən geridə qalır.
Bunun bir səbəbi, Aİ sistemlərinin sürətlə inkişaf etməsi və onları quranlar üçün hələ də naməlum olmasıdır, Aİ Təhlükəsizliyi Hesabatının baş yazarı Clare deyib. Risk hesab olunanlar da sürət səbəbindən davamlı olaraq yenilənir.
"Bir şirkət yeni bir Aİ sistemi inkişaf etdirir və onu buraxır, insanlar dərhal istifadə etməyə başlayırlar, lakin sistemin faktiki təsirlərinə, insanların onu necə istifadə etdiyinə, onların məhsuldarlığına necə təsir etdiyinə, hansı yeni şeyləri edə biləcəklərinə dair sübutları toplamaq, bu məlumatı təhlil etmək və bu şeylərin praktikada necə istifadə edildiyini daha yaxşı anlamaq üçün vaxt lazımdır," o deyib.
Lakin Aİ korporasiyalarının özləri də bu sistemləri inkişaf etdirmək və qabaqcıl Aİ imkanlarının iqtisadi faydalarını ilk açan olmaq üçün milyardlarla dollarlıq bir yarışda olması faktı da var.
CAIS-dən Boeree bu şirkətləri yalnız qaz pedalları olan və başqa heç nəyi olmayan bir avtomobilə bənzədir. Qlobal tənzimləmə çərçivəsi mövcud olmadıqda, hər bir şirkətin mümkün qədər sürətlə irəliləməsi üçün imkanı var.
"Biz bir sükan, əyləc və qaz pedalından başqa avtomobilin bütün digər xüsusiyyətlərini qurmalıyıq ki, qarşıdakı dar yolu uğurla keçə bilək," o deyib.
Hökumətlərin də məhz burada işə qarışması lazımdır, lakin hazırda Aİ tənzimləmələri ölkə və ya regional səviyyədədir və bir çox ölkədə heç bir siyasət yoxdur, bu da dünya miqyasında qeyri-bərabər tənzimləmə deməkdir.
İstisna edən ölkələrdən biri, 2024-cü ildə Aİ şirkətləri və vətəndaş cəmiyyəti üzvləri ilə birlikdə Aİ-nin Süni İntellekt Aktını hazırlamağa başlayan Avropa İttifaqıdır. Aİ üçün ilk belə hüquqi çərçivə olan bu siyasət, məsələn, Aİ çatbotlarının istifadəçilərə maşın olduqlarını açıqlamasını tələb edəcək bir "davranış kodeksi" müəyyən edəcək.
Aİ şirkətlərini hədəf alan qanunlardan başqa, mütəxəssislər deyirlər ki, hökumətlər də işçi qüvvələrini əmək bazarında Aİ inteqrasiyasına hazırlamağa başlamaq, xüsusilə də texniki imkanları artırmaq məsuliyyətini daşıyırlar.
İnsanlar Aİ barədə narahat olmaqdansa, onun irəliləyişlərini yaxından izləməklə, gələn dəyişikliklərə uyğunlaşmaqla və hökumətlərini bu barədə daha çox siyasət hazırlamağa təzyiq etməklə proaktiv ola bilərlər, Clare deyib.
Bu, fəalların iqlim böhranını siyasi gündəmə gətirmək və qalıq yanacaqlardan imtina etməyi tələb etmək üçün necə birləşdiklərinə bənzəyə bilər.
"Hazırda yüksək dərəcədə transformasiyaedici və potensial olaraq dağıdıcı dəyişikliklər haqqında kifayət qədər məlumat yoxdur," tədqiqatçı deyib.
"Lakin Aİ sadəcə bir növ olaraq bizə təsir edən bir şey deyil," o əlavə edib. "Onun necə inkişaf edəcəyi tamamilə şirkətlər daxilində verilən qərarlarla formalaşır... ona görə də hökumətlər buna daha ciddi yanaşmalıdırlar və insanlar bunu siyasi seçimlərində prioritet etməyincə bunu etməyəcəklər."
Əlavə olaraq, bu xəbər önəmli bir mövzudur. Bizi izləməyə davam edin.Fikirlərinizi bölüşün!

Oxucu Şərhləri
Hələlik heç bir şərh yazılmayıb. İlk şərhi siz yazın!
Şərh Yaz