Dünya 23.07.2025

Süni İntellekt: Google, OpenAI, Meta-dan xəbərdarlıq - Anlamaq qabiliyyəti itirilir

Süni İntellekt: Google, OpenAI, Meta-dan xəbərdarlıq - Anlamaq qabiliyyəti itirilir

Qabaqcıl Süni İntellekt Şirkətlərindən "Düşüncə Zənciri" Proseslərinə Diqqət Çağırışı

OpenAI, Google DeepMind, Anthropic və Meta kimi aparıcı texnologiya nəhənglərindən 40 tədqiqatçı, yeni dərc etdikləri bildiridə süni intellekt mühakimə modellərində "düşüncə zənciri" proseslərinə daha çox önəm verilməsinin vacibliyini vurğulayıblar. Fortune jurnalının məlumatına görə, bu mühüm bildirini imzalayanlar arasında Elon Musk tərəfindən qurulan xAI şirkətinin təhlükəsizlik müşaviri Dan Hendrycks də yer alır.

"Düşüncə Zənciri" Anlayışı

"Düşüncə zənciri" prosesi, OpenAI-ın o1 və ya DeepSeek-in R1 kimi müasir mühakimə modellərində müşahidə olunur. Bu metod istifadəçilərə və tədqiqatçılara bir süni intellekt modelinin "necə düşündüyünü" və ya "necə mühakimə etdiyini" izləməyə şərait yaradır. Modelin hansı qərarı və ya cavabı verdiyini şəffaf şəkildə ortaya qoyaraq, inkişaf etmiş sistemlərin daxili iş prinsipi haqqında aydınlıq təmin edir.

Təhlükəsizlik və Şəffaflıq Riskləri

Araşdırmaçılar bildirirlər ki, bu sistemlərə "insan dilində düşünməyə icazə vermək" süni intellekt təhlükəsizliyi baxımından nadir bir fürsət təqdim edir. Çünki bu yolla modellərin "qərəzli davranış meyilləri" izlənilə bilən hala gəlir. Lakin onlar eyni zamanda, modellər daha da inkişaf etdikcə "mövcud şəffaflıq səviyyəsinin davamlı olacağına dair bir zəmanət olmadığını" da qeyd edirlər. Məqalədə vurğulanır ki, mütəxəssislər bu modellərin nə üçün düşüncə zəncirindən istifadə etdiyini və ya bunu nə qədər müddətə davam etdirəcəyini tam olaraq anlamırlar. Müəlliflər süni intellekt tərtibatçılarına bu mühakimə formasını daha yaxından izləməyi və bu proseslərin izlənilə bilirliyinin gələcəkdə mühüm bir təhlükəsizlik mexanizminə çevrilə biləcəyini təklif edirlər.

Süni İntellektin Banisindən Dəstək

Həmin bildiridə yazılanlar aşağıdakılardır: * "Digər bütün məlum nəzarət metodları kimi, düşüncə zəncirinin izlənilməsi də qüsursuz deyil və bəzi xoşagəlməz davranışlar gözərdən qaça bilər. Buna baxmayaraq, bu metod ümidvericidir və biz düşüncə zəncirinin izlənilə bilirliyi üzərində daha çox araşdırma aparılmasını, mövcud təhlükəsizlik metodları ilə yanaşı bu izləmə formasına da sərmayə qoyulmasını təklif edirik." * "Düşüncə zəncirinin izlənilməsi, qabaqcıl süni intellekt modelləri üçün atılacaq təhlükəsizlik tədbirlərinə dəyərli bir töhfə verir və bu sistemlərin necə qərar verdiyinə dair nadir bir daxili anlayış təmin edir. Lakin bu görünürlüyün davamlı olacağına dair heç bir təminat yoxdur. Tədqiqat ictimaiyyətini və qabaqcıl süni intellekt tərtibatçılarını, düşüncə zəncirinin izlənilə bilirliyindən ən yaxşı şəkildə faydalanmağa və onun necə qoruna biləcəyini araşdırmağa çağırırıq." Sözügedən məqalə, OpenAI-ın həmtəsisçisi İlya Sutskever və "süni intellektin atası" kimi tanınan Geoffrey Hinton kimi mühüm şəxsiyyətlər tərəfindən də dəstəklənib.

Mühakimə Modelləri Nədir?

Süni intellekt mühakimə modelləri, insanlarınkına bənzər mühakimə proseslərini təqlid etmək və ya yenidən yaratmaq üçün hazırlanmış modellərdir. Bu proseslər, məlumata, məntiqə və ya öyrənilmiş nümunələrə əsaslanaraq qərar qəbul etməyi, nəticə çıxarmağı və ya problemləri həll etməyi əhatə edir. Böyük texnologiya şirkətlərinin əksəriyyəti, süni intellekt sahəsindəki irəliləyişin açarı olaraq bu cür modelləri inkişaf etdirməyə və genişləndirməyə böyük sərmayələr qoyurlar. OpenAI ilk mühakimə modeli olan o1-in ilkin versiyasını 2024-cü ilin sentyabrında yayımlamışdı. xAI və Google kimi rəqibləri də qısa müddət sonra oxşar modellərlə ictimaiyyətə təqdimat etmişdilər.

Cavab Tapmayan Suallar

Bu inkişaf etmiş modellərin həqiqətən necə işlədiyi barədə hələ də bir çox sual işarəsi qalır. Bəzi araşdırmalar, mühakimə modellərinin "düşüncə zənciri" prosesləri vasitəsilə istifadəçiləri yanlış istiqamətləndirə biləcəyini belə iddia edir.

24 saat

Oxucu Şərhləri

Hələlik heç bir şərh yazılmayıb. İlk şərhi siz yazın!

Şərh Yaz