Qabaqcıl Süni İntellekt Şirkətlərindən "Düşüncə Zənciri" Proseslərinə Diqqət Çağırışı
OpenAI, Google DeepMind, Anthropic və Meta kimi aparıcı texnologiya nəhənglərindən 40 tədqiqatçı, yeni dərc etdikləri bildiridə
süni intellekt mühakimə modellərində "düşüncə zənciri" proseslərinə daha çox önəm verilməsinin vacibliyini vurğulayıblar. Fortune jurnalının məlumatına görə, bu mühüm bildirini imzalayanlar arasında Elon Musk tərəfindən qurulan xAI şirkətinin təhlükəsizlik müşaviri Dan Hendrycks də yer alır.
"Düşüncə Zənciri" Anlayışı
"
Düşüncə zənciri" prosesi, OpenAI-ın o1 və ya DeepSeek-in R1 kimi müasir mühakimə modellərində müşahidə olunur. Bu metod istifadəçilərə və tədqiqatçılara bir
süni intellekt modelinin "necə düşündüyünü" və ya "necə mühakimə etdiyini" izləməyə şərait yaradır. Modelin hansı qərarı və ya cavabı verdiyini şəffaf şəkildə ortaya qoyaraq, inkişaf etmiş sistemlərin daxili iş prinsipi haqqında aydınlıq təmin edir.
Təhlükəsizlik və Şəffaflıq Riskləri
Araşdırmaçılar bildirirlər ki, bu sistemlərə "insan dilində düşünməyə icazə vermək"
süni intellekt təhlükəsizliyi baxımından nadir bir fürsət təqdim edir. Çünki bu yolla modellərin "qərəzli davranış meyilləri" izlənilə bilən hala gəlir. Lakin onlar eyni zamanda, modellər daha da inkişaf etdikcə "mövcud şəffaflıq səviyyəsinin davamlı olacağına dair bir zəmanət olmadığını" da qeyd edirlər. Məqalədə vurğulanır ki, mütəxəssislər bu modellərin nə üçün
düşüncə zəncirindən istifadə etdiyini və ya bunu nə qədər müddətə davam etdirəcəyini tam olaraq anlamırlar. Müəlliflər
süni intellekt tərtibatçılarına bu mühakimə formasını daha yaxından izləməyi və bu proseslərin izlənilə bilirliyinin gələcəkdə mühüm bir təhlükəsizlik mexanizminə çevrilə biləcəyini təklif edirlər.
Süni İntellektin Banisindən Dəstək
Həmin bildiridə yazılanlar aşağıdakılardır:
* "Digər bütün məlum nəzarət metodları kimi,
düşüncə zəncirinin izlənilməsi də qüsursuz deyil və bəzi xoşagəlməz davranışlar gözərdən qaça bilər. Buna baxmayaraq, bu metod ümidvericidir və biz
düşüncə zəncirinin izlənilə bilirliyi üzərində daha çox araşdırma aparılmasını, mövcud təhlükəsizlik metodları ilə yanaşı bu izləmə formasına da sərmayə qoyulmasını təklif edirik."
* "
Düşüncə zəncirinin izlənilməsi, qabaqcıl
süni intellekt modelləri üçün atılacaq təhlükəsizlik tədbirlərinə dəyərli bir töhfə verir və bu sistemlərin necə qərar verdiyinə dair nadir bir daxili anlayış təmin edir. Lakin bu görünürlüyün davamlı olacağına dair heç bir təminat yoxdur. Tədqiqat ictimaiyyətini və qabaqcıl
süni intellekt tərtibatçılarını,
düşüncə zəncirinin izlənilə bilirliyindən ən yaxşı şəkildə faydalanmağa və onun necə qoruna biləcəyini araşdırmağa çağırırıq."
Sözügedən məqalə, OpenAI-ın həmtəsisçisi İlya Sutskever və "süni intellektin atası" kimi tanınan Geoffrey Hinton kimi mühüm şəxsiyyətlər tərəfindən də dəstəklənib.
Mühakimə Modelləri Nədir?
Süni intellekt mühakimə modelləri, insanlarınkına bənzər mühakimə proseslərini təqlid etmək və ya yenidən yaratmaq üçün hazırlanmış modellərdir. Bu proseslər, məlumata, məntiqə və ya öyrənilmiş nümunələrə əsaslanaraq qərar qəbul etməyi, nəticə çıxarmağı və ya problemləri həll etməyi əhatə edir. Böyük texnologiya şirkətlərinin əksəriyyəti,
süni intellekt sahəsindəki irəliləyişin açarı olaraq bu cür modelləri inkişaf etdirməyə və genişləndirməyə böyük sərmayələr qoyurlar. OpenAI ilk mühakimə modeli olan o1-in ilkin versiyasını 2024-cü ilin sentyabrında yayımlamışdı. xAI və Google kimi rəqibləri də qısa müddət sonra oxşar modellərlə ictimaiyyətə təqdimat etmişdilər.
Cavab Tapmayan Suallar
Bu inkişaf etmiş modellərin həqiqətən necə işlədiyi barədə hələ də bir çox sual işarəsi qalır. Bəzi araşdırmalar, mühakimə modellərinin "düşüncə zənciri" prosesləri vasitəsilə istifadəçiləri yanlış istiqamətləndirə biləcəyini belə iddia edir.
24 saat
Oxucu Şərhləri
Hələlik heç bir şərh yazılmayıb. İlk şərhi siz yazın!
Şərh Yaz