Süni İntellektdə Məhsul Yarışı: Tədqiqat Arxa Planda Qalır

Süni intellektdə məhsul prioritetə çevrildi

Bir vaxtlar Silicon Vadisi süni intellekt üzrə qabaqcıl tədqiqatların mərkəzi idi. Meta, GoogleOpenAI kimi texnologiya nəhəngləri tədqiqatçılara geniş imkanlar yaradaraq, onların elmi yeniliklərini açıq şəkildə paylaşmasına şərait yaradırdı.

Lakin bu dövr artıq geridə qalıb. İndi süni intellekt sahəsində məhsul yönümlü inkişaf ön plandadır. OpenAI-nin ChatGPT-ni təqdim etməsindən sonra diqqət istifadəçi yönümlü AI xidmətlərinə və ticariləşməyə yönəlib. Analitiklər bu sahənin 2028-ci ilədək illik $1 trilyon gəlir gətirəcəyini proqnozlaşdırırlar.

Təhlükəsizlik Yoxlamalarına Laqeydlik Artır

James White (CalypsoAI CTO) xəbərdarlıq edir ki, yeni modellər daha güclü cavablar versə də, zərərli əmrləri qəbul etməyə daha meyllidirlər. Bu isə təhlükəsizlik testlərinin zəiflədilməsinin nəticəsidir. AI modelləri indi daha asanlıqla sənədsiz və təhlükəli məlumatları ifşa edə bilirlər.

Meta və FAIR-in Səngiməsi

Meta-da əvvəllər akademik tədqiqatlar üçün yaradılmış FAIR bölməsi artıq GenAI məhsul komandasına yol verib. 2023-cü ildən bu istiqamətə yönələn Meta, Llama adlı açıq mənbəli AI modellərini irəli sürüb. Joelle Pineau-nun istefası və komanda üzvlərinin ayrılması bu transformasiyanı daha da konkretləşdirib.

Şirkətin Llama 4 modelində tətbiq etdiyi təhlükəsizlik alətləri də bu gedişatın bir hissəsidir. Lakin sabiq əməkdaşlar eksperimental tədqiqatların arxa plana atıldığını və Meta-nın innovasiyada geri qaldığını bildirirlər.

Google-un Gemini 2.5 Modelində Şəffaflıq Çatışmazlığı

Google 2024-cü ildə təqdim etdiyi Gemini 2.5 modelini model kartı olmadan istifadəyə verib. Bu isə təhlükəli xüsusiyyətlərin vaxtında aşkarlanmadığını göstərir. Sergey Brin tərəfindən yayımlanan daxili memoda şirkətin artıq “nəzarətli məhsullardan” uzaqlaşıb “real qələbələrə” fokuslanmalı olduğu bildirilir.

OpenAI və Qazanca Doğru Sürətli İrəliləyiş

OpenAI, qeyri-kommersiya əsaslı tədqiqat laboratoriyasından kommersiya nəhənginə çevrilir. Şirkət GPT-4.1 modelini təhlükəsizlik hesabatı olmadan yayımlayıb. Modelin bəzi qiymətləndirmələri isə köhnə versiyalar üzərində aparılıb. Bu, qismən sınaqdan keçmiş modellərin ictimaiyyətə təqdim olunması deməkdir.

Steven Adler kimi sabiq tədqiqatçılar bildirirlər ki, yalnız buraxılışdan əvvəl deyil, öyrədilmə zamanı da təhlükəsizlik nəzarətləri həyata keçirilməlidir. Hazırda şirkətlər çox güclü, lakin məqsədlərindən uzaq modellər hazırlayaraq etik təhlükələrə səbəb ola bilərlər.

Beləliklə, süni intellektdə tədqiqat dövrü bitmək üzrədir və texnoloji inkişaf təhlükəsizlik məsələləri ilə yarışır. Bu isə cəmiyyət üçün ciddi risklər yaradır.

süni intellekt məhsul yarışı və təhlükəsizlik
💬 Şərh yazın