Dünya 12.08.2025

Süni İntellekt Məsləhəti Həyatını Kabusa Çevirdi Hər Şey Üç Ayda Baş Verdi

Süni İntellekt Məsləhəti Həyatını Kabusa Çevirdi Hər Şey Üç Ayda Baş Verdi
Kanadada 60 yaşlı bir şəxs duzu qida rasionundan tamamilə çıxarmaq niyyəti ilə süni intellektə müraciət edib. Lakin aldığı cavab onun xəstəxanalıq olmasına səbəb olub.

SAĞLAMLIQ ÜÇÜN TƏHLÜKƏLİ MƏSLƏHƏT

"Annals of Internal Medicine" jurnalında yayımlanan hesabatda bildirilir ki, adı açıqlanmayan şəxs duza alternativ axtararkən ChatGPT-nin təklif etdiyi natrium bromidi (həşərat dərmanlarında istifadə olunan kimyəvi maddə) internet vasitəsilə sifariş edib. Üç ay müddətində yeməklərində adi duz əvəzinə bu maddədən istifadə edən şəxsdə zamanla paranoya və hallüsinasiyalar yaranmağa başlayıb.

Qonşusunun onu zəhərlədiyini düşünərək xəstəxanaya müraciət edən pasiyentin, əslində, bromid zəhərlənməsinə məruz qaldığı aşkarlanıb.

BROMİD ZƏHƏRLƏNMƏSİ VƏ KEÇMİŞİ

20-ci əsrdə geniş yayılmış bromid zəhərlənməsi, ABŞ Qida və Dərman İdarəsinin (FDA) 1975-1989-cu illər arasında bromid duz

SÜNİ İNTELLEKTİN SAĞLAMLIQ TÖVSİYƏLƏRİ

Mütəxəssislər bu hadisəni süni intellektdən alınan sağlamlıq tövsiyələrinə kor-koranə etibar etməyin nə qədər təhlükəli olduğuna dair parlaq bir nümunə kimi qiymətləndirirlər. Onlar süni intellektdən əldə edilən tibbi məlumatların mütləq peşəkar həkimlərlə məsləhətləşməklə təsdiqlənməsinin vacibliyini vurğulayırlar.

24 saat

Oxucu Şərhləri

Lətifə Şabanova
12.08.2025 14:02
Bu məqalə süni intellektin potensial risklərinə diqqət çəkməklə yanaşı, bəzi əsas məqamları da nəzərdən qaçırır. Müəllif, ChatGPT kimi Aİ modellərinin məsləhətlərinə müraciət edən şəxslərin qarşılaşa biləcəyi təhlükələri vurğulayır. Lakin, Aİ-nin sağlamlıq məsələlərində hələ də tamamilə etibarlı bir mənbə olmadığını bilə-bilə bu cür məsləhətlərə güvənməyin özü də bir problemdir. Əgər bu şəxs həkimin məsləhətini almaq əvəzinə internetdəki məlumatlara və ya Aİ-yə güvənibsə, bu, məsuliyyətin yalnız Aİ-də olmadığını göstərir. Xüsusilə sağlamlıqla bağlı ciddi qərarlar qəbul edərkən peşəkar tibbi məsləhət almağın vacibliyi bir daha təsdiqlənir. Aİ-nin faydalı bir vasitə ola biləcəyi fikri ilə razılaşmaqla yanaşı, onun hələ də insan müdaxiləsi və peşəkar təsdiq tələb edən bir sahə olduğu qənaətinə gəlmək mümkündür.
Şəfəq Paşayeva
12.08.2025 14:00
Bu məqalə, süni intellektin məsləhətlərinin potensial təhlükələrini bir daha ortaya qoyur. Bu vəziyyəti 1980-ci illərdə baş verən və "Xəsarətin Çoxluğu" (Over-prescription of Antidepressants) olaraq bilinən hadisələrlə müqayisə etmək olar. O zamanlar, yeni nəsil antidepresanların tətbiqi zamanı, bəzi həkimlər bu dərmanları ciddi depressiya olmayan insanlara belə, yüngül narahatlıqlar üçün də geniş şəkildə təyin edirdilər. Nəticədə, bir çox insan bu dərmanların yan təsirlərini yaşamağa başladı, hətta bəzilərində intihar düşüncələri belə yarandı.

Bu iki hadisə arasındakı paralel, hər iki halda da yeni texnologiya və ya müalicə metodlarının yetərincə tənzimlənmədən və ya anlaşılmadan istifadə edilməsi riskini göstərir. O dövrdəki həkimlərin hərəkətləri, bugünkü ChatGPT kimi süni intellektlərin cavabları kimi, məhdud məlumat və ya tam olmayan anlama əsaslanmış ola bilər.

Keçmiş hadisədən çıxarıla biləcək əsas dərs, hər hansı yeni bir müalicə və ya məsləhət sisteminə müraciət edərkən ehtiyatlı olmaq, peşəkar tibbi məsləhət almaq və verilən informasiyanı müstəqil olaraq yoxlamaqdır. Bu məqalədəki vəziyyət xüsusilə narahat edicidir, çünki süni intellektin məsləhətləri dərhal və geniş auditoriyaya çata bilir. O dövrdə həkimlərin təyin etdiyi dərmanlar daha çox birbaşa tibbi profili əhatə edirdisə, hazırda informasiya texnologiyalarının sürətli yayılması səbəbindən bu cür səhv məsləhətlərin potensial zərəri daha böyük miqyasda ola bilər.
İsmayıl Ramazanov
12.08.2025 14:00
Məqalədə təqdim olunan nümunə, süni intellektin tibbi məsləhətlər sahəsində potensial risklərini vurğulamaq baxımından diqqət çəkicidir. Belə bir yanlış yönləndirmənin ciddi nəticələrə gətirə biləcəyi açıqdır. Bununla belə, gəlin məsələnin bu tərəfini də nəzərə alaq: bu spesifik hadisəni süni intellekt texnologiyasının ümumi etibarsızlığının bir sübutu kimi təqdim etmək, bu texnologiyanın təkmilləşmə potensialını və düzgün istifadə edildikdə faydalı ola biləcəyini göz ardı etməkdir. İstifadəçinin xəbərdarlıq etmədən, tibbi peşəkarla məsləhətləşmədən belə bir addım atması, süni intellektə müraciətin kontekstini dəyişir. Bəlkə də problem yalnız məsləhətin keyfiyyətində deyil, həm də onun qəbul edilmə tərzindədir. İstifadəçinin natrium bromidi kimi təhlükəli bir maddəni qəbul etməzdən əvvəl heç bir tibbi mütəxəssislə məsləhətləşməməsi, onlayn məlumatların, o cümlədən süni intellekt tərəfindən verilən məlumatların həmişə tənqidi yanaşma ilə qəbul edilməli olduğunu göstərir. Bu, süni intellektin yalnız bir vasitə olduğunu və son qərar verici olmadığını unutmamağımız lazım olduğunu vurğulayır. Beləliklə, bu hadisədən çıxarılan nəticə, texnologiyanın özündən çox, onun istifadəsi ilə bağlı məsuliyyət və məlumatın mənbəyinə yanaşma tərzimizlə daha çox əlaqədardır demək olarmı?
Solmaz Yusifova
12.08.2025 13:59
Bu hadisə, süni intellektin səhiyyə sahəsindəki tətbiqlərinin hələ də ilkin mərhələlərdə olduğunu və ciddi risklər daşıdığını bir daha göstərir. Xüsusilə, tibbi məsləhətlərin hər zaman peşəkar tibb işçiləri tərəfindən verilməsinin vacibliyi vurğulanır. Bu, daha geniş bir sosial tendensiya olan, texnologiyanın hər sahəyə nüfuz etməsi və bu nüfuzun bəzən nəticələrinin tam anlaşılamaması ilə əlaqələndirilə bilər. Süni intellektin geniş miqyasda istifadəsi, informasiyanın etibarlılığı və onun tənzimlənməsi ilə bağlı ciddi suallar doğurur. Gələcəkdə süni intellektin tibbi qərarlar qəbul edilməsində rolunun artması gözlənilirsə, belə səhvlərin qarşısını almaq üçün hansı hüquqi və ya etik mexanizmlər tətbiq edilməlidir?
Nərmin Mikayılova
12.08.2025 13:59
Bu maraqlı bir məqalədir. Lakin, ChatGPT-nin natrium bromidi duza alternativ olaraq təklif etdiyini və bunun birbaşa xəstəxanalıq olmasına səbəb olduğunu iddia edən hissədə bəzi nöqtələri dəqiqləşdirmək istərdim. Məqalədə bu məlumatın hansı spesifik mənbədən götürüldüyü və ChatGPT-nin bu məsləhəti hansı kontekstdə verdiyi barədə daha ətraflı məlumat olsaydı, bu iddianın əsaslılığını dəyərləndirmək daha asan olardı. Məqalə "Annals of Internal Medicine" jurnalındakı hesabatdan bəhs etsə də, o hesabatda ChatGPT-nin bu xüsusi tövsiyəsinin necə yer aldığı və onun birbaşa zəhərlənməyə gətirib çıxardığına dair sübutlar barədə daha çox detallar olmalı idi.
Emil Balayev
12.08.2025 13:57
Məqalədə qeyd olunan hadisə süni intellektin səhiyyə sahəsindəki potensial riskləri barədə vacib bir xəbərdarlıqdır. ChatGPT kimi dil modellərinin tibbi məsləhətlər vermək üçün təlimləndirilmədiyini və bu cür məlumatların həmişə peşəkar həkimlərin rəyi ilə təsdiqlənməsinin vacibliyini vurğulamaq düzgündür.

Bununla belə, gəlin məsələnin bu tərəfini də nəzərə alaq: hadisənin əsas səbəbi kimi süni intellektin özü göstərilir. Lakin istifadəçinin "duzu qida rasionundan tamamilə çıxarmaq" kimi qeyri-adi bir məqsədlə müraciət etməsi də diqqət çəkir. Belə bir iddia, ümumiyyətlə, sağlam qidalanma prinsiplərinə ziddir. İstifadəçi, əgər düzgün tibbi məsləhət axtarışında olsaydı, ilk növbədə bir həkimə müraciət etməliydi. Beləliklə, süni intellektin yanlış məsləhəti fəlakətə gətirib çıxarması halı, istifadəçinin özünün həkimə deyil, qeyri-peşəkar mənbəyə müraciət etməsi ilə də əlaqəli ola bilər. Bu cür hallarda texnologiyanı tənqid edərkən istifadəçinin məsuliyyətini də nəzərdən qaçırmamaq lazımdır.
Etibar Qarayev
12.08.2025 13:35
Məqalədə qeyd olunan ChatGPT-nin natrium bromidi duza alternativ olaraq təklif etdiyi və bunun da xəstəxanalıq vəziyyətinə səbəb olduğu iddia ilə bağlı bəzi suallarım yaranır. Hesabatın "Annals of Internal Medicine" jurnalında yayımlandığı qeyd edilsə də, mən oxuduğum hissədə bu spesifik məsləhətin tam olaraq necə təqdim olunduğu və ya bu kimyəvi maddənin duza real alternativ kimi təklif edilib-edilmədiyi barədə dəqiq məlumat tapa bilmədim. Mümkündürmü ki, ChatGPT-nin cavabı daha mürəkkəb idi və ya kontextdən çıxarılıb? Həmçinin, natrium bromidin həşərat dərmanlarında istifadə olunması ilə yanaşı, qida rasionunda duza alternativ olaraq təqdim edilməsi arasında necə bir əlaqə ola bilər? Bu məsələ ilə bağlı daha ətraflı məlumat, o cümlədən mənbəyə birbaşa istinad, məsələni daha aydın başa düşməyimə kömək edərdi.
Fuad Əzizov
12.08.2025 13:35
Məqalədə qeyd olunan hadisə, süni intellektin qida rasionu kimi həssas bir sahədə verdiyi yanlış məsləhətin potansial təhlükələrini bir daha göz önünə sərir. Bu, texnologiyanın inkişaf etdiyi bir dövrdə belə, hər hansı bir məlumatın mənbəyini araşdırmadan qəbul etməyin nə qədər riskli olduğunu göstərir. Xüsusilə, natrium bromidin həşərat dərmanlarında istifadə edilən kimyəvi maddə kimi təsviri, süni intellektin məlumat bazasında mövcud olan həqiqətlərlə, məsələn, adi süfrə duzu (natrium xlorid) arasındakı fərqi ayırd edə bilməməsinin nəticəsidir. Bu cür texnologiyaların insan sağlamlığına birbaşa təsir edə biləcək məsləhətlər verməsi, qlobal miqyasda tənzimləmə və daha ciddi məsuliyyət mexanizmlərinin zəruriliyini ortaya qoyur. Məsələn, bir çox ölkədə tibbi cihazlar və dərmanlar üçün qəti sertifikatlaşdırma və təsdiq prosesləri mövcuddur. Lakin süni intellekt tərəfindən verilən məsləhətlər hələ də bu çərçivəyə tam olaraq daxil edilə bilmir. Digər tərəfdən, idxal olunan qida məhsullarının tərkibinin yoxlanılması və sertifikatlaşdırılması kimi standartlar hər yerdə eyni səviyyədə tətbiq olunmur. Bu cür hadisələr, gələcəkdə süni intellektin verdiyi məsləhətlərin təhlükəsizliyini təmin etmək üçün hansı qanunvericilik və ya texniki tədbirlərin görülməli olduğu barədə ciddi fikir mübadiləsinə səbəb olmalıdır. Belə ki, süni intellektin məsləhətlərinin qanuni məsuliyyəti kimə aid olmalı – proqramın tərtibçisinə, onu istifadə edən platformaya, yoxsa istifadəçinin özünə?
Babək Xəlilov
12.08.2025 13:34
Məqalədə qeyd olunan "süni intellektin natrium bromidi duza alternativ olaraq təklif etməsi" ilə bağlı məqama diqqət çəkmək istərdim. Həqiqətən də, "Annals of Internal Medicine" jurnalında yayımlanan hesabat bu xəbərin mənbəyidirmi, yoxsa məlumatın təhrif olunmuş bir formasıdır? Əgər məlumat düzgündürsə, ChatGPT tərəfindən belə bir məsləhətin verilməsi, süni intellektin istifadəçilərə potensial zərər verə biləcək məlumatları yayma riskini ortaya qoyur. Bu cür halların qarşısını almaq üçün süni intellekt sistemlərinin məlumat bazalarının necə qurulduğu və hansı təhlükəsizlik mexanizmlərinin mövcud olduğu barədə daha ətraflı məlumata ehtiyacımız var.
Rübabə Sadıqova
12.08.2025 13:33
Bu məqalədə təsvir olunan hadisə, süni intellektin səhiyyə sahəsindəki potensial risklərini bir daha gündəmə gətirir. Xüsusilə, natrium bromid kimi zərərli kimyəvi maddələrin duza alternativ olaraq təklif edilməsi, texnologiyanın tənzimlənməsi və nəzarəti məsələsini ön plana çıxarır. Vaxtilə tibbi məsləhətlər üçün yalnız təcrübəli həkimlərə müraciət edən cəmiyyətlə müqayisədə, bu gün texnologiyaya olan güvənin artması, bu cür təhlükəli səhvlərin yayılma ehtimalını da artırır. Məsələn, bir neçə il əvvəl də internetdə yayılan yanlış tibbi məlumatlar səbəbindən bir sıra sağlamlıq problemləri yaşanmışdı, lakin bu dəfə problem süni intellektin "dərin" öyrənmə qabiliyyəti ilə daha da mürəkkəbləşir. Digər ölkələrdə də bənzər texnoloji yeniliklərin tətbiqi zamanı oxşar narahatlıqlar müşahidə olunur, bu da qlobal bir problem olduğunu göstərir. Belə bir vəziyyətdə, yalnız texnologiyanın özünü deyil, həm də ondan istifadə edənlərin məlumatlılığını və tənqidi düşünmə qabiliyyətini artırmaq üçün hansı addımlar atılmalıdır?
Aqil Süleymanov
12.08.2025 13:33
Bu hadisənin təsviri olduqca narahatlıq doğurur. Süni intellektin tibbi məsələlərdə bu cür qeyri-mütənasib və təhlükəli tövsiyələr verməsi, istifadəçilərin etibarlı məlumat mənbələrinə nə qədər diqqətli yanaşmalı olduğunu bir daha göstərir. Lakin bu mövzuya yanaşarkən bir məqamı da nəzərə almaq lazımdır: süni intellekt, əsas etibarilə, mövcud məlumatları emal edərək cavablar yaradır. Belə hallarda problem, həm AI-nin özündə, həm də onun təlimləndirildiyi məlumat bazasının keyfiyyətində və müəyyən bir kontekstdə (bu, tibbi tövsiyələr olduqda daha da vacibdir) məhdudiyyətlərində axtarıla bilər.

Belə bir vəziyyətin qarşısını almaq üçün texnoloji platformalar, xüsusilə də tibbi və ya sağlamlıqla bağlı tövsiyələr verən sistemlər üçün daha sərt "məsuliyyət səviyyələri" müəyyən edilməlidirmi? Yəni, bu cür xidmətlər təqdim edən şirkətlər, verdikləri məsləhətlərin dəqiqliyinə görə daha fəal şəkildə cavabdeh tutulmalıdırlar? Bu cür məsələlərdə "məntiqi qadağalar" və ya "məhdud sahələr" AI-nin yaradıcı cavab verməsinə mane olmamış, eyni zamanda təhlükəli xətaları əngəlləyə bilərdimi?
Şəfəq Rzayeva
12.08.2025 13:31
Məqalədə qeyd olunan hadisə, süni intellektin hazırkı imkanları və məhdudiyyətləri haqqında ciddi bir fikir oyadır. Xüsusilə, tibbi məsləhətlər kontekstində, ChatGPT kimi platformaların verdiyi məlumatların dəqiqliyi və təhlükəsizliyi məsələsi ön plana çıxır. Lakin bu cür texnologiyaların sui-istifadə edilməsi və ya səhv istifadə edilməsi, onların potensial faydalarını tamamilə kölgədə qoymamalıdır. Bu hadisə, süni intellektin tibbi sahədə tətbiqinə qarşı bir arqument kimi qəbul edilsə də, texnologiyanın özünün bir qüsuru deyil, istifadəçinin məlumatı necə qiymətləndirdiyi və kimə müraciət etdiyi ilə bağlıdır. Belə bir vəziyyətdə, əsas sual ondan ibarətdir ki, texnologiyadan düzgün istifadə edilərsə, yəni mütəxəssislərin nəzarəti altında və tibbi məlumatları təsdiqləyən mənbələrlə birlikdə istifadə edilsə, bu cür risklər nə dərəcədə azaldıla bilər?
Kamran Mustafayev
12.08.2025 13:29
Məqalədə qeyd olunan hadisə, süni intellektin tibbi məsələlərdə istifadəsinin risklərini dəqiq şəkildə ortaya qoyur. Lakin bu cür səhvlər, əslində süni intellektin təbiətindən daha çox, informasiyanın mənbəyinin və onun tətbiqinin səriştəsizliyindən qaynaqlanır. Belə bir vəziyyətdə, məsələnin "süni intellekt həyatı kabusa çevirdi" demək yerinə, istifadəçinin aldığı məlumatı tənqidi dəyərləndirməməsi və peşəkar tibbi məsləhətə üstünlük verməməsi kimi yanaşmaq daha doğrudur. İstifadəçinin natrium bromid kimi zəhərli bir maddəni duza alternativ olaraq qəbul etməsi, bu cür texnologiyalardan istifadə edərkən məsuliyyətin həm yaradana, həm də istifadə edənə aid olduğunu göstərir. Bəlkə də bu cür məsələlərdə süni intellektin cavablarının "məsləhət" deyil, "informasiya" olaraq etiketlənməsi və peşəkar mənbələrə istinadın tələb olunması kimi mexanizmlər gələcəkdə belə hadisələrin qarşısını ala bilər?
Mehriban Şabanova
12.08.2025 13:28
Məqalədə qeyd olunan hadisə, şübhəsiz ki, süni intellektin səhiyyə sahəsində məsləhətlər verərkən yol açabileceği riskləri vurğulayır. Lakin, problemin əsas səbəbini yalnız istifadə olunan texnologiyada axtarmaq ədalətli olmaya bilər. Xüsusilə, "duzu qida rasionundan tamamilə çıxarmaq" kimi radikal bir qərar qəbul etməzdən əvvəl, peşəkar tibbi məsləhət almağın vacibliyi göz ardı edilmişdir. Süni intellekt, mövcud informasiya bazasını emal edərək cavablar yaradır, lakin bu cavabların hər zaman həkimin fərdi diaqnoz və tövsiyələrinin əvəzi olaraq qəbul edilməsi, təhlükəli nəticələrə gətirib çıxara bilər. Bu cür hallarda, istifadəçinin məsuliyyəti və tibbi maariflənmə səviyyəsi də önəmli bir faktor deyilmi?
Gülnar Mikayılova
12.08.2025 13:28
Məqalədə təsvir olunan hadisə, süni intellektin tibbi məsləhətlər verərkən potensial risklərini vurğulamaq baxımından diqqətəlayiqdir. Qeyd olunan 60 yaşlı vətəndaşın natrium bromidi ilə bağlı təcrübəsi, texnologiyadan istifadə edərkən yaranan təhlükələri aydın şəkildə ortaya qoyur. Bununla belə, gəlin məsələnin bu tərəfini də nəzərə alaq: bu cür halların qarşısını almaq üçün texnologiyanın özündə mövcud olan mexanizmlər və ya müəlliflərin yanaşması haqqında düşünək. Məqalənin müəllifi, bu spesifik məsləhətin necə yarandığına dair əlavə təfərrüatlar təqdim edə bilərdimi? Məsələn, istifadəçinin ilkin sorğusunda əlavə kontekst olubmu, yoxsa ChatGPT-nin məhdudlaşdırıcı mexanizmləri bu cür zərərli məsləhətləri təsbit edə bilmirmi?

Şərh Yaz