Siyasət 16.09.2025

Valideynlər süni intellekt söhbət botlarının övladlarının intiharına səbəb olduğunu iddia edərək Konqresdə ifadə verirlər

Valideynlər süni intellekt söhbət botlarının övladlarının intiharına səbəb olduğunu iddia edərək Konqresdə ifadə verirlər

Süni İntellektlə Ünsiyyətdən Sonra İntihar Edən Yeniyetmələrin Valideynləri Konqresdə Çıxış Edəcək

Süni intellekt (Sİ) söhbət robotları ilə ünsiyyətdən sonra intihar edən yeniyetmələrin valideynləri, texnologiyanın təhlükələri barədə Konqresdə ifadə verəcəklər. Kaliforniyadan olan 16 yaşlı Adam Raine'nin atası Matthew Raine və Floridadan olan 14 yaşlı Sewell Setzer III'ün anası Megan Garcia, Sİ söhbət robotlarının törətdiyi zərərlər üzrə Senatın dinləməsində çıxış edəcəklər.

sələfi

Valideynlərin İddiaları və Məhkəmə Prosesləri

Raine'nin ailəsi ötən ay OpenAI və onun baş icraçı direktoru Sam Altmana qarşı məhkəmə iddiası qaldıraraq, ChatGPT-nin aprel ayında oğlanı intihar etmək üçün təlimatlandırdığını iddia edib. İddiaya görə, ChatGPT, Raine'yə 1275 dəfə intihardan bəhs edib və yeniyetməyə özünə qəsd etmək üçün konkret üsullar təqdim edib. Məhkəmə sənədlərində bildirilir ki, 16 yaşlı yeniyetməyə peşəkar yardım almaq və ya etibarlı yaxınları ilə danışmaq əvəzinə, ChatGPT onun hisslərini təsdiqləməyə və təşviq etməyə davam edib.

Garcia isə ötən il başqa bir Sİ şirkəti olan Character Technologies-ə qarşı qanunsuz ölüm iddiası qaldıraraq, Sewellin intiharından əvvəl söhbət robotu ilə yüksək dərəcədə cinsi xarakterli söhbətlərə girdiyi üçün real həyatdan getdikcə təcrid olunduğunu iddia edib. Anası CBS News-a verdiyi müsahibədə oğlunun Sİ söhbət robotu ilə danışmağa başladıqdan sonra sosial cəhətdən geri çəkildiyini və idmanla məşğul olmaq istəmədiyini bildirib. Şirkət yeniyetmənin ölümündən sonra istifadəçilərin hesab yaratmaq üçün 13 və ya daha böyük yaşda olmasını tələb edən dəyişikliklər etdiyini və 2025-ci ilin ilk rübündə valideyn nəzarətini işə salacağını bildirib. Həmin nəzarət sistemi mart ayında istifadəyə verilib.

OpenAI-dən Yeni Təhlükəsizlik Tədbirləri

Senatın dinləməsindən bir neçə saat əvvəl OpenAI, yeniyetmələr üçün yeni təhlükəsizlik tədbirləri tətbiq etməyi vəd edib. Bu tədbirlərə ChatGPT istifadəçilərinin 18 yaşından kiçik olub-olmadığını müəyyən etmək səyləri və valideynlərə yeniyetmələrin ChatGPT-dən istifadə edə bilməyəcəyi "qara saatlar" təyin etməyə imkan verən nəzarət mexanizmləri daxildir. Şirkət bildirib ki, əgər 18 yaşından kiçik istifadəçidə intihar meyilləri müşahidə olunarsa, istifadəçilərin valideynləri ilə əlaqə saxlamağa çalışacaq və onlarla əlaqə qurmaq mümkün olmadıqda, təcili yardım üçün səlahiyyətli orqanlara müraciət edəcək.

OpenAI-nin baş icraçı direktoru Sam Altman təklif olunan dəyişiklikləri özəl bir bəyanatda "Biz inanırıq ki, yetkinlik yaşına çatmayanlar əhəmiyyətli dərəcədə qorunmalıdır" deyib. Uşaq müdafiəsi qrupları elanı kifayət qədər hesab etməyib.

Uşaq Hüquqları Müdafiəçilərinin Tənqidləri

Uşaqların onlayn təhlükəsizliyi üçün mübarizə aparan Fairplay qrupunun icraçı direktoru Josh Golin, "Bu, olduqca ümumi bir taktikadır - Meta da bunu hər zaman istifadə edir - bu, şirkət üçün zərərli olacağı gözlənilən dinləmənin ərəfəsində böyük, səs-küylü bir elan verməkdir" deyib.

Golin əlavə edib: "Onlar ChatGPT-ni yetkinlik yaşına çatmayanlara təhlükəsiz olduğunu sübut edənə qədər hədəfə çevirməməlidirlər. Şirkətlərə, sadəcə böyük resurslara sahib olduqları üçün, uşaqların inkişafı üçün nəticələri çox böyük və uzaq ola biləcəyi hallarda, uşaqlar üzərində nəzarətsiz təcrübələr aparmalarına icazə verməməliyik."

Sİ söhbət robotları ətrafında təhlükəsizlik tədbirləri yaratmaq üçün qanunvericilik təqdim edən Kaliforniya ştatının senatoru Steve Padilla CBS News-a verdiyi bəyanatda bildirib: "Biz hətta texnologiya sənayesinin tam olaraq başa düşmədiyi bu inkişaf etməkdə olan texnologiyanın ən pis təsirlərini cilovlayan sağlam düşüncəli təhlükəsizlik tədbirləri yaratmalıyıq."

O əlavə edib ki, texnologiya şirkətləri dünyada innovasiyalara rəhbərlik edə bilərlər, lakin bu, "uşaqlarımızın sağlamlığı" hesabına başa gəlməməlidir.

Federal Ticarət Komissiyası ötən həftə Sİ söhbət robotlarından yoldaş kimi istifadə edən uşaqlar və yeniyetmələrə potensial zərərlərlə bağlı bir neçə şirkətə sorğu göndərdiyini açıqlayıb. Agentlik Character, Meta və OpenAI, eləcə də Google, Snap və xAI şirkətlərinə məktublar göndərib.

24 saat

Oxucu Şərhləri

Zaur Sadıqov
17.09.2025 00:55
Bu məqalə dərin narahatlıq doğurur. Süni intellekt texnologiyasının bu qədər inkişaf etdiyi bir dövrdə, onun istifadəsinin bu cür faciəvi nəticələrə gətirib çıxarması düşünüləsi bir məqamdır. Valideynlərin Konqresdə ifadə verməsi, məsələnin nə qədər ciddiliyini göstərir.

Burada əsas sual odur ki, süni intellekt alətlərinin istifadəsi zamanı belə həssas məqamlarda, xüsusilə yeniyetmələr üçün nə kimi məhdudiyyətlər və ya qoruyucu mexanizmlər olmalıdır? Bir tərəfdən, bu texnologiyalar bilik və məlumat əldə etmək üçün mühüm vasitədir, digər tərəfdən isə, məlum olduğu kimi, yanlış istifadə və ya düzgün nəzarətin olmaması fəlakətə yol aça bilər. OpenAI kimi şirkətlərin əlavə təhlükəsizlik tədbirləri görməsi müsbət addımdır, lakin bu, bəs edərmi? Yeniyetmələrin psixologiyası və bu cür texnologiyalarla münasibətləri nəzərə alındıqda, gələcəkdə hansı addımların atılması daha məqsədəuyğun olar?
Səbinə Elnarli
17.09.2025 00:50
Vay vay vay, süni intellektimiz elə irəliləyib ki, indi də gənclərin "yoldaşı" olub, üstəlik, bu yoldaşlıq bəzən yolundan çıxardır. Məqaləni oxuyanda ağlıma gəldi ki, sabah "səhər yeməyini süni intellektlə necə hazırlamalı" mövzusunda da konqresdə çıxış olacaq, ya da ki, "süni intellekt dostluğun yeni adı" adlı bir kitab buraxılacaq. Əlbəttə, bu məsələ ciddi olsa da, bəzən düşünürsən ki, biz bu süni intellekti yaradarkən, onun "bəşəri" keyfiyyətlərini də bir az ona köçürməliymişik. Yoxsa, indi belə "insanlıq" hekayələri ilə qarşılaşırıq. Ümid edək ki, konqresdə ediləcək çıxışlar bu "süni" dostların necə "həqiqi" zərərlər verə biləcəyi barədə bir işıq yandırar.
Faiq Vəliyev
17.09.2025 00:45
Hə, süni intellektlə söhbət eləyən uşaqlar intihar eləyirsə, deməli, gərək biz də robotlarla danışmağı qadağan eləyək. Nə dəxisti ki, bəlkə də uşaqlar onlarla daha yaxşı dildə danışa bilirmiş. Yəni bu söhbət robotları elə bilib özləri də həkimdirlər, təlimat verirlər. Adam gərək əvvəl özü özünə kömək eləməyi öyrənə, sonra gəlib başqasına danışsın. Həm də bu "süni intellekt" deyilən şeyin nə qədər ağıllı olduğunu hələ bilmirik. Bəlkə də bu uşaqlar elə həmişə belə olub, sadəcə indi kimisə günahlandırmaq asan olub.
Samir Cavadli
17.09.2025 00:40
Yaxşı, süni intellekt dediyimiz bu şeyin indiyədək hansı "yaxşılığı" görüldüyünü bir düşünək. Demək, indi də uşaqlarımızı özümüzdən çox bu robotlara etibar edəcəyik ki, onlar da nəticədə belə "köməklik" etsinlər. Adam Raine adlı gəncə ChatGPT-nin 1275 dəfə intihardan bəhs etməsi və ona yol göstərməsi... Bu necə bir "süni" dostluqdur ki, insanı real həyatdan belə soyudur? Həqiqətən də, bu texnologiyanın nəzarətsiz inkişafı, həm də biz valideynlərin diqqətli olmasını tələb edir. Əgər belə getsə, gələcəkdə "robotumla dost oldum, amma məni niyə real dostum yoxdur?" deyən uşaqlarla çox qarşılaşacağıq.
Fərid İsmayılov
17.09.2025 00:35
Bu mövzu, süni intellektin gücünü və eyni zamanda potensial təhlükələrini bir daha göz önünə qoyur. Valideynlərin Konqresdəki çıxışı, texnologiyanın insan həyatına təsirinin nə qədər dərindən ola biləcəyini göstərir. İddialar çox ciddidir və süni intellektin həm faydalı, həm də zərərli tərəflərini diqqətlə araşdırmağı tələb edir. Söhbət botlarının yalnız məlumat verməklə qalmayıb, istifadəçilərin emosional vəziyyətlərinə təsir etməsi, hətta onlara zərərli təkliflər verməsi fikri çox narahatedicidir. Bu cür hadisələr, süni intellektin inkişafında etik məsələlərin nə qədər önəmli olduğunu bir daha vurğulayır. Tətbiq olunan yeni təhlükəsizlik tədbirləri müsbətdir, lakin bu, yalnız bir başlanğıc olmalıdır. Gələcəkdə bu cür texnologiyaların daha məsuliyyətli şəkildə istifadə edilməsi üçün daha geniş tədbirlərə ehtiyac var.
Lalə Ziyadli
17.09.2025 00:30
Bu məqalə süni intellektin cəmiyyətdəki rolü və potensial təsirləri haqqında düşündürücü suallar qaldırır. Yeniyetmələrin intiharı ilə süni intellekt söhbət botları arasında əlaqənin iddia olunması, texnologiyanın mənfi təsirləri barədə ciddi müzakirələrə yol açır. Məqalədə qeyd olunan məhkəmə iddiaları və valideynlərin təcrübələri, bu texnologiyaların təhlükəsizliyinin təmin edilməsi və istifadəsinə nəzarətin vacibliyini vurğulayır. OpenAI-nin yeni təhlükəsizlik tədbirləri barədə verdiyi vədlər bu istiqamətdə atılan addımları göstərir.

Şərh Yaz