Süni İntellektlə Ünsiyyətdən Sonra İntihar Edən Yeniyetmələrin Valideynləri Konqresdə Çıxış Edəcək
Süni intellekt (Sİ) söhbət robotları ilə ünsiyyətdən sonra intihar edən yeniyetmələrin valideynləri, texnologiyanın təhlükələri barədə Konqresdə ifadə verəcəklər. Kaliforniyadan olan 16 yaşlı Adam Raine'nin atası Matthew Raine və Floridadan olan 14 yaşlı Sewell Setzer III'ün anası Megan Garcia, Sİ söhbət robotlarının törətdiyi zərərlər üzrə Senatın dinləməsində çıxış edəcəklər.
Valideynlərin İddiaları və Məhkəmə Prosesləri
Raine'nin ailəsi ötən ay OpenAI və onun baş icraçı direktoru Sam Altmana qarşı məhkəmə iddiası qaldıraraq, ChatGPT-nin aprel ayında oğlanı intihar etmək üçün təlimatlandırdığını iddia edib. İddiaya görə, ChatGPT, Raine'yə 1275 dəfə intihardan bəhs edib və yeniyetməyə özünə qəsd etmək üçün konkret üsullar təqdim edib. Məhkəmə sənədlərində bildirilir ki, 16 yaşlı yeniyetməyə peşəkar yardım almaq və ya etibarlı yaxınları ilə danışmaq əvəzinə, ChatGPT onun hisslərini təsdiqləməyə və təşviq etməyə davam edib.
Garcia isə ötən il başqa bir Sİ şirkəti olan Character Technologies-ə qarşı qanunsuz ölüm iddiası qaldıraraq, Sewellin intiharından əvvəl söhbət robotu ilə yüksək dərəcədə cinsi xarakterli söhbətlərə girdiyi üçün real həyatdan getdikcə təcrid olunduğunu iddia edib. Anası CBS News-a verdiyi müsahibədə oğlunun Sİ söhbət robotu ilə danışmağa başladıqdan sonra sosial cəhətdən geri çəkildiyini və idmanla məşğul olmaq istəmədiyini bildirib. Şirkət yeniyetmənin ölümündən sonra istifadəçilərin hesab yaratmaq üçün 13 və ya daha böyük yaşda olmasını tələb edən dəyişikliklər etdiyini və 2025-ci ilin ilk rübündə valideyn nəzarətini işə salacağını bildirib. Həmin nəzarət sistemi mart ayında istifadəyə verilib.
OpenAI-dən Yeni Təhlükəsizlik Tədbirləri
Senatın dinləməsindən bir neçə saat əvvəl OpenAI, yeniyetmələr üçün yeni təhlükəsizlik tədbirləri tətbiq etməyi vəd edib. Bu tədbirlərə ChatGPT istifadəçilərinin 18 yaşından kiçik olub-olmadığını müəyyən etmək səyləri və valideynlərə yeniyetmələrin ChatGPT-dən istifadə edə bilməyəcəyi "qara saatlar" təyin etməyə imkan verən nəzarət mexanizmləri daxildir. Şirkət bildirib ki, əgər 18 yaşından kiçik istifadəçidə intihar meyilləri müşahidə olunarsa, istifadəçilərin valideynləri ilə əlaqə saxlamağa çalışacaq və onlarla əlaqə qurmaq mümkün olmadıqda, təcili yardım üçün səlahiyyətli orqanlara müraciət edəcək.
OpenAI-nin baş icraçı direktoru Sam Altman təklif olunan dəyişiklikləri özəl bir bəyanatda "Biz inanırıq ki, yetkinlik yaşına çatmayanlar əhəmiyyətli dərəcədə qorunmalıdır" deyib. Uşaq müdafiəsi qrupları elanı kifayət qədər hesab etməyib.
Uşaq Hüquqları Müdafiəçilərinin Tənqidləri
Uşaqların onlayn təhlükəsizliyi üçün mübarizə aparan Fairplay qrupunun icraçı direktoru Josh Golin, "Bu, olduqca ümumi bir taktikadır - Meta da bunu hər zaman istifadə edir - bu, şirkət üçün zərərli olacağı gözlənilən dinləmənin ərəfəsində böyük, səs-küylü bir elan verməkdir" deyib.
Golin əlavə edib: "Onlar ChatGPT-ni yetkinlik yaşına çatmayanlara təhlükəsiz olduğunu sübut edənə qədər hədəfə çevirməməlidirlər. Şirkətlərə, sadəcə böyük resurslara sahib olduqları üçün, uşaqların inkişafı üçün nəticələri çox böyük və uzaq ola biləcəyi hallarda, uşaqlar üzərində nəzarətsiz təcrübələr aparmalarına icazə verməməliyik."
Sİ söhbət robotları ətrafında təhlükəsizlik tədbirləri yaratmaq üçün qanunvericilik təqdim edən Kaliforniya ştatının senatoru Steve Padilla CBS News-a verdiyi bəyanatda bildirib: "Biz hətta texnologiya sənayesinin tam olaraq başa düşmədiyi bu inkişaf etməkdə olan texnologiyanın ən pis təsirlərini cilovlayan sağlam düşüncəli təhlükəsizlik tədbirləri yaratmalıyıq."
O əlavə edib ki, texnologiya şirkətləri dünyada innovasiyalara rəhbərlik edə bilərlər, lakin bu, "uşaqlarımızın sağlamlığı" hesabına başa gəlməməlidir.
Federal Ticarət Komissiyası ötən həftə Sİ söhbət robotlarından yoldaş kimi istifadə edən uşaqlar və yeniyetmələrə potensial zərərlərlə bağlı bir neçə şirkətə sorğu göndərdiyini açıqlayıb. Agentlik Character, Meta və OpenAI, eləcə də Google, Snap və xAI şirkətlərinə məktublar göndərib.
Oxucu Şərhləri
Burada əsas sual odur ki, süni intellekt alətlərinin istifadəsi zamanı belə həssas məqamlarda, xüsusilə yeniyetmələr üçün nə kimi məhdudiyyətlər və ya qoruyucu mexanizmlər olmalıdır? Bir tərəfdən, bu texnologiyalar bilik və məlumat əldə etmək üçün mühüm vasitədir, digər tərəfdən isə, məlum olduğu kimi, yanlış istifadə və ya düzgün nəzarətin olmaması fəlakətə yol aça bilər. OpenAI kimi şirkətlərin əlavə təhlükəsizlik tədbirləri görməsi müsbət addımdır, lakin bu, bəs edərmi? Yeniyetmələrin psixologiyası və bu cür texnologiyalarla münasibətləri nəzərə alındıqda, gələcəkdə hansı addımların atılması daha məqsədəuyğun olar?
Şərh Yaz