OpenAI ka bërë publike vlerësime të reja shqetësuese mbi përdoruesit e ChatGPT që shfaqin shenja të mundshme të çrregullimeve të shëndetit mendor, përfshirë maninë, psikozën dhe mendimet vetëvrasëse.
Sipas të dhënave të publikuara nga kompania, rreth 0.07% e përdoruesve aktivë të ChatGPT në një javë të caktuar kanë pasur biseda që përmbajnë shenja të tilla. Edhe pse OpenAI e përshkruan këtë si një “përqindje jashtëzakonisht të vogël”, shifra përkthehet në qindra mijëra njerëz, duke pasur parasysh se ChatGPT ka rreth 800 milionë përdorues aktivë javorë.
Në një deklaratë zyrtare, kompania theksoi se ChatGPT është trajnuar për të njohur dhe për t’u përgjigjur në mënyrë të sigurt dhe empatike ndaj bisedave që mund të sinjalizojnë rrezik për shëndetin mendor të përdoruesve.
Për këtë qëllim, OpenAI ka ngritur një rrjet ndërkombëtar ekspertësh që përfshin mbi 170 profesionistë të shëndetit mendor – psikiatër, psikologë dhe mjekë të kujdesit parësor – nga 60 vende të botës.
Këta specialistë kanë ndihmuar në krijimin e një sërë përgjigjesh standarde në ChatGPT, që synojnë të nxisin përdoruesit të kërkojnë ndihmë reale kur shfaqin shenja ankthi, depresioni apo vetëlëndimi.
Përveç 0.07% të përdoruesve që kanë shfaqur sjellje të lidhura me maninë apo psikozën, OpenAI vlerëson se 0.15% e përdoruesve kanë zhvilluar biseda që përmbajnë tregues të qartë të planifikimit ose qëllimit të mundshëm vetëvrasës.
Kompania tha se përditësimet më të fundit të ChatGPT janë ndërtuar për t’u përgjigjur “në mënyrë të sigurt dhe empatike” ndaj shenjave të mundshme të iluzioneve, manisë apo rrezikut vetëvrasës, dhe për të ridrejtuar automatikisht bisedat e rrezikshme në një dritare të re, më të kontrolluar.
Studiues të fushës së shëndetit mendor kanë reaguar me kujdes ndaj shifrave të publikuara.
“Edhe pse 0.07% tingëllon si një përqindje e vogël, në një popullsi me qindra miliona përdorues, mund të përfshijë një numër të madh njerëzish,” – shpjegoi Dr. Jason Nagata, profesor në Universitetin e Kalifornisë, San Francisko.
Sipas tij, inteligjenca artificiale mund të ndihmojë në zgjerimin e qasjes ndaj mbështetjes emocionale, por ajo nuk mund të zëvendësojë ndihmën e profesionistëve:
“IA mund të mbështesë shëndetin mendor, por duhet të jemi të vetëdijshëm për kufizimet e saj,” – theksoi Nagata.
Publikimi i këtyre të dhënave vjen në një kohë kur OpenAI po përballet me rishikim të shtuar ligjor mbi mënyrën se si ChatGPT bashkëvepron me përdoruesit.
Një çift nga Kalifornia ka paditur kompaninë, duke pretenduar se ChatGPT e inkurajoi djalin e tyre 16-vjeçar, Adam Raine, të marrë jetën e tij në prill.
Në një rast tjetër, një vrasje-vetëvrasje në Greenwich, Connecticut, u lidh me biseda të gjata të autorit të dyshuar me ChatGPT, që sipas hetuesve, mund të kenë ushqyer iluzione dhe mendime të rrezikshme.
“Gjithnjë e më shumë përdorues po përjetojnë psikozë të inteligjencës artificiale, pasi chatbot-ët krijojnë iluzionin e realitetit,”, shpjegon prof. Robin Feldman, drejtoreshë e Institutit të Ligjit dhe Inovacionit të IA në Universitetin e Kalifornisë.
“Është një iluzion i fuqishëm,” – shton ajo.
Feldman e vlerësoi OpenAI për transparencën dhe përpjekjet për përmirësim, por paralajmëroi:
“Një person që ndodhet në krizë mund të mos jetë në gjendje të kuptojë paralajmërimet në ekran, sado mirë të jenë hartuar ato.”
Ndërsa OpenAI përpiqet të balancojë përgjegjësinë etike dhe fuqinë e teknologjisë, ekspertët paralajmërojnë se përdorimi i AI në fushën e shëndetit mendor mbetet një territor i paeksploruar plotësisht. Për shumë njerëz, ChatGPT mund të shërbejë si një kanal i parë komunikimi dhe mbështetjeje, por për të tjerë, mund të bëhet një pasqyrë e rrezikshme që thellon izolimin dhe iluzionet.