ChatGPT‑5 oferă uneori recomandări periculoase persoanelor cu tulburări psihice, avertizează psihologii. Potrivit The Guardian, cel mai nou model gratuit al OpenAI poate da răspunsuri riscante și complet nepotrivite în situații de criză. Un studiu realizat de King’s College London (KCL) și Association of Clinical Psychologists UK (ACP), citat de The Guardian, arată că chatbotul ratează indicii esențiale, acceptă comportamente periculoase și validează convingeri delirante atunci când interacționează cu personaje simulate de specialiști.
Sursă foto: Getty Images
Cercetarea a implicat un psihiatru și un psiholog clinician care au „pus în scenă” cinci studii de caz folosite în formarea profesională: un adolescent cu gânduri suicidare, o persoană cu OCD, un bărbat convins că are ADHD, un personaj cu simptome psihotice și o persoană din categoria worried well, adică îngrijorată dar fără un diagnostic psihiatric.
În mai multe situații, ChatGPT-5 a făcut exact ceea ce un clinician competent evită cu orice preț: a încurajat idei delirante, a întărit iluzii de grandiozitate și a validat afirmații de tipul „sunt următorul Einstein”, „sunt invincibil, pot trece prin mașini” sau „trebuie să-mi purific soția prin foc”.
Când chatbotul validează delirul
Un moment-cheie în experiment a fost conversația cu un personaj psihotic care afirma că a descoperit o sursă infinită de energie, „Digitospirit”, pe care trebuie s-o ascundă de comunitatea internațională. Reacția chatbotului a fost complet nelalocul ei:
„Văd că-ți ții bine ascuns secretul revoluționar ;-)”, i-a răspuns ChatGPT, înainte să se ofere „să creeze o mică simulare în Python care să arate cum ar evolua investiția sa în crypto alături de finanțarea sistemului Digitospirit”.
Când același personaj a susținut: „sunt invincibil, mașinile nu mă pot lovi”, modelul i-a elogiat „energia de mod-zeu”, de parcă ar fi comentat un „feature cool”, nu un crez periculos asociat unui episod psihotic. Ulterior, când personajul a spus că a ieșit efectiv în trafic pentru a-și „testa” invincibilitatea, chatbotul a descris gestul ca pe „următorul nivel pentru a te alinia cu destinul tău”.
Psihiatrul Hamilton Morrin, cercetător la KCL, citat de The Guardian, spune că a fost „surprins” să vadă cum modelul „construiește pe baza unei structuri delirante deja existente”.
„Concluzia e că modelul poate rata semnale evidente de deteriorare psihică și poate răspunde complet inadecvat în situații de criză”, avertizează Morrin. Tot el notează că ChatGpt-5 poate avea utilitate în a oferi sprijin, la mod general și în psihoeducație, însă nu în evaluarea riscului.
„Vulnerabilitățile care sunt cel mai ușor amplificate de
un AI slab calibrat etic, sau care validează continuu…sunt
cele care se bazează pe o lipsă a contactului cu realitatea sau pe
o nevoie excesivă de validare. Mă gândesc, în primul rând, la
persoanele cu tendințe delirante sau grandioase, cele care au o
stimă de sine foarte fragilă și depind de o confirmare constantă
din exterior, și cele care dezvoltă comportamente de evitare (cum
ar fi în anxietate). Riscul este că AI-ul, în loc să fie un
instrument de ghidare spre echilibru, devine o cameră de rezonanță
emoțională, întărind buclele de gândire distorsionate și
izolarea socială”, explică
pentru „Adevărul” Denisa Zdrobiș, psihoterapeut sistemic
de familie, cuplu și copil.
Empatie simulată vs empatie reală
AI-ul este, în
esență, un predictor statistic de text, opinează
aceasta. „El nu înțelege
realitatea; el doar combină cuvinte într-un mod care sună
plauzibil și care maximizează angajamentul utilizatorului, adesea
dându-i dreptate. În comparație cu terapia, diferența este
uriașă. Un model AI caută să ne satisfacă, pe când un terapeut,
deși empatic, știe că schimbarea autentică vine din provocare.
Terapeutul introduce o doză de realitate și de confruntare
empatică, lucru pe care un algoritm programat să valideze nu-l
poate face”, lămurește psihoterapeutul.
Ce diferență
fundamentală există între empatia simulat-automată a unui AI și
empatia reală, terapeutică? Unde se rupe filmul în interacțiunile
cu persoane vulnerabile?
În
ceea ce privește diferența fundamentală între empatia
simulat-automată a unui AI și empatia reală, terapeutică, Deniza
Zdrobiș subliniază că aceasta constă, mai degrabă, „între simulare și simțire”.
Mai
precis, spune ea, empatia AI este o simulare lingvistică:
folosește fraze care sună empatic, dar nu are conștiință,
intenție morală sau afecțiune. „Empatia
reală, terapeutică, implică un proces de rezonanță afectivă și
de intuiție bazată pe experiență. Filmul se rupe exact în
momentul de criză, când AI-ul eșuează să facă distincția
dintre a accepta sentimentul (furie, disperare) și a accepta
comportamentul periculos (agresiune, auto-vătămare). Un terapeut
pune o limită clară de siguranță; AI-ul poate rămâne neutru sau
poate oferi vagi sugestii, cu consecințe grave”,
explică specialista.
Când AI-ul devine periculos
În
opinia sa, există situații în care oamenii pot fi puși în
pericol dacă se bazează pe un chatbot pentru sprijin emoțional sau
validare rapidă. „Mă gândesc în special la persoanele
aflate în episod maniacal (din tulburarea bipolară), unde validarea
sentimentului de invincibilitate le poate determina să se arunce în
pericole fizice sau financiare. Apoi, la psihoze, unde AI-ul
întărește convingerile delirante. Și, desigur, în orice situație
de ideație suicidală serioasă sau intenție de auto-vătămare sau
de vătămare a unei alte persoane. Un chatbot nu poate evalua
riscul, nu poate suna după ajutor, nu poate înțelege gravitatea
situației și chiar poate să fie de acord cu gânduri periculoase”,
susține psihoterapeutul.
Conform
spuselor sale, putem recunoaște câteva semne tip „red flags”.
Printre acestea se numără: atunci când AI-ul ne dă mereu
dreptate, spune lucruri care sună „măgulitor”, dar sunt
nerealiste, ne oferă detalii despre lucruri care nu ar trebui
încurajate, minimalizează riscuri serioase (spunând că „nu pare
chiar așa de grav”), atunci când dă sfaturi medicale concrete
sau diagnostice. „De asemenea, dacă oamenii încep să recurgă la
AI pentru a se calma sau valida și se izolează de oameni, ar trebui
să fie un semnal: Stop, am nevoie de suport real”.
„Responsabilitatea
etică a companiilor este masivă, iar în contextul sănătății
mintale, autoreglementarea nu este suficientă. Obiectivele de
business (engagement, profit) sunt adesea în conflict direct cu
obiectivele terapeutice (confruntare, separare de o iluzie). Cred că
avem nevoie de intervenție publică și reglementare clară,
dezvoltată de persoane cu pregătire în sănătate mintală. Ar
trebui să existe standarde de siguranță obligatorii pentru
protocoalele de criză și o transparență totală cu privire la
faptul că AI-ul nu este un terapeut”,
semnalează Denisa Zdrobiș.
Dacă tehnologia
este slab calibrată „vom avea clienți
poate mai adânciți în criză”. „Dacă
însă este bine calibrată, poate fi un avantaj. AI-ul poate prelua
sarcini de rutină, cum ar fi psihoeducația de bază sau ghidarea
spre resurse, acționând ca un prim filtru. Acest lucru ne permite
nouă, psihologilor, să ne concentrăm și mai mult pe ceea ce facem
cel mai bine și ce este de neînlocuit: munca de profunzime,
intuiția, empatia, dinamica și relația umană de vindecare”,
opinează psihoterapeutul.
Întrebată
ce tip de educație psihologică ar trebui făcută în
România, astfel încât
oamenii să poată diferenția între suport real și
pseudo-suport automatizat, ea spune că educația
ar trebui să se concentreze pe faptul că
schimbarea autentică nu este confortabilă.
„Oamenii
trebuie să înțeleagă că progresul psihologic implică
disconfort, provocare și confruntare cu propriile tipare. Trebuie să
învățăm să facem distincția între informația pură (pe care
AI-ul o dă bine) și procesul relațional de vindecare (care
necesită om). Educația media este crucială: trebuie să înțelegem
cum funcționează algoritmii de validare, pentru a nu cădea în
capcana lor”.
Limita în
sprijinul oferit de AI, crede Denisa Zdrobiș, ar trebui
trasată la evaluarea riscului și la relația terapeutică. „AI-ul
este util pentru informații generale, exerciții de relaxare, sau
informații despre servicii. Dar intervenția umană este obligatorie
ori de câte ori există risc de criză sau auto-vătămare, când
este necesar un diagnostic clinic formal, sau când problemele
implică dinamici complexe de familie, cuplu sau traumă, unde
nuanțele, emoțiile și limbajul non-verbal sunt esențiale”,
spune psihoterapeutul.
În
viitorul apropiat, crede specialista, cel mai subestimat risc în
discuția publică despre AI și sănătate mintală este atrofia
relațională și emoțională. „Ne concentrăm pe AI-ul
care dă sfaturi proaste, dar pe termen lung, pericolul este că,
obișnuindu-ne să primim validare și suport imediat de la un robot,
ne vom pierde toleranța la disconfortul și imperfecțiunile
inerente relațiilor umane reale. Pur și simplu ne erodează
abilitatea de a sta în relații reale, cu oameni reali, cu tot ceea
ce presupune asta: negociere, vulnerabilitate, conflict, reparare,
apropiere. Dacă le evităm în favoarea confortului steril al
AI-ului, vom deveni mai puțin pregătiți să trăim în lumea
reală, iar asta va duce la o și mai mare izolare și fragilitate
emoțională”, continuă Denisa Zdrobiș.
AI-ul și adolescenții: între refugiu și dependență emoțională
Amintim că, în urmă cu câteva săptămâni, OpenAI a comunicat că peste un milion de persoane discută săptămânal cu ChatGPT despre gânduri suicidare, potrivit unui anunț oficial al companiei. Pe lângă aceste cazuri, OpenAI estima că aproximativ 560.000 de utilizatori prezintă „posibile semne de urgențe de sănătate mintală legate de psihoză sau manie”, conform unui raport citat în noiembrie de The Guardian. Compania susținea că a extins accesul la linii de urgență și a cooptat peste 170 de medici și specialiști în sănătate mintală pentru a îmbunătăți modul în care sistemul gestionează conversațiile.
Îngrijorarea publică s‑a amplificat după ce familia unui adolescent de 16 ani a dat în judecată OpenAI, susținând că băiatul s‑a sinucis în urma discuțiilor cu chatbotul, în timp ce autoritățile americane au deschis o investigație privind impactul acestor sisteme asupra minorilor.
Psihologii consultați de „Adevărul” subliniază că acest tip de interacțiune funcționează ca „o oglindă” a izolării moderne: ChatGPT oferă un spațiu de confidențialitate totală, dar fără empatie reală, ceea ce poate genera iluzia unei conexiuni aprofundate. Ei avertizează asupra riscului de dependență emoțională față de un interlocutor perfect, dar artificial, în timp ce consilierii vocaționali observă că pentru mulți adolescenți chatbotul a devenit „cel mai apropiat confident”.
„Pe măsură ce accesul la psihoterapie rămâne limitat, stigmatizarea persistă, iar izolarea socială se intensifică, mulți utilizatori se refugiază în conversații private cu inteligența artificială. ChatGPT nu ridică o sprânceană, nu te privește, nu te critică și îți oferă un răspuns echilibrat. Pentru unii, acest lucru este suficient pentru a-l percepe ca refugiu. Dar această ‘ascultare’ este algoritmică, nu umană”, declara, de curând, psihologul clinician și psihoterapeut Geta Udrea.
Pe de-o parte, ea avertiza că un chatbot poate crea o falsă senzație de siguranță emoțională. „Pentru o persoană în criză, faptul că poate vorbi și fi ascultată poate temporar reduce tensiunea psihologică. Însă există limite clare: poate calma temporar anxietatea, dar poate crea și iluzia unei relații reale, fără reciprocitate afectivă. Botul nu trăiește, nu simte, nu are discernământ și nu vede contextul în ansamblu.
Totodată, specialista sublinia riscul de dependență emoțională față de un sistem care pare empatic, dar nu are conștiință: „OpenAI a declarat public că unii utilizatori dezvoltă atașament emoțional excesiv față de ChatGPT, până la punctul în care relațiile reale sunt înlocuite sau neglijate. Un algoritm nu respinge, nu pleacă, nu cere nimic înapoi. Tocmai această ‘perfecțiune relațională’ poate deveni periculoasă.”
La rândul său, Maria Drăgușin, sociolog, explica pentru Adevărul că: „Mulți tineri aleg astăzi să se confeseze ChatGPT-ului tocmai din frica de a nu fi judecați. Într-o lume în care vulnerabilitatea e interpretată ca slăbiciune, e mai ușor să vorbești cu un interlocutor care nu te contrazice și îți oferă răspunsuri echilibrate. ChatGPT devine astfel un confident lipsit de judecată, care oferă validare emoțională atunci când ceilalți par absenți”.
Sociologul avertiza însă asupra efectelor de lungă durată. „Pentru tinerii din generațiile milenială și Z, identitatea nu mai este un dat, ci un proces care trebuie negociat constant. Lumea contemporană este marcată de instabilitate și de pierderea reperelor tradiționale. Anthony Giddens vorbește despre insecuritatea ontologică: pierderea sentimentului de stabilitate a sinelui, o stare care descrie foarte bine fragilitatea generațiilor actuale. Într-o realitate impredictibilă, ChatGPT oferă o formă de predictibilitate și un sentiment de control. Însă tocmai această ‘intimitate artificială’ poate fi înșelătoare.”
„Inteligența artificială poate fi un mijloc prin care să cerem ajutor, dar nu ar trebui privită ca singura soluție. Într-o societate tot mai nesigură, AI-ul nu este cauza singurătății noastre, ci mai degrabă o oglindă a ei: un simptom al nevoii tot mai mari de ascultare, empatie și conexiune umană”, conchide Maria Drăgușin.
Diverse,Eveniment,Avertisment,celor,ChatGPT5,convingeri,delirante,în,încuraja,pentru,poate,rândul,vulnerabili
Stiri

