Știri

Oamenii ăștia au folosit ChatGPT pe post de terapeut

Experții în sănătate mintală sunt îngrijorați că tot mai mulți oameni recurg la discuții terapeutice cu chatbot-ul OpenAI, din cauză că terapia costă prea mult.
oameni care folosesc chatgpt terapie, chatgpt terapeut
Tot mai mulți oameni au ajuns să apeleze la inteligența artificială pentru a-și rezolva problemele emoționale. Dar cât de okay e, totuși, să faci terapie cu un robot? Fotografie via Getty Images

În februarie, Dan*, un bărbat de 37 de ani din New Jersey, a început să folosească ChatGPT ca să scrie povești. Inițial, l-a fascinat potențialul creativ al inteligenței artificiale, dar, până la urmă, a început să discute cu chatbot-ul despre experiențele din viața lui.

Publicitate

Terapeutul lui, care îl ajuta să își rezolve problemele legate de traume și de job, îi sugerase să încerce să-și schimbe perspectiva asupra evenimentelor care îl supărau – o tehnică numită reformulare cognitivă. „Nu eram deloc bun la asta. Cum să-mi imaginez lucrurile altfel când sunt furios? Cum să mă prefac că n-am fost nedreptățit și abuzat?”, își amintește Dan.

Dar ChatGPT putea face asta fără probleme și îi oferea răspunsuri pe care terapeutul nu i le putea oferi. Dan a avut numai cuvinte bune de spus despre experiența terapeutică cu chatbot-ul. Practic, avea parte de terapie gratuit, din confortul propriei case. În schimb, a recunoscut că stătea treaz până la 4 dimineața ca să-i împărtășească problemele, un obicei care o îngrijora pe soția lui.

Dan nu e singurul care a apelat la inteligența artificială pentru a-și rezolva problemele emoționale.

Acești roboți au devenit foarte populari în ultima vreme, pentru că sunt foarte informați și vorbesc foarte uman și fac oamenii să creadă că pot fi chiar terapeuții lor. De altfel, rețelele sociale sunt pline de anecdote și postări ale oamenilor care spun că au început să folosească ChatGPT pe post de terapeut.

În ianuarie, Koko, o aplicație de sănătate mintală, a stârnit un scandal după ce a dezvăluit că a înlocuit voluntarii pe care îi foloseau până atunci cu tehnologie GPT-3. Conform co-fondatorului Robert Morris, utilizatorii nu și-au dat seama de diferență, ba mulți chiar au dat un rating foarte mare conversațiilor, mai mare decât rating-ul oferit persoanelor reale.

Publicitate

Nu toate știrile legate de AI sunt așa optimiste: În Belgia, de exemplu, o văduvă a declarat că soțul ei s-a sinucis pentru că un chatbot AI l-a încurajat să facă asta.

Cum tot mai mulți oameni au nevoie de terapie și nu au bani pentru asta, pare că ChatGPT e o opțiune bună. Dar industria sănătății mintale oferă uneori soluții care nu sunt centrate pe interesul pacienților.

În 1966, omul de știință german-american Joseph Weizenbaum a dirijat un experiment la MIT. ELIZA, cunoscut ca primul robot terapeutic din lume, a fost creat ca să parodieze terapeuții și să arate superficialitatea interacțiunilor om-computer, dar a ajuns foarte iubit de utilizatori.

Rolul tehnologiei în relația pacient-terapeut e aproape la fel de veche precum istoria terapiei, spune Hannah Zeavin în cartea ei „The Distance Cure”. Ea spune că oamenii cu venituri mici au găsit ajutor terapeutic de-a lungul istoriei doar prin linii telefonice de criză sau prin radio.

Problema e că nu e clar cum va fi integrat ChatGPT în viitorul sănătății mintale și nici cum va adresa OpenAI problemele legate de confidențialitatea datelor. Nici măcar nu se știe cât de potrivit e un chatbot să ajute oamenii cu probleme grave de sănătate mintală.

Gillian, o secretară de 27 de ani din Washington, a început să folosească ChatGPT în scopuri terapeutice pentru că după inflație i-au scăzut veniturile și nu-și permitea să-și mai plătească terapeutul. „Chiar dacă am primit sfaturi bune de la ChatGPT, nu mă simțeam consolată. Spunea cuvinte frumoase, dar lipsite de conținut. Nu cred că pot oferi subtilitățile pe care ți le oferă un terapeut.”

Publicitate

Pentru majoritatea, chatboții AI sunt un supliment la terapie, nu o înlocuiesc total. Dan, de exemplu, a zis că se folosește de asta doar în caz de urgență. „AI e un instrument minunat și cred că ar putea ajuta multe persoane cu venituri mici. Dar e mai mult un pansament decât un înlocuitor pentru terapia reală. Dar poate ajuta pe cineva să treacă peste un moment de criză”, a zis el.

Jacqueline Nesi, psiholog și profesor la Universitatea Brown care studiază rolul rețelelor sociale în dezvoltarea mentală a adolescenților, a avertizat că ChatGPT nu ar trebui folosit în scopuri medicale sau pentru a pune diagnostice. În plus, nu poate oferi o relație bazată pe încredere, așa cum face un terapeut.

„Deși un utilizator poate avea senzația că are o relație terapeutică cu ChatGPT, se pierde totuși ceva atunci când la celălalt capăt nu e o persoană reală”.

Confidențialitatea e în mâinile fondatorilor și a inginerilor AI. ChatGPT gestionează prost informațiile ambigue și face cu ușurință presupuneri discriminatorii și subiective – ceea ce distruge încrederea utilizatorilor în acest instrument.

În martie, Distributed AI Research Institute (DAIR) a publicat un avertisment în care spunea că boții AI „reproduc sistemele de opresiune și pun în pericol ecosistemul de informații”. Într-un articol recent din MIT Technology Review, autoarea Jessica Hamzelou a dezvăluit că sistemele AI din sistemul de sănătate aplică forțat paternalismul medical și ignoră nevoile pacienților.

Publicitate

„Comunitățile marginalizate, inclusiv populația rurală, sunt cele care nu au acces la servicii de sănătate mintală, așa că au cele mai mari șanse să recurgă la ChatGPT, dacă au acces la tehnologie”, a zis Jessica Gold, psihiatră la Washington University din St. Louis. 

Practic, ChatGPT e o sabie cu două tăișuri – e accesibil, dar oferă servicii de calitate chestionabilă.

Amanda Calhoun, expertă în efectele rasismului asupra sistemului de sănătate mintală, a spus despre calitatea terapiei oferite de Chat GPT că depinde de cum a fost modelat acesta. „Dacă se bazează pe baze de date concentrate pe persoane albe, nu poate ajuta persoanele de culoare sau persoanele trans.”

Toți experții în sănătate mintală care au vorbit cu Motherboard au zis că, deși ChatGPT pune în pericol confidențialitatea utilizatorilor, e mai bun decât nimic, având în vedere că industria sănătății mintale e în criză. Emma Dowling, autoarea „The Care Crisis”, e de părere că utilizarea ChatGPT pentru terapie e o posibilă modalitate prin care oamenii încearcă să se repare fără să apeleze la metoda tradițională. Practic, e la fel ca aplicațiile sau manualele de self-care.

La lansarea recentă GPT-4, OpenAI a afirmat că a colaborat cu „cincizeci de experți din domenii precum riscurile AI, securitate cibernetică, biorisc, încredere și confidențialitate” ca să îmbunătățească securitatea, dar tot nu e clar cum vor fi implementate toate astea, dacă vor fi, pentru persoanele care au nevoie de ajutor pe planul sănătății mintale.

*Numele persoanelor din articol au fost schimbate pentru a le proteja identitatea.