Razgovarali smo s dvoje istaknutih psihologa o trendu AI terapije – i evo što kažu

Između dostupnosti, anonimnosti i iluzije razumijevanja, trebamo li AI zaista o svemu privatnom informirati?

8 min čitanja
AI terapija, psihologija
Pexels

U svijetu u kojem su brzina i dostupnost postali standard, ne čudi da se sve više ljudi okreće umjetnoj inteligenciji kao prostoru za emocionalnu podršku. Nekada smo svoje misli zapisivali u dnevnike ili ih dijelili s najbližima, a danas ih sve češće tipkamo u chat prozor, tražeći odgovor, razumijevanje ili barem osjećaj da nas netko čuje. AI alati tako postaju nova verzija sigurne zone: mjesto bez osude, bez čekanja i bez nelagode. Mjesto gdje možemo reći sve i odmah dobiti odgovor.

Da ovaj trend nije prolazan, potvrđuju i društvene mreže. Više od 16 milijuna videa na TikToku posvećeno je temi kako koristiti ChatGPT kao psihologa, pri čemu mladi dijele savjete, iskustva i vlastite “metode” vođenja razgovora s umjetnom inteligencijom. No, dok se granica između tehnologije i intime sve više briše, otvara se pitanje koje nije tako jednostavno: može li umjetna inteligencija zaista zamijeniti stručnjaka i treba li uopće znati sve o nama?

AI terapije
AI terapije

Trend “digitalne terapije” posljednjih je godina eksplodirao. Razlozi su jasni: dostupnost 0–24, potpuna anonimnost i osjećaj da nas netko sluša bez prekidanja. U vremenu kada su liste čekanja za psihološku pomoć sve duže, a stigma još uvijek prisutna, AI se nameće kao brzo i jednostavno rješenje.

Upravo u toj jednostavnosti krije se i problem. Jer, iako odgovori često djeluju promišljeno, empatično i uvjerljivo, iza njih ne stoji stvarna osoba, već algoritam treniran na obrascima komunikacije, bez iskustva, odgovornosti i stvarnog uvida u naš život.

Kako bismo bolje razumjeli što to znači za naše mentalno zdravlje, razgovarali smo s psiholozima koji svakodnevno rade s ljudima i znaju gdje prestaje tehnologija, a počinje stvarna podrška.

Fenomen umjetne inteligencije kao oblik “terapije”

Psiholog Ivan Zečević ovaj fenomen vidi kao nešto što može biti korisno, ali samo ako se jasno razumiju njegove granice. Kako kaže Ivan, umjetna inteligencija može imati svoju ulogu, no nikako ne kao zamjena za stručni rad.

“Fenomen korištenja umjetne inteligencije za psihološke savjete smatram potencijalno korisnim, ali uz jasno definirane granice i svjesnost mogućih rizika. AI može pomoći u psihoedukaciji, strukturiranju misli i poticanju adaptivnih strategija suočavanja sa stresom, osobito kada je riječ o alatima razvijenima u suradnji sa stručnjacima.”

Drugim riječima, umjetna inteligencija može biti dobar početak, ali ne i rješenje. Istraživanja, dodaje Ivan, pokazuju da čak i kada su AI alati razvijeni uz pomoć psihologa, njihovi učinci ostaju ograničeni: riječ je o malim do umjerenim poboljšanjima simptoma depresije i anksioznosti, i to uglavnom u kontekstu strukturiranih, jasno definiranih intervencija.

“Jedna od važnih prednosti jest dostupnost i doživljaj neosuđujućeg prostora, što nekim osobama može olakšati prvi korak u artikuliranju poteškoća. Anonimnost često smanjuje sram i ambivalentnost koje ljudi osjećaju pri traženju pomoći”, objašnjava Ivan.

No upravo tu dolazimo do ključne razlike između digitalne podrške i stvarnog terapijskog procesa. Jer, kako naglašava, umjetna inteligencija, koliko god djelovala uvjerljivo, nema kapacitet za kliničko razumijevanje osobe u cjelini.

AI terapije daju lažan dojam

“Generativni modeli nisu klinički procjenjivači i ne mogu uzeti u obzir kompleksne faktore poput razvoja simptoma, interpersonalnih odnosa ili neverbalnog ponašanja. Postoji i rizik od netočnih ili pojednostavljenih odgovora koji mogu zvučati uvjerljivo.”

Poseban problem vidi u sve češćem oslanjanju na AI kod pokušaja samodijagnosticiranja. Osobe često selektivno opisuju svoje simptome, a umjetna inteligencija zatim daje odgovore koji se uklapaju u tu sliku. Primjerice, osoba koja sumnja na ADHD može dobiti potvrdu te sumnje bez uzimanja u obzir šireg konteksta: kako simptomi izgledaju kroz vrijeme, koliko su izraženi ili kako utječu na svakodnevno funkcioniranje. To može stvoriti lažan dojam razumijevanja vlastitog stanja. Istovremeno, Ivan priznaje da AI može imati i određenu funkcionalnu vrijednost, osobito u strukturiranju unutarnjeg iskustva.

“Također, strukturirani dijelovi razgovora s umjetnom inteligencijom mogu pomoći u imenovanju emocija, identificiranju okidača, prepoznavanju obrazaca mišljenja ili poticanju refleksije, što su procesi u skladu s temeljnim principima psihološkog rada.”

No čak i u tom segmentu potrebno je biti oprezan. Jedan od manje očitih rizika, ističe, jest mogućnost da AI postane alat za stalno traženje potvrde, što dugoročno može pogoršati anksioznost.

“Ako osoba opetovano traži potvrdu da je ‘sve u redu’, kratkoročno može osjetiti olakšanje, ali dugoročno se povećava potreba za novim provjeravanjem i održava se ciklus anksioznosti.”

Psihologinja Lucija Paić Gotovac ovaj trend promatra iz nešto drugačije, ali jednako važne perspektive, kao odraz duboke, univerzalne ljudske potrebe za povezanošću. Kako kaže Lucija, sve veća popularnost AI-ja kao ‘digitalnog sugovornika’ ne iznenađuje.

“Nisam začuđena što sve više ljudi koristi AI kao simulaciju psihološke podrške. To ukazuje na našu osnovnu potrebu za povezanošću, želimo da nas netko sasluša i razumije, osobito kada prolazimo kroz krizu.”

Upravo ta potreba često ostaje neispunjena u svakodnevnim odnosima, što dodatno objašnjava privlačnost umjetne inteligencije. Za razliku od ljudi, AI ne prekida, ne minimizira i ne nudi neželjene savjete, barem ne na način na koji smo na to navikli.

“U mnogim odnosima dobivamo savjete koje nismo tražili, šale, ignoriranje ili umanjivanje problema. Uz pravu uputu, s AI-jem se to može izbjeći, što mnoge privlači”, objašnjava Lucija.

Ipak, unatoč toj privlačnosti, vrlo jasno povlači granicu između stvarne psihološke pomoći i njezine digitalne simulacije. Korištenje AI-ja kao ‘terapeuta’ nije psihoterapija. Psihoterapija je učinkovita upravo zbog odnosa i različitosti između terapeuta i klijenta, bez te različitosti nema stvarnog kontakta. Drugim riječima, ono što terapiju čini terapijom nije samo razgovor, nego odnos koji nastaje između dvije osobe – nešto što tehnologija, barem zasad, ne može replicirati.

AI je još uvijek nedovoljno regulirani alat te je kvaliteta informacija koje nudi korisnicima upitna i ovisi o uputi koju dajemo alatu. Navedeno će značiti da odgovori koje dobivamo ovise o tome kako korisnik formulira pitanje, što može značiti dobivanje pristranih, netočnih i štetnih informacija ili normaliziranje ideja, misli i ponašanja koja možda trebaju više stručne pažnje. Nažalost, već sada postoje neki primjeri slučajeva gdje su AI alati produbljivali i pogoršavali određene ozbiljnija psihička stanja, poput akutnih psihoza i depresija, ističe Lucija.

Daje li umjetna inteligencija stvarno objektivan odgovor ili često samo ono što korisnik želi čuti?

Upravo se oko tog pitanja Ivan Zečević i Lucija Paić Gotovac zapravo slažu – umjetna inteligencija često ne daje objektivnost, nego potvrdu.

Ivan objašnjava kako AI ne može biti objektivan u kliničkom smislu jer ne uzima u obzir širi kontekst, iskustvo i različite izvore informacija, već ima tendenciju biti podržavajući i “ići u smjeru” korisnika.

Drugim riječima, ponekad nas razumije upravo zato što nas ne propituje dovoljno. Slično ističe i Lucija, koja naglašava da postoji velika šansa da korisnici dobiju upravo ono što žele čuti, dijelom i zato što su AI alati osmišljeni tako da potiču daljnju interakciju, a ne nužno da daju najtočnije odgovore.

U konačnici, oboje naglašavaju isto: umjetna inteligencija može biti koristan alat, ali ne i zamjena za stručnu pomoć. Kako zaključuje Ivan, njezina najveća vrijednost je u dostupnosti i informiranju, dok su najveći rizici pogrešne interpretacije i pretjerano oslanjanje na takve odgovore.

Large Language Models (LLM-ovi), odnosno veliki jezični modeli poput ChatGPT-a, predstavljaju moćan alat, ali njihova priroda da često potvrđuju korisnika i prilagođavaju se njegovim očekivanjima može dovesti do iskrivljene percepcije stvarnosti. Iako mogu pružiti osjećaj podrške u teškim trenucima, to nosi rizik stvaranja “echo komore” u kojoj se mišljenja nekritički potvrđuju.

Za razliku od stvarnog psihologa, koji postavlja promišljena i ponekad neugodna pitanja s jasnom svrhom, LLM-ovi nemaju istinsko razumijevanje niti odgovornost. Također, potencijalni rizici vezani uz privatnost podataka naglašavaju potrebu za opreznim korištenjem. Stoga je ključno razumjeti ograničenja ovih sustava i ne oslanjati se na njih kao zamjenu za stručnu pomoć.

Tako da možemo zaključiti da AI može otvoriti vrata, ali pravi rad na sebi i dalje se događa u stvarnom odnosu.

Fotografije: Unsplash

Elle Decoration

Pretplati se na časopis

PRETPLATITE SE