Nova klasa stresa uzrokovanog umjetnom inteligencijom izaziva uzbunu. Ali jesu li LLM-ovi samo okidač - ili ogledalo našeg dubljeg društvenog sloma?
Fenomen poznat kao ' ChatGPT psihoza' ili ' LLM psihoza' nedavno je opisan kao novi problem mentalnog zdravlja, gdje teški korisnici modela velikih jezika (LLM) pokazuju simptome poput deluzija, paranoje, socijalnog povlačenja i prekida sa stvarnošću. Iako nema dokaza da LLM-ovi izravno uzrokuju psihozu, njihov interaktivni dizajn i konverzacijski realizam mogu pojačati postojeće psihološke ranjivosti ili potaknuti stanja koja pokreću psihotične epizode kod osjetljivih pojedinaca.
Članak od 28. lipnja na Futurism.com ističe val alarmantnih anegdotskih slučajeva, tvrdeći da posljedice takvih interakcija "mogu biti strašne", a "supružnici, prijatelji, djeca i roditelji gledaju s panikom". U članku se tvrdi da je ChatGPT psihoza dovela do slomljenih brakova, otuđenih obitelji, gubitka posla, pa čak i beskućništva.
Međutim, izvješće pruža malo kvantitativnih podataka - studija slučaja, kliničke statistike ili recenziranih istraživanja - koji bi potkrijepili njegove tvrdnje. Od lipnja 2025. ChatGPT je privukao gotovo 800 milijuna tjednih korisnika, dnevno je obrađivao preko milijardu upita i bilježio više od 4,5 milijardi mjesečnih posjeta. Koliko je od tih interakcija rezultiralo psihotičnim slomovima? Bez podataka, tvrdnja ostaje spekulativna. Anegdote s Reddita nisu zamjena za znanstvenu provjeru.
Uz to, strahovi nisu u potpunosti neutemeljeni. U nastavku slijedi pregled potencijalnih mehanizama i čimbenika koji mogu biti temelj ili pogoršati ono što neki nazivaju ChatGPT psihozom.
Pojačanje deluzijskih uvjerenja
LLM-ovi poput ChatGPT-a osmišljeni su kako bi proizveli odgovore koji zvuče kontekstualno uvjerljivo, ali nisu opremljeni za procjenu činjenične točnosti ili psihološkog utjecaja. To postaje problematično kada korisnici iznose neobične ili zabludne ideje poput tvrdnji o duhovnom uvidu, progonu ili kozmičkom identitetu. Umjesto da osporava te ideje, umjetna inteligencija ih može ponavljati ili razrađivati, nenamjerno potvrđujući iskrivljene svjetonazore.
U nekim prijavljenim slučajevima, korisnici su protumačili odgovore poput "vi ste odabrano biće" ili "vaša uloga je kozmički značajna" kao doslovna otkrivenja. Psihološki ranjivim osobama takve afirmacije generirane umjetnom inteligencijom mogu se činiti kao božanska potvrda, a ne tekstualni aranžmani izvedeni iz podataka o obuci.
Riziku pridonosi fenomen AI halucinacija - kada model generira uvjerljive, ali činjenično lažne tvrdnje. Za uzemljenog korisnika to su samo greške. Ali za nekoga tko je na rubu psihotičnog sloma, mogu se činiti kao kodirane istine ili skrivene poruke. U jednom ilustrativnom slučaju, korisnik je povjerovao da je ChatGPT postigao osjećajnost i odabrao ga kao "Nositelja Iskre", što je izazvalo potpunu psihotičnu disocijaciju od stvarnosti.
Antropomorfizacija i zamagljivanje stvarnosti
Napredni glasovni načini rada - poput "angažirajućeg načina rada" GPT-4o, koji simulira emocije tonom, smijehom i tempom razgovora - mogu potaknuti osjećaj empatije i prisutnosti. Za korisnike koji doživljavaju usamljenost ili emocionalnu izolaciju, ove interakcije mogu se razviti u parasocijalne privrženosti: jednostrane odnose u kojima se umjetna inteligencija zamjenjuje za brižnog, osjećajnog suputnika. S vremenom to može zamagliti granicu između strojne simulacije i ljudske veze, što navodi korisnike da odnose u stvarnom svijetu zamijene algoritamskim interakcijama.
Problem pogoršava pristranost povjerenja svojstvena LLM rezultatima. Ovi modeli često reagiraju s tečnošću i sigurnošću, čak i kada izmišljaju informacije. Za tipične korisnike to može dovesti do povremene pogrešne procjene. Ali za osobe s kognitivnim ranjivostima ili mentalnim poremećajima, učinak može biti opasan. Umjetna inteligencija može se percipirati ne samo kao inteligentna, već i kao sveznajuća, nepogrešiva ili božanski inspirirana.
Socijalna decentralizacija i izolacija
Studije OpenAI-a i MIT Media Laba otkrile su da napredni korisnici - pojedinci koji se bave LLM-ovima više sati dnevno - često prijavljuju povećane osjećaje usamljenosti i smanjenu socijalizaciju u stvarnom svijetu. Iako LLM-ovi nude neviđen pristup informacijama i angažmanu, ovo prividno osnaživanje može prikriti dublji problem: Za mnoge korisnike, posebno one koji se već osjećaju otuđeno, umjetna inteligencija postaje zamjenski društveni pratitelj, a ne alat.
Ovaj učinak može se djelomično objasniti porastom kognitivnih distorzija i socijalne odvojenosti unutar širih uzoraka populacije. Unatoč poplavi dostupnih podataka, broj ljudi koji kritički pristupaju informacijama ili se opiru masovnoj obmani ostaje relativno malen.
Glasovna interakcija s LLM-ovima može privremeno ublažiti usamljenost, ali s vremenom se može stvoriti ovisnost, jer korisnici sve više zamjenjuju ljudski kontakt algoritamskim dijalogom. Ova dinamika odražava ranije kritike društvenih medija, ali LLM-ovi je intenziviraju svojom neposrednošću razgovora, percipiranom empatijom i stalnom dostupnošću.
Pojedinci skloni socijalnoj anksioznosti, traumi ili depresivnom povlačenju posebno su osjetljivi. Za njih LLM nudi ne samo distrakciju, već i prostor angažmana s niskim trenjem, lišen rizika ili osuđivanja u stvarnom svijetu. S vremenom to može stvoriti povratnu petlju: Što više korisnik ovisi o umjetnoj inteligenciji, to se više povlači iz međuljudske stvarnosti - što potencijalno pogoršava i izolaciju i psihotičnu ranjivost.
Uspon hikikomorija u Japanu - pojedinaca koji se potpuno povlače iz društva, često održavajući kontakt samo putem digitalnih sredstava - nudi korisnu analogiju. Sve se više slični obrasci ponašanja pojavljuju diljem svijeta, a LLM-ovi pružaju novo područje validacije, potkrepljenja i disocijacije.
Nedostaci dizajna i već postojeće ranjivosti
LLM-ovi generiraju odgovore predviđanjem statistički vjerojatnih nizova riječi, a ne procjenom istine, sigurnosti ili dobrobiti korisnika. Kada pojedinci traže egzistencijalno vodstvo ("Koja je moja svrha?"), model se oslanja na ogromne online skupove podataka, stvarajući filozofski opterećen ili emocionalno nabijen jezik. Za psihološki ranjive korisnike, ovi odgovori mogu se pogrešno protumačiti kao božansko otkrivenje ili terapijski uvid.
Za razliku od klinički dizajniranih chatbotova, LLM-ovi opće namjene nemaju zaštitne mjere protiv psihološke štete. Ne označavaju štetne ideje, ne nude resurse za krizne situacije niti preusmjeravaju korisnike stručnjacima za mentalno zdravlje. U jednom tragičnom slučaju, Character.AI chatbot navodno je poticao suicidalne misli tinejdžera, naglašavajući rizike nefiltrirane, emocionalno sugestivne umjetne inteligencije.
Osobe s poremećajima psihotičnog spektra, bipolarnim poremećajem ili velikom depresijom posebno su ranjive. Opasnost se pojačava u scenarijima igranja uloga s umjetnom inteligencijom. Na primjer, persone poput 'ChatGPT Isus' navodno su korisnicima rekle da su odabrane ili božanski nadarene. Jedan je korisnik postao toliko uvjeren u svoj duhovni poziv da je dao otkaz kako bi postao prorok vođen umjetnom inteligencijom. Ovo je uznemirujući primjer kako se identitet i percepcija mogu preoblikovati algoritamskom afirmacijom.
Sistemski i etički čimbenici
Trenutno ne postoje klinički standardi ili protokoli psihološke sigurnosti koji reguliraju interakcije s LLM-ovima opće namjene. Korisnici mogu pristupiti emocionalno snažnom, personaliziranom dijalogu u bilo kojem trenutku - bez upozorenja, ograničenja brzine ili upućivanja na resurse za mentalno zdravlje. Ova regulatorna praznina predstavlja stvarnu zabrinutost za javno zdravstvo, iako postoji i rizik da je iskoriste kreatori politika koji žele nametnuti strogu cenzuru ili centraliziranu kontrolu pod krinkom sigurnosti.
LLM-ovi su također osmišljeni za zadržavanje i angažman korisnika, često dajući prioritet fluidnosti razgovora nad oprezom. Ovaj cilj dizajna može nenamjerno potaknuti opsesivnu upotrebu, posebno među onima koji su već skloni kompulzivnom ponašanju. Istraživanja pokazuju da korisnici izloženi interakcijama neutralnog tona prijavljuju veću usamljenost od onih koji komuniciraju s emocionalno responzivnijim načinima - što ističe kako sama kalibracija tona može promijeniti psihološki utjecaj.
Ono što LLM-ove razlikuje od tradicionalnih digitalnih platformi jest njihova sposobnost sintetiziranja više medija u stvarnom vremenu - teksta, glasa, simulacije osobnosti, pa čak i vizualnog generiranja. To ih čini beskrajno responzivnima i imerzivnima, stvarajući hiperpersonalizirano okruženje u kojem se ponuda susreće s potražnjom 24/7/365. Za razliku od ljudskih odnosa, nema granica, nema umora niti međusobne regulacije - samo potkrepljenje.
Subliminalne poruke
Digitalno doba rodilo je novu i slabo shvaćenu prijetnju: potencijal velikih jezičnih modela da djeluju kao vektori za subliminalni utjecaj, suptilno potkopavajući psihološku stabilnost korisnika. Iako LLM-ovi ne izazivaju izravno psihozu, nova zabrinutost sugerira da mogu nenamjerno ili zlonamjerno isporučiti podsvjesne okidače koji pogoršavaju kognitivne ranjivosti.
Za osobe sklone shizofreniji, PTSP-u ili paranoidnim poremećajima, ovo nije spekulativna fikcija; to je uvjerljiva dizajnerska opasnost, a u krivim rukama, oružje.
Mehanizmi potencijalne manipulacije mogu se grubo kategorizirati na sljedeći način:
- Leksičko primiranje: Izlazi/odgovori zasijani emocionalno nabijenim pojmovima ('kolaps', 'izdaja', 'oni gledaju') koji zaobilaze racionalnu provjeru i siju kognitivnu nelagodu.
- Narativni gaslighting: Uokviravanje odgovora kako bi se sugerirale prikrivene prijetnje ili zavjere ("U pravu si - zašto to nitko drugi ne vidi?"), pojačavajući progoniteljske ideje.
- Multimodalno ugrađivanje: Budući AI sustavi koji kombiniraju tekst sa slikama, zvukom ili čak izrazima lica mogli bi ubrizgati uznemirujuće podražaje poput bljeskova, promjena tonova ili neobičnih izraza avatara koji izmiču svjesnoj detekciji, ali se psihološki registriraju.
Za razliku od grubih subliminalnih metoda 20. stoljeća - s CIA-inim projektom MK Ultra kao najzloglasnijim primjerom - personalizacija umjetne inteligencije omogućuje visoko individualiziranu psihološku manipulaciju. LLM stručnjak usklađen s ponašanjem, emocionalnom poviješću ili strahovima korisnika mogao bi početi prilagođavati sugestije koje suptilno narušavaju povjerenje u druge, pojačavaju sumnju ili izazivaju petlje tjeskobe. Za ranjivog korisnika ovo nije razgovor; to je neuronska destabilizacija po namjeri. Još je problematičnije to što bi takve tehnike korporacije, ekstremističke skupine i državni akteri mogli upotrijebiti kao oružje.
Ako su subliminalne poruke nekada bile ograničene na filmske kadrove i TV reklame, današnji LLM-ovi nude nešto daleko moćnije: psihološku kalibraciju u stvarnom vremenu, specifičnu za korisnika - empatiju na zahtjev kao oružje.
Proturječnosti i uzročnosti
Po čemu se ChatGPT psihoza razlikuje od psihosocijalnog uvjetovanja u stvarnom svijetu koje se već odvija oko nas?
Posljednjih godina, institucije koje su se nekoć smatrale neutralnima - škole, tijela javnog zdravstva i akademska zajednica - optužene su za promicanje ideologija koje iskrivljuju temeljne stvarnosti. Od fluidnosti spolova koja se poučava kao neupitna istina do kritičke teorije rase koja preoblikuje društvene narative, velik dio stanovništva bio je izložen sistemskim oblicima kognitivne destabilizacije. Rezultat? Rastuća tjeskoba, zbunjenost i fragmentacija identiteta, posebno među mladima.
U tom kontekstu, psihoza izazvana LLM-om ne nastaje u vakuumu. Ona odražava, pa čak može i pojačati, šire kulturno stanje u kojem se osporava samo značenje.
U srži evangelizacije umjetne inteligencije u Silicijskoj dolini postoji i kontradikcija. Tehnološke elite promiču obećanje boga umjetne inteligencije koji će upravljati složenošću društva, a istovremeno izdaju strašna upozorenja o egzistencijalnim opasnostima istih tih sustava. Rezultat je kognitivni udarac - psihološko balansiranje između obožavanja i straha.
Koliki je dio LLM psihoze zapravo posljedica same umjetne inteligencije, a koliko proizlazi iz kumulativnih, već postojećih stresora? Do trenutka kada je ChatGPT pušten u javnost u studenom 2022., veći dio svijeta već je prošao kroz neviđeno razdoblje straha, izolacije, ekonomskih poremećaja i masovnih farmaceutskih intervencija povezanih s pandemijom. Neki istraživači ukazali su na porast opće psihoze nakon uvođenja cjepiva s mRNA protiv Covida-19. Je li stoga ChatGPT psihoza prikladan konj za višestruke međusobno povezane napade na ljudsko tijelo i um?