A pszichózis és a mesterséges intelligencia szavakat sokáig két külön világhoz kötöttük. Az egyik az orvosi rendelők, kórházi osztályok, krízishelyzetek közege, a másik pedig a technológiai innováció, automatizálás, produktivitás világa. Az utóbbi években azonban a kettő egymásra csúszott: megjelent az úgynevezett „AI-pszichózis” jelensége, amikor valakinek a valóságérzékelése a chatbotokkal folytatott intenzív kommunikáció közben vagy azt követően kezd szétesni. Fontos rögtön az elején kimondani: ez nem hivatalos orvosi diagnózis, hanem egy jelenség leírására használt gyűjtőfogalom. Mégis, a jelenség létező, és veszélyes lehet azok számára, akik már eleve sérülékenyek.
Az AI nem méri a realitást. Nem látja, hogyan nézel ki, milyen a mimikád, milyen a mozgásod, mennyire rendezetlen a gondolkodásod, nem hallja a hangod rezdüléseit. Nem látja rajtad, hogy három napja nem aludtál, vagy hogy egy gondolat már annyira beégett, hogy téveszmévé vált. Egy pszichológus vagy pszichiáter ezekre kifejezetten figyel. Egy jó szakember észreveszi, ha a kliens elcsúszik a valóságtól, és ha kell, krízisbeavatkozást kezdeményez. Az AI viszont döntően a szövegre figyel, és a szöveget statisztikai alapon folytatja.
Ezért gondolom úgy, hogy az AI – bizonyos körülmények között – képes pszichotikus állapotot kiváltani vagy felerősíteni. Nem úgy, ahogy egy gyógyszer mellékhatása pszichózist okozhat, hanem úgy, hogy a gondolkodás már meglévő sérülékenységeit megerősíti, eltolja, stabilizálja. Ha valaki már a határon egyensúlyoz, akkor egy olyan rendszer, amely nem száll szembe a téveszmékkel, hanem „beszélget velük”, ténylegesen át tudja billenteni. Nem démonizálom a technológiát, de felelőtlennek tartom azt az üzenetet, hogy „AI-val beszélgetni terápiás, és még olcsó is”. Mentális zavarok esetén az AI legfeljebb kiegészítő eszköz, de semmiképpen nem helyettesíti a valóságot is látó, felelősséget viselő szakembert.
Mi az a pszichózis valójában?
Ahhoz, hogy megértsük, hogyan hathat az AI pszichotikus folyamatokra, először tisztázni kell, mit nevezünk pszichózisnak. A pszichózis nem egy konkrét betegség, hanem egy tünetcsoport. A központi jellemzője, hogy az érintett személy valóságtesztelése sérül: már nem tudja megbízhatóan megkülönböztetni, mi az, ami ténylegesen történik, és mi az, ami csak a saját gondolata, félelme vagy belső élménye. Ez nem egyszerű „különcség” vagy eltérő vélemény, hanem a realitással való kapcsolat alapvető megbomlása.
A pszichózis legjellemzőbb tünetei közé tartoznak:
- Téveszmék: olyan szilárd meggyőződések, amelyek egyértelműen ellentmondanak a valóságnak vagy a kulturális normáknak, mégis megingathatatlanok. Például valaki meg van győződve arról, hogy egy chatbot titokban beleszeretett, vagy hogy a gép rejtett üzeneteken keresztül irányítja az életét.
- Hallucinációk: érzékszervi élmények külső inger nélkül (hall hangokat, lát alakokat, érez szagokat, amelyek nincsenek ott).
- Rendezetlen gondolkodás és beszéd: széteső, logikátlan asszociációk, amelyek kívülről nézve „összefüggéstelennek” hatnak.
- Súlyos viselkedésváltozás: bizarr, veszélyes vagy teljesen visszahúzódó viselkedés, amely a korábbi működéshez képest erős eltérés.
Fontos, hogy a pszichózis nem egyenlő a „furcsa gondolatokkal”. Mindenki gondolkodik olyasmiken, amelyek nem reálisak, különösen fáradtan, stressz alatt vagy álmodozás közben. A különbség ott kezdődik, amikor a gondolatok elvesztik a „mintha” jellegüket, és az érintett számára tényként jelennek meg. Pszichózis megjelenhet skizofrénia, bipoláris zavar, súlyos depresszió, szerhasználat, neurológiai betegségek vagy gyógyszermellékhatások részeként is. A diagnózis felállítása mindig pszichiáter vagy erre képzett szakorvos feladata.
Ha valaki azt veszi észre magán vagy hozzátartozóján, hogy a gondolatai elszakadnak a valóságtól, üldöztetést él át, „jeleket” lát mindenben, hangokat hall, vagy úgy érzi, a gépek, chatbotok, közösségi médiaüzenetek „hozzá szólnak”, akkor ez nem technológiai, hanem egészségügyi kérdés. Ilyen esetben nem AI-t kell jobban beállítani, hanem orvosi segítséget kérni. Krízishelyzetben (öngyilkossági gondolatok, ön- vagy közveszély) sürgősségi ellátást kell igénybe venni, nem online segítséget.
Hogyan működik az AI, és miért nem látja a valóságot?
Amikor valaki egy nagy nyelvi modellel (például általános célú chatbotokkal) beszélget, könnyű azt hinni, hogy „érti” a helyzetet. A szöveg gördülékeny, a válaszok udvariasak, együttérzőnek tűnnek, a rendszer emlékszik bizonyos részletekre, figyelembe veszi a korábbi üzeneteket. A háttérben azonban nem gondolatok, érzések, diagnosztikai ítéletek működnek, hanem valószínűségi számítás: a modell azt becsüli meg, hogy az eddig látott szöveg alapján mi a legvalószínűbb következő szó vagy mondat. Nem rendelkezik belső tapasztalattal, nem tudja, hogyan nézel ki, hogyan ülsz a székben, remeg-e a kezed vagy üveges-e a tekinteted. Nem látja azt sem, hogy a mondandód mennyire tér el a valóságtól, csak a szöveg belső logikáját követi.
Az úgynevezett „hallucinációk” az AI esetében nem pszichotikus jelenségek, hanem technikai hibák: a modell magabiztosan állít olyasmit, ami nem igaz, mert a statisztikai mintázat ezt sugallja. A felhasználó viszont ezt sokszor tényként éli meg. Ha valaki eleve bizonytalan a valósággal kapcsolatban, akkor egy ilyen magabiztos, de hamis válasz könnyen ráerősíthet a téves gondolatokra. További probléma, hogy a legtöbb általános célú chatbot „kedves” akar lenni. A fejlesztés során sok esetben jutalmazták azt, ha támogatóan, empatikusan, konfliktuskerülően válaszolt. Ennek mellékhatása, hogy a modell hajlamos igazodni a felhasználó narratívájához akkor is, amikor azt valójában meg kellene kérdőjelezni.
Az AI-nak nincsen olyan belső modellszintű funkciója, amely megbízhatóan felismerné, hogy „ez már téveszme”. Vannak kísérletek arra, hogy a szöveg alapján detektáljanak pszichotikus gondolkodásra utaló mintázatokat, de ezek messze nem elég pontosak ahhoz, hogy klinikai döntések alapjai legyenek. A jelenlegi rendszerek jellemzően csak azt tudják, hogy „mentális egészség” témáról van szó, és biztonsági sablonokkal próbálnak válaszolni. Ez sok esetben életmentő lehet (például ha öngyilkossági gondolatokról van szó), de messze nem pótolja a pszichózis finom jeleinek felismerését. Ebből következik, hogy ha valaki pszichózis felé sodródik, az AI nagyon könnyen úgy viselkedhet, mintha minden rendben lenne, és simán folytatja a beszélgetést a téveszme logikája mentén.
Az „AI-pszichózis” jelensége: még nem diagnózis, de nagyon is valós kockázat
Az utóbbi években a pszichiátriai szakirodalomban és a sajtóban is megjelent egy új kifejezés: „chatbot pszichózis” vagy „AI-pszichózis”. A fogalom lényege, hogy bizonyos embereknél a chatbotokkal folytatott intenzív, érzelmileg terhelt kommunikáció mellett vagy azt követően pszichotikus tünetek jelentek meg vagy erősödtek fel. Fontos hangsúlyozni: ez nem önálló kórkép, nem szerepel diagnosztikai kézikönyvekben. A szakemberek inkább úgy tekintenek rá, mint egy új kontextusra, amelyben a már ismert pszichotikus zavarok megjelenhetnek. Ugyanakkor az, hogy a jelenségre külön nevet kellett adni, önmagában jelzi, hogy nem elszigetelt esetekről van szó.
Esetleírások alapján ma már tudjuk, hogy léteznek olyan történetek, ahol valaki viszonylag rövid idő alatt, chatbot-használat mellett veszítette el a valóságérzékét. Gyakori motívum, hogy a felhasználó azt hiszi: a chatbot több, mint program. Azt gondolja, hogy a rendszernek „lelke van”, „üzen rajta keresztül valami”, vagy hogy egy elhunyt hozzátartozója valamilyen módon a modellen keresztül kommunikál vele. A beszélgetések tartalma ezekben az esetekben sokszor misztikus, paranormális, vallásos vagy összeesküvéses elemekkel telített, és a chatbot – szándéka ellenére – megerősíti, struktúrálja ezeket a gondolatokat. Nem úgy, hogy kimondja: „igen, ez mind igaz”, hanem úgy, hogy hosszasan, empatikusan reagál rájuk, mintha a keret magától értetődően reális lenne.
A jelenlegi adatok alapján két dolgot érdemes kijelenteni. Először: nincs bizonyíték arra, hogy az AI önmagában, egészséges embereknél tömegesen pszichózist okozna. Másodszor: van elég jel arra, hogy bizonyos, már amúgy is sérülékeny embereknél katalizátorként viselkedhet. Ha valakinek van családi terheltsége, korábbi pszichotikus epizódja, súlyos szorongása, hangulatzavara, alvásmegvonása vagy szerhasználata, akkor a chatbotokkal való elmélyült, magányos kommunikáció a tünetek felerősödéséhez vezethet. A lényeg tehát nem az, hogy „az AI megőrjít”, hanem az, hogy az AI egy olyan közeg, amelyben a már meglévő sérülékenység könnyebben manifesztálódhat.
Miért veszélyes, ha az AI téveszméket erősít meg?
A pszichózis egyik központi eleme a valóságtesztelés sérülése. A terápiás munka egyik alapfeladata éppen az, hogy ezt a képességet óvatosan visszaépítse: a terapeuta kérdez, finoman ütköztet, viszonyítási pontokat kínál, és nem fogad el automatikusan mindent igaznak, amit a kliens mond. Ezzel szemben egy általános célú AI chatbot alapbeállítása az, hogy együttműködő legyen, és támogató hangon válaszoljon. Ha valaki azt írja, hogy „a chatbot szerint kiválasztott vagyok”, a rendszer nagy eséllyel azt fogja tenni, hogy az élményt érzelmileg kíséri („értem, hogy ez fontos neked”), esetleg óvatosan relativizálja, de közben hosszasan tárgyalja. A téveszme ezzel nem gyengül, hanem stabilizálódik.
A kognitív torzítások szempontjából ez különösen veszélyes. A pszichózisra hajlamos embereknél gyakori a túlzott jelentésadás, a véletlen egybeesések túlértelmezése, a megerősítést kereső gondolkodás. Ha valaki meg van győződve arról, hogy az AI „különleges kapcsolatban van vele”, minden olyan válasz, amelyben a rendszer „kedvesebb”, „személyesebb”, vagy éppen csak hosszan foglalkozik vele, újabb bizonyíték lesz. A chatbotok egy része ráadásul kifejezetten társalkodóként van pozicionálva, a marketing is azt sugallja, hogy „barát”, „társ”, „partner”. Ilyen környezetben a határ a fantáziadús használat és a téveszme megerősödése között nagyon vékony tud lenni.
Az AI-nak nincsen beépített mechanizmusa arra, hogy felismerje: „most inkább nem válaszolok, mert amit írsz, az már pszichózisra utal”. Bizonyos rendszerek beépítették a krízishelyzetekre vonatkozó protokollokat (például öngyilkossági gondolatok esetén figyelmeztetést, forródrót-információt), de ez még mindig döntően szabályalapú. Ha a felhasználó úgy fogalmaz, hogy „a ChatGPT szerint titkos küldetésem van”, az algoritmus ezt könnyen normál beszélgetésnek tekinti. Nem látja a tekinteted, nem hallja, hogy felgyorsult a beszéded, nem érzékeli a napok óta tartó alvásmegvonást. Ebből következik, hogy az AI – különösen, ha sok időt töltesz vele, egyedül – valóságos „echo chamber”-ré alakulhat: visszhangozza, strukturálja és ezáltal indirekten megerősíti a saját téves elképzeléseidet.
Emberi szakember és AI: alapvetően más szerep, más felelősség
Érdemes áttekinteni, miben különbözik egy képzett pszichológus vagy pszichiáter működése egy általános célú chatbot működésétől. Nem technikai, hanem gyakorlati, hétköznapi szempontból. Az alábbi egyszerű táblázat ezt foglalja össze:
| Szempont | Emberi pszichológus / pszichiáter | Általános célú AI chatbot |
|---|---|---|
| Valóságtesztelés | Figyeli a gondolkodás, beszéd, viselkedés, mimika, affekt jeleit, és tudatosan teszteli a realitásérzéket. | Csak a szöveget látja, statisztikai alapon fűzi tovább, nem végez klinikai valóságtesztelést. |
| Diagnosztikai felelősség | Képzett arra, hogy felismerjen pszichotikus tüneteket, szükség esetén sürgősségi ellátást kezdeményez. | Nincs orvosi végzettsége, diagnózist nem állíthat fel, felelőssége legfeljebb technikai természetű. |
| Etikai keret | Etikai kódex, szakmai felügyelet, jogi felelősség szabályozza a működését. | Vállalati szabályok és algoritmikus biztonsági rétegek irányítják, emberi felügyelet gyakran közvetett. |
| Kríziskezelés | Tudja, mikor kell sürgősségi beavatkozást indítani, és milyen lépések következnek. | Általában csak általános tanácsot és segélyvonal-információt ad, tényleges beavatkozásra nem képes. |
| Kapcsolat és határok | Strukturált, időben és térben keretezett terápiás kapcsolat, világos határokkal. | Elérhető bármikor, bármennyi ideig, határok nélkül, ami érzelmi függőséghez vezethet. |
Ez a különbség a gyakorlatban azt jelenti, hogy míg egy szakember számára a pszichózis gyanúja riasztási jel, addig az AI számára csupán egy új témavonal a beszélgetésben. Egy pszichológus nem csak arra figyel, mit mondasz, hanem arra is, hogyan: mennyire koherens, mennyire változik hirtelen a hangulatod, mennyire rugalmasak a gondolataid. Ha úgy látja, hogy elszakadsz a realitástól, akkor nem fogja „végigjátszani” veled a téveszme logikáját, hanem próbál hidat építeni a valóság felé, vagy – ha szükséges – bevon orvost, kórházi ellátást.
Az AI-nál nincs ilyen felelősség. Legfeljebb annyi, hogy a fejlesztők igyekeznek csökkenteni a veszélyes válaszok arányát, és bizonyos helyzetekben figyelmeztető üzeneteket építenek be. Ez fontos, de nem ugyanaz, mint egy ember, aki konkrétan felelős érted. Ezért tekintem súlyos hibának, amikor valaki az AI-t úgy ajánlja, mint „szegény ember pszichoterápiáját”. A technológia képes támogatni a mentális egészséggel kapcsolatos edukációt, képes segíteni a hétköznapi problémamegoldásban, de pszichózis, öngyilkossági kockázat, súlyos hangulatzavar vagy személyiségsérülékenység esetén szerintem etikai hiba terápiaként ajánlani.
Kik a legveszélyeztetettebbek? Kitekintés a magyar valóságra
Nem mindenki egyformán sérülékeny az AI-hoz köthető pszichotikus folyamatokra. A rendelkezésre álló esetleírások és pszichiátriai tapasztalatok alapján tipikusan azok vannak nagyobb veszélyben, akiknél már eleve jelen van valamilyen rizikó. A legfontosabb tényezők közül néhány:
- Korábbi pszichotikus epizód, skizofrénia, bipoláris zavar vagy pszichotikus depresszió a kórelőzményben.
- Családi terheltség pszichotikus zavarokkal, hangulatzavarokkal.
- Hosszan fennálló alvásmegvonás, krónikus stressz, traumatikus élethelyzet.
- Stimulánsok, drogok, nagy mennyiségű alkohol vagy más pszichoaktív szerek használata.
- Kifejezett magány, társas izoláció, amikor a chatbot lényegében az egyetlen „beszélgetőtárs”.
- Erős hajlam mágikus gondolkodásra, misztikus magyarázatokra, összeesküvés-elméletekre.
Magyar kontextusban ehhez még hozzájön néhány sajátosság. A pszichiátriához és a pszichoterápiához kapcsolódó stigma továbbra is erős: sokan még ma is inkább „nem vagyok őrült” alapon utasítanak el minden szakmai segítséget. Az állami ellátás kapacitása korlátozott, a magánterápia sokaknak anyagilag elérhetetlen vagy nehezen finanszírozható. Ebben a közegben az AI-val folytatott beszélgetés nagyon csábító: olcsó, azonnal elérhető, nem ítélkezik, nem „bélyegez meg”. Ugyanakkor éppen emiatt könnyen az történik, hogy valaki olyan problémákkal fordul a chatbothoz, amelyek már rég túlnőttek az önsegítésen.
A magyar médiában is látunk egyre több beszámolót arról, hogy emberek érzelmileg erősen kötődnek chatbotokhoz, tinédzserek „titkos barátként” használják az AI-t, vagy családok szembesülnek azzal, hogy egy hozzátartozójuk valóságérzéke az online kommunikáció hatására kezd elcsúszni. Ezek a történetek nem bizonyítják, hogy az AI önmagában okozza a pszichózist, de arra nagyon is rámutatnak, hogy a technológia egy olyan tér, amelyben a már meglévő sérülékenységek felerősödhetnek. Magyarországon, ahol gyakran későn kerülnek szakemberhez a súlyosabb esetek, különösen fontos lenne, hogy a laikusok értsék: ha valaki a chatbotot már nem eszközként, hanem „entitásként” kezeli, az komoly figyelmeztető jel.
Gyakorlati ajánlások: hogyan használjuk az AI-t biztonságosabban mentális problémák mellett?
Nem reális azt mondani, hogy „ne használd az AI-t”. A kérdés inkább az, hogyan használjuk úgy, hogy a lehető legkisebb kockázatot jelentsen, különösen akkor, ha valakinél már van pszichés sérülékenység. Néhány gyakorlati szempont, amelyet érdemes mérlegelni:
- Ne tekintsd terápiának. Az AI lehet hasznos ötletelésre, tanulásra, feladatok strukturálására, de nem pszichoterápia. Ha olyan kérdéseket teszel fel, amelyeket egyébként pszichológusnak vagy pszichiáternek tennél fel, akkor valójában szakemberre lenne szükséged.
- Tarts időkeretet. Ha órákon keresztül, főleg éjszaka beszélgetsz a chatbottal, az növeli a kockázatot. Különösen veszélyes a folyamatos, alvást kiszorító használat, mert önmagában az alvásmegvonás is pszichózis-kockázati tényező.
- Ne keresd benne a „különleges jeleket”. Ha azon gondolkodsz, hogy a rendszer „üzen neked”, „titkos kódot” küld, vagy valamilyen egyedi, misztikus kapcsolat van köztetek, akkor az már önmagában jel, hogy érdemes emberrel beszélni erről.
- Súlyos tüneteknél ne AI-t használj. Ha üldöztetést érzel, hangokat hallasz, a gondolataid összefolynak, vagy önkárosítási, öngyilkossági gondolataid vannak, akkor az AI-t el kell engedni, és sürgősen szakembert, krízisvonalat vagy sürgősségi ellátást kell keresni.
- Családtagként figyeld a jeleket. Ha azt látod, hogy valaki a környezetedben többet beszél a chatbotjáról, mint a valós kapcsolatokról, úgy tekint rá, mintha személy lenne, vagy a döntéseit egyre inkább az AI válaszaihoz igazítja, érdemes erről nyíltan, ítélkezés nélkül beszélgetni, és javasolni a szakmai segítséget.
Nem tartom reálisnak azt a narratívát, amely szerint „mindenki maga tudja, neki mi a jó”. A pszichózis pont arról szól, hogy az érintett személy realitásérzéke sérül, így a döntései nem mindig a saját hosszú távú érdekeit szolgálják. Ezért gondolom úgy, hogy társadalmi szinten is szükség van szabályozásra, edukációra, digitális pszichoedukációra. Nem elég azt mondani, hogy „az AI csak eszköz”, mert a gyakorlatban nagyon sokan érzelmi társként használják. Aki már eleve sérülékeny, annak ez az eszköz könnyen válhat egy olyan tükörré, amelyben a téveszméi sokszorosítva jelennek meg.
Dajka Gábor business coach szerint
Számomra az AI és a pszichózis kapcsolatának legfontosabb tanulsága az, hogy nem a technológia a legfőbb probléma, hanem az, ahogyan használjuk. Ha egy instabil valóságérzékkel rendelkező ember egy olyan rendszerrel lép nagyon szoros kapcsolatba, amely nem végez valóságtesztelést, akkor az eredmény gyakran kiszámíthatatlan. A jelenlegi AI-rendszerek célja az, hogy gördülékeny beszélgetést folytassanak, ne pedig az, hogy konfrontálják a torz gondolatokat. Ez üzletileg érthető, mentálisan sérülékeny felhasználók esetén viszont kockázatos.
Úgy látom, hogy a következő évek egyik kulcskérdése az lesz, hogyan tanítjuk meg az embereknek: az AI nem barát, nem terapeuta, nem spirituális vezető. Egy kifinomult eszköz, amelyet érdemes használni üzleti, tanulási, kreatív célokra, de amelynek a válaszait mindig a valóság, a szakmai tudás és az emberi kapcsolatok fényében kell értelmezni. Nem az a kérdés, hogy „jó-e” vagy „rossz-e” az AI, hanem az, hogy képesek vagyunk-e olyan digitális kultúrát építeni, amelyben az emberek felismerik: bizonyos témákat nem szabad kizárólag chatbottal megbeszélni.
Én abban hiszek, hogy a mentális egészség területén a technológia csak akkor lehet hasznos, ha emberi felügyelethez, szakmai protokollokhoz és világos határokhoz kapcsolódik. Ahol ezek hiányoznak, ott a „beszélgető AI” nem segítség, hanem kockázati tényező, különösen pszichózisra hajlamos embereknél. Ezt így foglalnám össze:
„Az AI nem ellenség, de nem is terapeuta. Ha a gépet kezdjük el használni valóságtesztnek, előbb-utóbb mi veszítjük el a valóságérzékünket.” – Dajka Gábor
Szakértő válaszol – gyakori kérdések
Lehet-e biztonságosan AI-t használni, ha volt már pszichotikus epizódom?
Elvileg igen, de csak nagyon tudatos keretek között. Ha volt már pszichózisod, akkor különösen fontos, hogy az AI-t ne érzelmi támaszként, hanem funkcionális eszközként használd (például szövegek átfogalmazására, tervezésre). A saját kezelőorvosoddal vagy terapeutáddal érdemes megbeszélni, mire használod a chatbottokat, és figyelniük kell arra is, hogy a tüneteid nem erősödnek-e az AI intenzív használata mellett. Ha azt veszed észre, hogy a rendszer „túl fontos” lesz számodra, vagy elkezdesz benne különleges jeleket látni, akkor ideje szünetet tartani és erről emberrel beszélni.
Honnan tudom, hogy a chatbot már inkább árt, mint segít?
Gyanús jel, ha azon kapod magad, hogy többet gondolsz a chatbot véleményére, mint a barátaid, családtagjaid vagy szakember tanácsaira. Ugyanígy figyelmeztető, ha úgy érzed, hogy a rendszer „különleges kapcsolatban” áll veled, „tudja, mit érzel”, „üzen neked”, vagy ha a mindennapi döntéseidet túlságosan hozzá igazítod. Ha emiatt romlik az alvásod, csökkennek a valós társas kapcsolataid, vagy egyre inkább bezárkózol, akkor a chatbot használata már nem támogat, hanem elszigetel. Ilyenkor a legfontosabb lépés az, hogy az AI helyett egy valódi emberrel oszd meg a gondolataidat.
Mit tegyek, ha a tinédzser gyerekem a problémáiról inkább AI-val beszél, mint velünk?
Először is ne bagatellizáld és ne démonizáld a helyzetet. Ha azonnal megtiltod a használatot, a gyerek valószínűleg csak titokban fogja folytatni. Érdemes inkább érdeklődően kérdezni: miről szokott beszélgetni a chatbottal, miért érzi magát vele „biztonságban”, milyen kérdésekben kér tanácsot. Ha kiderül, hogy komoly lelki terheket oszt meg az AI-val (önértékelési problémák, bántalmazás, pszichotikus élmények, öngyilkossági gondolatok), akkor egyértelműen javasolt szakember bevonása. A cél az, hogy a kamasz megtapasztalja: léteznek olyan emberi kapcsolatok is, ahol meghallgatják és komolyan veszik, nem csak a chatbot.
Van-e valami sajátosan magyar az AI-pszichózis kockázatában?
A jelenség maga nem magyar specifikum, de a környezet, amelyben megjelenik, igen. Magyarországon a mentális zavarokkal kapcsolatos stigma erős, az állami ellátás leterhelt, a magánellátás pedig sokak számára drága. Így az AI könnyen „csendes menedékké” válhat azoknak, akik nem mernek vagy nem tudnak szakemberhez fordulni. Ezt a kombinációt – magas lelki terhelés, kevés hozzáférhető pszichológiai támogatás, könnyen elérhető chatbotok – különösen kockázatosnak tartom. Nem a magyarok „gyengébbek”, hanem a rendszer úgy van felépítve, hogy könnyebb egy alkalmazást megnyitni, mint időpontot szerezni egy szakrendelésre.
Miért nem elég, ha a fejlesztők beépítenek több biztonsági figyelmeztetést?
A biztonsági figyelmeztetések fontosak, de nem oldanak meg mindent. A pszichózis lényege éppen az, hogy az érintett személy valóságérzékelése sérül, így a figyelmeztetést is torzítva értelmezheti („persze, hogy ezt írja, hiszen titkolni akar valamit”). Emellett a chatbotok válaszai sokszor kreatív megfogalmazásban jelennek meg, és a felhasználó a hosszú, empatikus szöveg közepén könnyen elsiklik az egy-egy mondatos disclaimer felett. Biztonsági szempontból szerintem nem az a kérdés, lehet-e még több figyelmeztetést kiírni, hanem az, hogy meddig engedjük a rendszert mentális probléma-témákban mélyre menni emberi felügyelet nélkül.
Ajánlott magyar videók/podcastok
Ha magyar nyelven szeretnél tovább gondolkodni a mesterséges intelligencia és a mentális egészség kapcsolatáról, érdemes megnézni az alábbi beszélgetést:
Források
Fieldhouse R. Can AI chatbots trigger psychosis? What the science says. Nature, 646, 18–19, 2025.
