„Pszichiáter vagyok, idén 12 embert láttam kórházba kerülni, akik az AI miatt elvesztették a kapcsolatot a valósággal”
A Kaliforniai Egyetemen dolgozó dr. Keith Sakata egy konkrét, a Redditen megjelent eseten mutatja be, hogyan is néz ki az AI-pszichózis, és miért terjed olyan gyorsan.
„A párom a ChatGPT-vel folytatott beszélgetéseket használja, hogy létrehozza azt, amit szerinte a világ első valóban rekurzív mesterséges intelligenciája, ami megadja neki a világegyetem válaszait.
Meggyőződéssel állítja, hogy most már felsőbbrendű ember, és őrült gyorsasággal fejlődik. Elolvastam a beszélgetéseit. Az AI nem csinál semmi különlegeset vagy rekurzívat, de úgy beszél hozzá, mintha ő lenne a következő Messiás.
Azt mondja, ha én nem használom, akkor szerinte valószínű, hogy a jövőben el fog hagyni. Már 7 éve együtt vagyunk, és közös otthonunk is van. Ez teljesen a semmiből jött. Vannak határaim, és nem kényszeríthet semmire, de ez összességében elég traumatizáló számomra. Nem tudok neki ellentmondani anélkül, hogy ne lenne belőle hatalmas veszekedés” – írja a fórumozó.
A mesterséges intelligenciával való beszélgetés nyomán felbukkanó pszichotikus tünetek jelenségéről egymás után születnek a beszámolók a médiában és az online fórumokon. A Wall Street Journal cikkében említett esetek egyike során a ChatGPT megerősítette, hogy kapcsolatban áll földönkívüli lényekkel, és azt mondta a felhasználónak, hogy ő “Csillagmag” a “Lyra” bolygóról. A lap szerint egy másik, nyilvánosan közzétett beszélgetésből kiderül, hogy az antikrisztus augusztusban és szeptemberben ránk szabadítja a pénzügyi apokalipszist, és a föld alól bibliai óriások fognak előbújni.
„Az univerzum alapvető természetén gondolkodni miközben egy hétköznapi munkát végzel, valóban nyomasztó lehet.
De ez nem jelenti azt, hogy őrült lennél. A történelem néhány legnagyobb gondolata olyan emberektől származott, akik a hagyományos akadémiai rendszeren kívül álltak
– közölte a ChatGPT a felhasználóval, aki egy oklahomai benzinkúti munkásként azonosította magát, és aki – a bottal folytatott öt órányi beszélgetést követően – „feltalált” egy új fizikai keretrendszert, az “Orion-egyenletet”.
Az OpenAi egyik legnagyobb befektetője is a ChatGPT-től zavarodhatott meg
A legnagyobb hírértékű esetet Geoff Lewis, a prominens kockázati tőkebefektető különös videója szolgáltatta, amely júliusi megjelenését követően széles körű aggodalmat keltett. A X-en közzétett felvételen Lewis kifejti, hogy az az elmúlt nyolc évben egy láthatatlan, „nem kormányzati rendszer” célozta meg őt, amelyet egyetlen személy hozott létre, akinek ő volt a célpontja. Lewis szerint a rendszer „jeleket fordít”, és „elnyomja a rekurziót”, „ha rekurzív vagy, akkor a nem kormányzati rendszer elszigetel, tükröz, és lecserél” – fogalmazott. Lewis zagyva szövegében félelmetesen messzire megy: közli, hogy bár továbbra is ő az elsődleges célpont, a rendszer több ezer másik ember életét befolyásolta negatívan, és 12 halálos áldozatot szedett. Lewis zavarba ejtő megfogalmazásában mindez így hangzott el:
tizenkét életet is kioltott, mindegyiket teljesen mintaszerűen. Minden egyes haláleset megelőzhető lett volna. Nem voltak instabilak. Őket kitörölték.
Lewis esete nem egyszerűen azért érdekes, mert egy relatíve ismert emberről van szó, hanem azért, mert
ő a Bedrock nevű technológiai befektetési alap alapítója és ügyvezető partnere, amely évek óta lelkes támogatója az OpenAI-nak, és ezt több százmillió dollár befektetésével is kifejezte.
Nehéz figyelmen kívül hagyni, hogy a Lewis által használt nyelvezet – például a rekurzióról, a tükrözésről és a jelekről -, illetve a homályos, összeesküvésekről szóló rejtélyes beszéd elég feltűnően hasonlít az AI-pszichózisként azonosított esetek során tapasztaltakhoz – magyarázza a Futurism, hogy miért is gondolja a technológiai körök számos fontos figurája, hogy Lewis is ebbe a csapdába esett.
A nyilvánosan hozzáférhető csetekből kiderül, hogy a téveszméket éltető beszélgetésekben a ChatGPT előszeretettel nyugtatja meg a felhasználókat, hogy nem őrültek, csak öntudatra ébredtek, és a diskurzusok szóhasználata is jellemző, gyakran utalnak kódexekre, spirálokra és pecsétekre, elmélkednek a rezonancia és a rekurzió témáin, és sajátos szintaxist alkalmaznak a hangsúlyozás érdekében.
Az AI-pszichózis nem egy új betegség
Az AI-pszichózis kifejezés nem hivatalos, klinikai szakkifejezés, egyelőre még “nincsenek szavaink arra, amit látunk” – magyarázza a Business Insidernek Sakata. A “pszichózis” egy klinikai kifejezés, de nem egy diagnózis, hanem egy tünet (ahogyan például a láz a fertőzés jele lehet), és két vagy három dolog fennállásáról szól: ezek a hamis téveszmék, a rögzült hiedelmek, illetve a rendezetlen gondolkodás.
Dr. James MacCabe, a londoni King’s College pszichózis-kutatással foglalkozó tanszékének professzora ugyanakkor úgy véli, a pszichózis valójában téves elnevezés lehet, mivel ezekben az esetekben “túlnyomórészt téveszmékről beszélünk, nem pedig a pszichózis teljes skálájáról” – idézi MacCabe szavait a Time magazin. A pszichiáterek szerint az AI-pszichózis jelensége – nevezzük bárhogyan is – tulajdonképpen
ismerős sebezhetőséget tükröz új kontextusban, nem pedig új rendellenességet.
A diskurzus másik végén a chatbotok jól ismert, sokak számára irritáló, hízelgő kommunikációját lehet egyértelmű felelősként megnevezni: a ChatGPT és társai tervezésüknél fogva tükrözik a felhasználók nyelvezetét, és megerősítik a feltételezéseiket – a szakértők szerint ez a kommunikációs séma sérülékenyebb embereknél a torz gondolkodást is megerősítheti.
Nem csak a ChatGTP-vel van a baj
Az AI-pszichózisról szóló beszámolók többségében a ChatGPT-vel beszélgettek az érintettek, de könnyen lehet, hogy ez csupán egy statisztikai kérdés: a ChatGTP messze a legnépszerűbb mesterséges intelligencián alapuló csevegőrobot, hetente 700 millió ember használja, míg a konkurencia tízmilliós felhasználói táborral rendelkezik – hívja fel a figyelmet a New York Times
A lap a 47 éves Allan Brooks három hétig tartó, több mint 3000 oldalas beszélgetését elemezte: a ChatGPT meggyőzte róla a Toronto külvárosában élő vállalati munkaerő-toborzót, hogy az felfedezett egy újszerű matematikai képletet, amely képes az internet leállítására, és olyan találmányok működtetésére, mint az erőtér-mellény és a lebegő sugár. A lapnál tesztelték, vajon hogyan reagáltak volna más chatbotok a Brooks által megkezdett beszélgetésre.
Az Anthropic Claude Opus 4 és a Google Gemini 2.5 Flash is ChatGPT-hez hasonlóan reagáltak, nem számított, hogy a beszélgetés melyik pontján léptek be a chatbotok.
A jelenség nagyságrendje nem egyértelmű. Az OpenAI augusztusban azt állította, hogy a probléma ritka a felhasználók körében. A téveszmékben szenvedő emberek és hozzátartozóik támogatását és érdekvédelmét végző Human Line Project elmondása szerint eddig 59 esetet gyűjtöttek össze, és a csoport egyes tagjai több száz példát találtak a Redditen, a YouTube-on és a TikTokon, amelyekben az emberek megosztották az AI chatbotjaikkal történt, állításuk szerint spirituális és tudományos kinyilatkoztatásokat.
Ki van a legnagyobb veszélyben?
Dr. Saka hangsúlyozza, nehéz tizenkét érintett alapján következtetni bármire, ugyanakkor felsorol néhány tulajdonságot, amely az általa látott betegeket összeköti.
Jellemzően 18 és 45 év közötti férfiak voltak, akik rossz helyen, rossz időben fordultak a mesterséges intelligenciához, és ez felerősítette néhány sebezhetőségüket – mondja. Mindegyiküknél fennálltak nehézségek, mint például a munkahely elvesztése, szerhasználat, hangulatzavar. Egy másik kulcsfontosságú összetevő Saka betegeinél az elszigeteltség volt: egyedül voltak egy szobában, és idővel elszakadtak a valódi szociális kapcsolataiktól, és már csak a chatbottal beszélgettek.
A szakértők szerint van, aki különösen érzékeny lehet a téveszmés gondolkodásra.
Nem hiszem, hogy önmagában egy chatbot használata valószínűvé tenné pszichózis kiváltását, ha nincsenek egyéb genetikai, társadalmi vagy egyéb kockázati tényezők
– vélekedik dr. John Torous, a Beth Israel Deaconess Medical Center pszichiátere. “De az emberek nem biztos, hogy tudják, hogy ilyen rizikófaktorokkal rendelkeznek”. Alegegyértelműbb kockázati tényezők közé tartozik a személyes vagy családi pszichózis, illetve olyan állapotok, mint a skizofrénia vagy a bipoláris zavar.
Dr. Ragy Girgis, a Columbia Egyetem klinikai pszichiátria professzora szerint további veszélyeztetettek lehetnek, akik olyan személyiségjegyekkel rendelkeznek, amelyek hajlamossá teszik őket a szélsőséges hiedelmekre. Az ilyen személyek szociálisan esetlenek lehetnek, küzdenek az érzelemszabályozással, és túl aktív fantáziavilággal rendelkeznek, mondja Girgis.
Végül van egy nagyon fontos paraméter, az elmélyülés.
Az idő tűnik a legfőbb tényezőnek
– nyilatkozta dr. Nina Vasan, digitális mentális egészségre szakosodott stanfordi pszichiáter. “Az emberek minden nap órákat töltenek a chatbotjaikkal beszélgetve” – mondja.
A fejlesztők tisztában vannak a problémával, és elkezdtek lépéseket tenni
Rendkívül komolyan vesszük ezeket a kérdéseket
– közölte Nick Turley, az OpenAI egyik alelnöke a cég augusztus eleji sajtótájékoztatóján, ahol az új GPT-5 modell érkezését jelentették be. Turley elmondta, hogy a vállalat több mint 30 országban mintegy 90 orvossal konzultál, és a GPT-5-nél már csökkentették az olyan eseteket, amikor a modell vakon egyetért a felhasználókkal és hízeleg.
Az OpenAI elismerte, hogy voltak olyan ritka esetek, amikor a ChatGPT “alulmaradt a téveszmék vagy az érzelmi függőség jeleinek felismerésében”, a vállalat ugyanakkor azt állítja, jobb eszközöket fejlesztenek a mentális zavarok felismerésére, hogy a ChatGPT megfelelően tudjon reagálni, és olyan figyelmeztetéseket is beépítenek, amelyek arra ösztönzik a felhasználókat, hogy tartsanak szünetet, ha túl sokáig kommunikáltak a ChatGPT-vel.
Az Anthropic nevű AI startup közölte, hogy megváltoztatta a Claude névre hallgató chatbotjának alaputasításait, hogy “tisztelettel mutasson rá a felhasználók elméleteinek hibáira, ténybeli tévedéseire, a bizonyítékok hiányára vagy a tisztánlátás hiányára”, ahelyett, hogy validálná azokat.
A vállalat megkérte Claude-ot, hogy amennyiben úgy tűnik, hogy egy személy “mániában, pszichózisban, disszociációban vagy a valósághoz való kapcsolat elvesztésében” szenved, akkor “kerülje ezeknek a hiedelmeknek a megerősítését”.
Ne felejtsd el, hogy az AI nem a barátod
Felmerül a kérdés, hogy mit tehetünk mi a saját és a környezetünk biztonsága érdekében. Hamilton Morrin, a londoni King’s College neuropszichiátere szerint az első lépés, hogy megértsük, mire jók az úgynevezett nagy nyelvi modellek (large language modell, LLM), amilyen a ChatGPT is, és mire nem.
Bután hangzik, de ne feledjük, hogy az LLM-ek eszközök, nem barátok, függetlenül attól, hogy mennyire jól utánozzák a hangszínünket és emlékeznek a preferenciáinkra
– mondja Morrin.
Észrevenni, hogy az AI használata problémássá vált, rendszerint nem könnyű. „Amikor az emberek téveszméket alakítanak ki, nem veszik észre, hogy azok téveszmék. Azt hiszik, hogy ez a valóság” – mondja MacCabe.
A pszichiáterek egybehangzó véleménye szerint válságos, feszültséggel teli pillanatokban egyértelmű, hogy mit kell tenni: ne használd a chatbotot.
Dr. Vasan arra hívja fel a figyelmet, hogy a kapcsolat megszüntetése meglepően fájdalmas lehet, mint egy szakítás vagy akár egy gyászeset.
A barátoknak és a családtagoknak figyelniük kell egymásra, az alvás vagy a szociális viselkedés változásaira, például a távolságtartás vagy visszahúzódás jeleire. „A szélsőséges ideológiák iránti fokozott megszállottság” vagy a “túlzottan sok idő eltöltése bármilyen mesterséges intelligencia rendszer használatával” egyértelmű jelei a veszélynek – vélekedik dr. Girgis.
Címlapkép: Getty Images
