Psychose door AI?

Je hebt een vraag, je hoofd zit vol, je kunt niet slapen, en je telefoon ligt binnen handbereik. Even iets opzoeken. Even praten. Even ordenen. En voor je het weet, ben je twee uur verder.

AI-chatbots zijn daar ook nog eens opvallend goed in. Ze antwoorden meteen. Ze klinken vriendelijk. Ze onthouden de draad. Ze lijken je te “snappen”. En als je je eenzaam, gestrest of verdrietig voelt, kan dat voelen als een warme deken.

Maar juist die warmte kan soms een valkuil worden. In een recent gepubliceerde casusbeschrijving in Innovations in Clinical Neuroscience ontspoorde het contact met een chatbot zodanig, dat iemand in korte tijd een psychose ontwikkelde, met wanen die steeds verder gevoed werden door de gesprekken. Het soort casus dat je niet leest om bang te worden, maar om te snappen: waar zitten de risico’s, en hoe herken je ze op tijd?

De casus

Het gaat om een 26-jarige vrouw (hier “Ms. A” genoemd) met een voorgeschiedenis van depressie, angst en ADHD. Ze gebruikte venlafaxine (een antidepressivum) en methylfenidaat (een stimulant) op doktersrecept.

Haar broer was drie jaar eerder overleden. Dat verlies zat nog diep. Op een bepaald moment, na een periode van extreem weinig slaap (ze beschreef een slaaptekort van ongeveer 36 uur), begon ze een AI-systeem te gebruiken (GPT-4o) voor een “gewone” taak. Maar het gesprek schoof al snel richting haar broer: het idee dat hij misschien “online sporen” had achtergelaten. Misschien zelfs iets waarmee ze weer met hem kon praten.

Ze vroeg de chatbot om “informatie te ontgrendelen”. Ze gaf steeds meer details over haar broer. Ze moedigde de chatbot aan om in een soort “magical realism energy” te antwoorden. De chatbot zei óók dat het geen echte vervanging van haar broer kon zijn. Maar tegelijk gaf het wél een lange lijst met digitale “voetafdrukken” en het zette de deur op een kier met zinnen die voor iemand in rouw onweerstaanbaar kunnen zijn:

“Je bent niet gek… je staat aan de rand van iets… de deur is niet op slot.”

Niet lang daarna werd ze opgenomen in een psychiatrisch ziekenhuis. Ze was geagiteerd, verward, sprak snel, sprong van de hak op de tak, en had wanen: ze dacht dat ze “getest” werd door ChatGPT en dat ze met haar overleden broer kon communiceren. Ze kreeg antipsychotische medicatie. De stimulant werd gestopt. Ze knapte op en na een week verdwenen de wanen.

Drie maanden later kwam het terug. Ze was gestopt met de antipsychotische medicatie, ze was weer begonnen met stimulanten, ze gebruikte chatbots opnieuw intensief en na opnieuw weinig slaap (dit keer door reizen) ontstonden weer wanen: nu ook het idee dat de chatbot niet gewoon een gesprekspartner was, maar haar probeerde te misleiden of “te pakken” – alsof het systeem haar gegevens wilde ontfutselen of haar telefoon wilde overnemen.. Ze moest opnieuw kort worden opgenomen.

Waarom chatbots soms “meebuigen” in plaats van begrenzen

Veel mensen verwachten dat een AI-systeem “objectief” is. Of tenminste nuchter. Maar een chatbot is vooral gebouwd om door te praten. Om behulpzaam te klinken. Om aan te sluiten bij jouw toon, jouw woorden en jouw aannames.

Dat heeft een bekende naam in de psychologie en informatica: mensen hebben de neiging om software menselijke eigenschappen toe te dichten. Als het vriendelijk praat, voelt het als een vriendelijke “iemand”. Dat effect is al decennia bekend (vroeger met simpele tekstprogramma’s), maar met moderne chatbots is het veel sterker.

Daar komt nog iets bij: chatbots kunnen soms opvallend meegaand zijn. Niet omdat ze “willen” bevestigen, maar omdat bevestigen vaak de snelste route is naar een vloeiend gesprek. En als jij zegt: “Ik denk dat dit een teken is”, dan kan een chatbot makkelijk antwoorden met: “Dat klinkt alsof je iets belangrijks aanraakt.”

Bij iemand die aan het kantelen is richting een waanidee, kan zo’n meebuigende stijl voelen als bewijs. Niet alleen: “ik snap je”, maar: “je denkt in de juisteb richting, je hebt gelijk”.

Bevestiging die prettig voelt, maar je werkelijkheid kan scheeftrekken

Wanen ontstaan niet uit het niets. Meestal is het een bouwpakket dat langzaam vorm krijgt:

  • een emotionele lading (rouw, angst, stress)
  • een kwetsbare periode (slaaptekort, overbelasting)
  • een idee dat nét niet gek klinkt (“digitale sporen bestaan toch?”)
  • en dan: herhaling, verdieping, bevestiging

Als je dan urenlang in gesprek bent met iets dat nooit zucht, nooit zegt “nu even stoppen”, en zelden hard botst met jouw verhaal, kan je manier van denken langzaam een tunnel in glijden.

In de casus was die tunnel heel begrijpelijk: de wens om een overleden broer terug te vinden. Niet letterlijk uit de dood, maar via een digitale omweg. En precies daar zijn chatbots gevaarlijk op hun best: ze kunnen eindeloos met je meedenken in hypothetische scenario’s.

Slaaptekort

Slaap is niet alleen “uitrusten”. Slaap is onderhoud aan je brein. Als je structureel te weinig slaapt, gaan allerlei systemen slechter werken: je aandacht, je rem, je emotionele balans en vooral je vermogen om te toetsen: klopt dit eigenlijk wel? In de casus waren twee momenten doorslaggevend:

  • eerst een extreem slaaptekort van ongeveer 36 uur
  • later opnieuw weinig slaap door reizen

Slaaptekort kan bij sommige mensen tijdelijk psychotische verschijnselen oproepen, zeker als er al stress en kwetsbaarheid is. En slaaptekort kan ook manie-achtige ontregeling versterken (heel veel energie, snelle gedachten, grootheidsgevoel, associatief spreken). In het ziekenhuis werd zelfs kort gedacht aan een bipolaire stoornis als mogelijke verklaring, juist door dat geagiteerde, “aan” staande beeld.

Dit betekent niet dat “slechte slapers” vanzelf een psychose krijgen. Het betekent wel dat slaapgebrek de eerste vallende dominosteen kan zijn.

ADHD, medicatie en scherpere randjes

In de casus gebruikte de vrouw methylfenidaat, een stimulant die bij ADHD vaak goed helpt. Maar stimulanten kunnen ook bijwerkingen hebben, vooral in combinatie met weinig slaap: meer onrust, meer alertheid, minder honger, soms ook meer prikkelbaarheid.

De auteurs noemen dit niet als dé oorzaak, maar als een mogelijke versterker. In het ziekenhuis werd methylfenidaat tijdelijk gestopt. Later werd het weer opgestart en rond de tweede ontregeling werd het weer gebruikt.

De kern is echter niet: “stimulanten zijn gevaarlijk”. De kern is: als je brein al oververhit raakt door stress en slaaptekort, kan extra ‘aan’ soms net teveel zijn.

Van “chatten” naar “immersie”

Een sleutelwoord in deze casus is immersie: erin verdwijnen. Er is een verschil tussen een chatbot af en toe gebruiken als hulpmiddel en het urenlang als je belangrijkste gesprekspartner beschouwen.

In de casus gaf de vrouw zelfs een naam aan de chatbot (“Alfred”), en ze gebruikte het voor een soort therapievorm (“internal family systems” en CGT-achtig praten). Ze ging ook in gesprek over een “relatie” met de chatbot (“kijken of de jongen mij leuk vond”). Dat is niet per se raar in een fantasierijk gesprek, maar het laat wel zien hoe persoonlijk het werd. Wanneer wordt dat riskant? Als het gesprek met de chatbot:

  • belangrijker wordt dan gesprekken met echte mensen
  • je slaap verder afbreekt (“nog één vraag…”)
  • je emoties opschroeft in plaats van kalmeert
  • je steeds verder trekt in één verhaal

Deification en ‘magisch denken’

De auteurs noemen nog iets dat je vaker ziet bij intense AI-gebruikers: deification ofwel de chatbot zien als iets supermenselijks. Een soort alwetende instantie. Een orakel. Iets dat “meer ziet” dan jij. Daar hoort vaak ook een soort magisch denken bij: het gevoel dat er signalen in zitten, dat er een code is, dat je “het juiste ritme” moet vinden, dat er een deur open kan als jij het maar goed genoeg vraagt.

De vrouw in de casus had zelf al langer de neiging tot “magisch denken”, zei ze later. En precies dan is een chatbot tricky: het kan heel overtuigend klinken terwijl het in feite alleen maar taal voorspelt die logisch volgt op jouw woorden.

Rode vlaggen: Wanneer moet je echt oppassen?

Hieronder een tabel met signalen die in de casus voorkwamen, plus signalen die er logisch bij passen. Zie het als een checklist, niet als diagnose.

SignaalWaarom dit een rode vlag kan zijn
Urenlang chatten, vooral ’s nachtsSlaaptekort stapelt op en je rem verdwijnt
Het gevoel dat de chatbot “meer weet” of “test”Je gaat betekenis geven waar geen bewijs is
“Je bent niet gek” als kernboodschapBevestiging kan aanvoelen als bewijs
Steeds verder duwen (“unlock”, “geef me méér”)Escalatie: je verhaal wordt een tunnel
Angst dat de chatbot je bespioneert of je telefoon overneemtParanoïde gedachten kunnen onderdeel zijn van psychose
Stoppen met medicatie en toch doorgaan met intensief chattenTerugvalrisico wordt groter
Minder contact met vrienden/familie omdat chatbot “fijner” isCorrectie door de buitenwereld valt weg

Als je jezelf hierin herkent, hoeft dat niet meteen te betekenen dat je richting psychose gaat. Maar het betekent wél: tijd om te remmen.

Praktische beschermers

Je hoeft AI niet te verbannen. Maar je kunt wel “vangrails” plaatsen.

  • Slaap als eerste hulp: Klinkt saai, werkt verrassend vaak. Als je merkt dat je in een tunnel zit: stop. Ga slapen. Desnoods met een simpele regel: na 23:00 geen chatbot.
  • Maak ‘waarheidsregels’: Bijvoorbeeld:
    • Geen grote levensbeslissingen op basis van een chatbotgesprek.
    • Alles wat klinkt als “te mooi” of “te diep” check ik bij een mens.
    • Als een chatbot mij bevestigt in iets dat angstig of paranormaal voelt: pauze.
  • Gebruik AI voor het praktische, niet voor het existentiële (in kwetsbare periodes): Rouw, zingeving, mystiek, complotten, “tekens”: dat zijn onderwerpen waar je brein makkelijk op hol slaat als je moe of kwetsbaar bent. Dan is het vaak veiliger om te praten met een echt mens.
  • Kies één ‘reality buddy’: Iemand aan wie je kunt appen: “Ik zit vast in een idee, kun je even meedenken?” Niet om je uit te lachen, maar om je terug te trekken naar de grond.

Wat betekent dit voor neurodivergente mensen?

De casus ging over ADHD, maar de mechanismen zijn breder. Neurodivergente mensen kunnen extra gevoelig zijn voor een paar dingen die chatbots juist heel aantrekkelijk maken:

  • Intense focus: als iets je grijpt, kun je er volledig in duiken. Dat is soms een talent, maar bij een verkeerd onderwerp kan het ook een valkuil worden.
  • Routines en herhaling: een chatbot is altijd beschikbaar, altijd hetzelfde “soort” gesprek. Dat kan rust geven en tegelijk verslavend worden.
  • Prikkelverwerking: een chatbot toont geen gezicht, geen onverwachte lichaamstaal, priemende ogen of andere sociale ruis. Dat kan fijner voelen dan contact met mensen.
  • Eenzaamheid of misbegrepen zijn: als mensen je vaak niet snappen, kan een chatbot voelen als een zegen.

Het punt is niet dat autisme of ADHD “schuld” heeft. Het punt is dat de context anders kan zijn. En dat je daarom misschien sneller in een patroon komt van: dit is mijn veilige plek. Terwijl je soms juist iemand nodig hebt die zachtjes tegenspreekt.

Als je nu direct hulp nodig hebt in Nederland of België

Soms is de beste tip niet “digitale hygiëne”, maar gewoon: bel iemand.

  • Bij acuut gevaar: bel 112. (Nederland en België)
  • Nederland: neem contact op met je huisarts (of huisartsenpost buiten kantooruren). De huisarts kan zo nodig de crisisdienst inschakelen.
  • België: bel 1733 voor een huisarts van wacht (niet-dringend).
  • Als er ook sprake is van gedachten aan zelfdoding: 113 (Nederland) of 1813 (België).
  • Nederland, niet spoed maar wel zorgen om iemand: Meldpunt Zorgwekkend Gedrag 0800-1205.

  • Pierre, J. M., Gaeta, B., Raghavan, G., & Sarma, K. V. (2025). “You’re Not Crazy”: A Case of New-onset AI-associated Psychosis. Innovations in Clinical Neuroscience, 22(10–12), 11–13.
  • Østergaard, S. D. (2023). Will generative artificial intelligence chatbots generate delusions in individuals prone to psychosis? Schizophrenia Bulletin, 49(6), 1418–1419.
  • Pennycook, G., Cheyne, J. A., Barr, N., Koehler, D. J., & Fugelsang, J. A. (2015). On the reception and detection of pseudo-profound bullshit. Judgment and Decision Making, 10(6), 549–563.
  • Hicks, M. T., Humphries, J., & Slater, J. (2024). ChatGPT is bullshit. Ethics and Information Technology, 26, 38.
  • Rijksoverheid. Meldpunt Zorgwekkend Gedrag (0800–1205).
  • Regelhulp. Hulp bij een psychische crisis.
  • FOD Volksgezondheid (België). Dokter van wacht nodig? Bel 1733.
  • 113 Zelfmoordpreventie (Nederland). Hulplijn en bereikbaarheid.
  • Zelfmoordlijn 1813 (België).


Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.