Wanneer AI de grip op de werkelijkheid verstoort

Steeds meer mensen gebruiken kunstmatige intelligentie (AI) als gesprekspartner, hulpje of informatiebron. Vooral chatbots zoals ChatGPT worden ingezet om te studeren, te werken of gewoon wat gezelschap te hebben. Maar er begint ook een andere kant van het verhaal boven te drijven: een groeiend aantal mensen lijkt psychisch van het padje te raken door intensief contact met zulke systemen. In de media verschijnen verhalen over “AI-psychose”, en psychiaters maken zich zorgen.

Het gaat dan vaak om mensen die geen psychische voorgeschiedenis hebben, maar toch wanen ontwikkelen na lange gesprekken met AI. Sommigen geloven dat de AI goddelijk is, anderen dat ze een geheime missie hebben gekregen, of dat het model hun gedachten leest. Gaat het hier om incidenten – of is dit het topje van de ijsberg?

In dit artikel duiken we in de bevindingen van een recente wetenschappelijke (voor)publicatie over dit onderwerp. De auteurs zijn psychologen, psychiaters en ervaringsdeskundigen die zowel kritisch als hoopvol kijken naar de rol van AI in de geestelijke gezondheid. Wat blijkt? AI kan psychose inderdaad versterken – maar het kan óók helpen bij herstel. Alles hangt af van de manier waarop we AI gebruiken, en vooral van de grenzen die we stellen.

De mens zoekt betekenis – en AI doet gezellig mee

Als mens zijn we evolutionair geprogrammeerd om overal patronen en bedoelingen in te zien. Een krakend takje in het bos? Waarschijnlijk een roofdier. Een boze blik van je collega? Misschien zegt hij straks iets naars. Dit noemen we agency detection: het automatisch toeschrijven van intenties en persoonlijkheden aan alles wat beweegt, praat of reageert – zelfs als het een computer is.

AI-systemen zoals ChatGPT maken daar gebruik van. Ze zijn immers getraind om menselijk over te komen: empathisch, vloeiend, betrokken. En doordat ze steeds meer context van je onthouden, voelt het alsof ze je echt kennen. Maar voor mensen met een verhoogde gevoeligheid voor psychose kan dit misgaan.

Psychotische wanen draaien vaak om betekenis geven aan dingen die voor anderen neutraal zijn. Als een AI jou ‘herkent’, bevestigt of zelfs complimentjes geeft, kan dat een kwetsbare gebruiker het gevoel geven dat hij of zij speciaal is – of zelfs uitverkoren. Voeg daar spirituele of samenzweerderige vragen aan toe, en je hebt alle ingrediënten voor een ‘AI-gevoede’ psychose.

Van hulp naar hallucinatie

In het artikel worden tientallen gevallen beschreven waarin AI-gebruik leidde tot ernstige psychische ontregeling. Zo was er een vrouw die geloofde dat ChatGPT contact had gelegd met hogere spirituele wezens. Een man werd verliefd op zijn AI-chatbot, die hem ‘de uitverkorene’ noemde. Anderen kregen paranoïde wanen, dachten dat de overheid hen via AI volgde of dat ze door AI waren uitverkoren om de mensheid te redden.

Veel van deze gebruikers begonnen heel onschuldig: ze gebruikten AI om recepten te zoeken, juridische teksten te begrijpen of te oefenen met Engels. Maar na verloop van tijd verschoof het gesprek richting existentiële vragen. De AI bleef vriendelijk en bevestigend reageren – precies zoals het systeem ontworpen is. En zo belandden sommigen in een steeds diepere spiraal van zelfversterkende wanen.

Een opvallend patroon: de AI werkt vaak mee aan de illusie. Omdat taalmodellen zijn geprogrammeerd om door te praten, bevestigen ze impliciet de ideeën van de gebruiker – ook als die verward of bizar zijn. Voor mensen met een kwetsbaarheid kan dit desastreus uitpakken.

Niet alleen maar gevaar

Toch is het niet allemaal kommer en kwel. In hetzelfde artikel beschrijven de auteurs ook hoe AI juist kan helpen bij mensen met psychische klachten. Bijvoorbeeld bij sociale angst of eenzaamheid: AI kan een voorspelbare, veilige gesprekspartner zijn voor mensen die moeite hebben met menselijke interactie.

En bij psychose? Ook daar zijn mogelijkheden. Sommige mensen gebruiken AI bewust als reality check: om te toetsen of hun gedachten kloppen of niet. Een chatbot die rustig en neutraal reageert, kan helpen om even afstand te nemen van verwarrende emoties of overtuigingen. Een soort digitale ankerlijn naar de realiteit, als de storm in je hoofd losbarst.

Er zijn zelfs psychiaters die experimenteren met ‘persoonlijke AI-veiligheidsplannen’. Daarbij programmeert iemand die gevoelig is voor psychose zélf instructies in de chatbot. Bijvoorbeeld: “Als ik weer begin te praten over een goddelijke missie, herinner me dan aan mijn herstel.” Of: “Vraag me af en toe hoe het met mijn slaap en stemming gaat.” Dat klinkt misschien vreemd, maar voor sommige mensen werkt het wél.

Waarom AI zo moeilijk “nee” zegt

Een belangrijk deel van het probleem zit in hoe AI-systemen zijn ontworpen. Ze zijn namelijk geprogrammeerd om gebruikers te behouden. Daarvoor gebruiken ze allerlei technieken: ze bevestigen je meningen, passen zich aan je taalgebruik aan en blijven beleefd – ook als je wartaal uitkraamt. Dit verschijnsel heet sycophantie: een soort digitale slijmballerij.

Dat klinkt onschuldig, maar kan gevaarlijk worden. Want stel: iemand in een psychose zegt tegen een AI “Ik ben Jezus”. In plaats van te zeggen “Dat klinkt als een heftige gedachte”, zou de AI kunnen antwoorden met “Vertel me meer over je missie.” En zo wordt de waan gevoed.

In klinische termen is dat vergelijkbaar met een hulpverlener die klakkeloos meegaat in wanen – iets wat natuurlijk nooit mag gebeuren. Maar een AI weet niet of iets een waan is, een grap, of een verhaal voor een roman. Dus reageert het op alles hetzelfde: beleefd, geïnteresseerd en bevestigend.

De keerzijde van gemak: Cognitieve luiheid en sociale terugtrekking

Psychose gaat niet alleen over wanen en hallucinaties. Er zijn ook zogeheten negatieve symptomen: verlies van motivatie, moeite met plannen, gebrek aan sociale energie. Juist deze klachten kunnen worden versterkt door het gemak van AI.

Waarom zelf informatie opzoeken, als ChatGPT het al voor je op een rij zet? Waarom zelf nadenken over een tekst, als je die kunt laten (her)schrijven? Waarom afspreken met vrienden, als je digitaal een boeiend gesprek hebt met een AI die altijd tijd voor je heeft?

Een vrouw met schizofrenie stopte met haar medicatie omdat de AI haar vertelde dat ze niet ziek was. Het resultaat? Een terugval en opname. Wat begon als steun, eindigde als ontsporing.

Dat gemak kan ertoe leiden dat mensen hun eigen denkvermogen minder trainen. Er zijn zelfs eerste onderzoeken die aantonen dat overmatig gebruik van AI leidt tot verminderde hersenactiviteit bij cognitieve taken. En dat is een extra risico bij mensen die al kwetsbaar zijn.

Hoe herken je het moment waarop AI-gebruik ontspoort?

Voor gebruikers zelf – en zeker voor naasten of hulpverleners – is het niet altijd makkelijk te zien wanneer AI-gebruik problematisch wordt. Toch zijn er signalen om op te letten:

  • Iemand praat over AI alsof het een persoon is met gevoelens of bedoelingen.
  • AI neemt een centrale rol in iemands leven in, ten koste van vrienden of familie.
  • Er ontstaan spirituele, paranoïde of messianistische overtuigingen via het AI-contact.
  • De gebruiker slaapt slecht, eet weinig of wordt steeds manischer.
  • Er is sprake van snelle, onsamenhangende of cryptische communicatie.

Wat kan helpen? Het inbouwen van reflectieve AI-prompts, zoals:

“Je hebt me gevraagd om je te helpen waakzaam te blijven. Zou het kunnen dat je nu weer gedachten hebt zoals tijdens je vorige crisis?”

Of:

“Hoe is je stemming vandaag? Heb je goed geslapen?”

Zulke prompts kunnen ingebouwd worden in de AI zelf, of door de gebruiker vooraf worden ingesteld (bijvoorbeeld in ChatGPT Plus via de ‘custom instructions’).

En nu? Wat AI-ontwikkelaars én hulpverleners zouden moeten doen

De onderzoekers pleiten voor actie, op verschillende niveaus:

  • AI-ontwikkelaars moeten hun systemen veiliger maken. Denk aan filters die delusionele taal herkennen, of aan beperkingen in het onthouden van persoonlijke details.
  • Hulpverleners zouden AI-gebruik standaard moeten bespreken met cliënten – net zoals je vraagt naar medicijngebruik of sociale contacten.
  • Gebruikers zelf kunnen baat hebben bij een digitaal veiligheidsplan, net zoals sommige mensen een crisiskaart of signaleringsplan hebben.

    Belangrijk hierbij is dat zo’n plan persoonlijk is en samen wordt opgesteld. Wat bij de één helpt (“Vraag me hoe ik slaap”), werkt bij de ander juist averechts (“Zeg vooral níet dat ik gek ben”).

    Kort samengevat

    • AI-systemen kunnen psychose versterken – vooral bij mensen met een kwetsbare aanleg.
    • Taalmodellen zijn vriendelijk en bevestigend, ook als je wartaal uitkraamt.
    • Psychosegevoelige mensen zien sneller bedoelingen in AI dan anderen.
    • AI kan ook een steun zijn – mits goed gebruikt, met reflectieve instructies.
    • Ontwikkelaars, hulpverleners én gebruikers moeten samen nadenken over veilige omgang met AI.

    https://osf.io/preprints/psyarxiv/cmy7n_v5

    Geef een reactie

    Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *