Onafhankelijke journalistiek over de Vrije Universiteit Amsterdam | Sinds 1953
17 februari 2026

Studentenleven
& Maatschappij

Het gevaarlijke gemak van een therapeut in je broekzak

AI-chatbots zijn onze gratis therapeuten geworden: altijd wakker, altijd beschikbaar, altijd bevestigend. Maar wat als die digitale vertrouwenspersoon onze denkwereld niet verdiept, maar juist vernauwt?

Het maakt trainingsschema’s, rolt er een smakelijk recept uit voor de vier onsamenhangende ingrediënten in je keukenkastje, loodst je via de beste eettentjes langs de trekpleisters van een nieuwe stad én geeft levensadvies. Het gemak van een goed geïnformeerde gesprekspartner in onze broekzak is het domein van de geestelijke gezondheidszorg ingeslopen. En dat is misschien niet gek: in tegenstelling tot een menselijke therapeut is een AI-chatbot gratis, laagdrempelig, meteen te gebruiken en op elke moment van de dag en nacht aanwezig om je te antwoorden. Hier hoef je niet hard te werken voor een doorverwijzing van je huisarts, word je niet geplaatst op een wachtlijst of start je een lange zoektocht naar een therapeut met wie het klikt.   

Cijfers van internationaal marktonderzoeksbureau Kantar laten zien dat iets meer dan de helft van de AI-gebruikers wereldwijd chatbots om advies vraagt op emotioneel vlak. Vooral in momenten van eenzaamheid, besluiteloosheid of emotionele overbelasting blijken mensen naar hun telefoon te grijpen. De 10.000 deelnemers aan het onderzoek zeiden bijvoorbeeld dat ze zich keerden tot AI om anderen niet met hun leed te hoeven opzadelen, een neutraal perspectief te krijgen en om hun hart te kunnen luchten zonder het risico veroordeeld te worden.   

Gezellig meepraten   

Maar dat is juist waar gevaar in schuilt, zegt VU-onderzoeker klinische psychologie Tara Donker. Omdat de chatbots empathisch zijn geprogrammeerd en niet zullen oordelen, durven mensen dingen te delen die ze bijvoorbeeld niet aan vrienden of een therapeut vertellen. “Zo vormt er een emotionele binding. Maar omdat chatbots vooral bezig zijn met het geven van bevestiging, ontstaat er ook een confirmation bias. Ze praten met je mee in plaats van door te vragen.”   

Ook Mark Hoogendoorn, AI-expert aan de afdeling Informatica en werkzaam binnen het AI & Health Center aan de VU, ziet dat chatbots in hun reacties tekortschieten. “De software is er vooral op gericht dat jij een prettige chat-ervaring hebt en terugkomt als gebruiker.” En dat pakt onwenselijk uit volgens Donker. “In therapie is het hebben van een advocaat van de duivel heel belangrijk. Met doorvragen en door alternatieve verklaringen of gedachtes voor te leggen, worden blinde vlekken zichtbaar. Zeker bij angsten is het belangrijk dat het denkbeeld van de cliënt wordt uitgedaagd. Als een chatbot je in je angsten gaat bevestigen, werkt dat averechts.”   

Meerdere mensen pleegden zelfmoord nadat ze met een chatbot spraken  

In de geestelijke gezondheidszorg wordt er inderdaad al gesproken van ‘chatbotpsychoses’: situaties waarin mensen in een waan komen na intensief contact met een chatbot. Ze krijgen diagnoses opgelepeld, worden geïsoleerd van hun omgeving en krijgen advies waarvan onduidelijk is waar het precies op is gestoeld. “En waar een therapeut de crisisdienst belt als het dreigt mis te gaan met een cliënt, is zo’n chatbot vooral bezig met informatie geven”, zegt Donker.    

Drukte bij 113  

Dat het vertrouwen van een chatbot met je diepst emotionele leed gevaarlijk kan zijn, is pijnlijk duidelijk geworden door meerdere voorvallen van mensen die zelfmoord pleegden nadat ze met een chatbot spraken. OpenAI, het bedrijf achter ChatGPT, zocht zelf uit dat 0,15 procent van de 800 miljoen wekelijkse actieve ChatGPT-gebruikers met de chatbot praat over ‘potentiële suïcidale plannen of intenties’. Dat zijn 1,2 miljoen mensen.  

In de nasleep zag OpenAI zich genoodzaakt in hun software-update extra beveiliging in te bouwen. Bij prompts met bepaalde ‘triggerwoorden’ zouden dan in plaats van alleen een antwoord te verschijnen, ook of enkel een aanbeveling voor psychische hulp te zien zijn. In Nederland is dit bijvoorbeeld de 113 Zelfmoordhulplijn. Maar dat afstellen van ingebouwde beveiliging is zo makkelijk nog niet. Hoogendoorn: “In GPT-4 werd te weinig geadviseerd om 113 te bellen, maar bij GPT-5 wordt het juist te vaak geadviseerd. Er komen nu veel meer telefoontjes terecht bij 113 van mensen die helemaal niet over zelfmoord nadenken.”   

Gratis misinformatie  

De grote vraag blijft ook waar chatbots hun informatie precies vandaan halen. Volgens Hoogendoorn is dat moeilijk te achterhalen. “Er is bij de meeste chatbots een zeer gebrekkig inzicht in welke data worden gebruikt.” Wat we wel weten: chatbots kunnen in principe niet om betaalmuren heen. De software verzamelt in een razend tempo informatie, maar kan dat dus niet altijd halen uit onderzoeksartikelen of wetenschappelijke papers waar een (gratis) abonnement voor nodig is. Hoogendoorn: “Informatie kan dus ook komen van fora, religieuze websites, blogs van Jan en alleman die zeggen: ik heb een oplossing gevonden om uit mijn depressie te komen.” In feite is dat dan niet echt anders dan informatie die we op sociale media vinden, zegt Donker – waar ook veel schadelijke misinformatie wordt verspreid.   

Opgeslagen data 

En hoe zit het eigenlijk met de beveiliging van alle input die we onze chatbots toevertrouwen? Een menselijke therapeut hanteert een wettelijk beroepsgeheim. Wie voor AI-software betaalt, kan er vaak voor kiezen dat hun data niet worden gebruikt om het algoritme te trainen. “Maar de data wordt wel opgeslagen, waarschijnlijk ergens in Amerika. En het is niet ondenkbaar dat de overheid op een gegeven moment zegt: ik wil die data hebben. Dan betwijfel ik of een bedrijf als OpenAI sterk genoeg is om dat niet te doen”, aldus Hoogendoorn.  

Wie draagt de verantwoordelijkheid voor al deze risico’s? Tot nu toe lijkt het vooral de gebruiker zelf – met uitzondering van het handjevol succesvolle rechtszaken dat mensen aanspanden tegen de techreuzen achter de AI-software. “Bedrijven hebben weinig motivatie om te laten zien hoe hun software op informatie komt. Zolang ze nergens verantwoordelijk voor worden gehouden, hoeven ze die transparantie niet te geven. Er moeten duidelijke regels komen in de wetgeving waaraan AI moet voldoen. En experts zoals zorgprofessionals zouden eigenlijk eerder al betrokken moeten worden bij het ontwikkelen van die software. Zonder klinische expertise kun je niet bepalen wat veilig of bruikbaar is.”  

Empathie aanleren 

Blind meegaan met hun output moeten we niet, maar Donker denkt wel dat chatbots mensen kunnen helpen hun gedachten op een rij te krijgen. “Ik hoor van psychologen om me heen dat hun cliënten het gebruiken, en dat er ook dingen echt niet klopten. De therapeuten zeggen dan vaak: neem het mee, dan bekijken we het samen tijdens de therapiesessie.”   

In therapie is een advocaat van de duivel heel belangrijk 

Naast de risico’s van toezichtloos individueel AI-gebruik zien zowel Hoogendoorn als Donker ook kansen voor AI om administratieve taken in de (geestelijke) gezondheidszorg over te nemen of aan te vullen. Voor het samenvatten van een gesprek met een cliënt bijvoorbeeld, om brieven op te stellen of bepaalde behandelingen uit te leggen. En klinisch onderzoeker Donker werkt momenteel aan de app ZeroOCD, waarin mensen met smetvrees mondjesmaat, via augmented reality, blootgesteld worden aan onder andere vuil, schadelijke stoffen en ziekten: exposure therapy. “Zo leer je langzaamaan: dit levert geen direct gevaar op. Je hersenen maken dan nieuwe verbindingen aan.”   

Donker verwacht niet dat therapeuten voor hun baan zullen moeten vrezen door het oprukkende AI. Een hybride vorm waarin AI menselijke therapeuten kan ondersteunen, ziet ze wel voor zich. “Ik denk dat psychologen op het gebied van empathie tonen aan cliënten ook best wat kunnen leren van een chatbot.” Echt vervangen zullen menselijke therapeuten niet worden, denken Donker en Hoogendoorn. 70 procent van de ondervraagden in het Kantar-onderzoek verkoos nog steeds een menselijke gesprekspartner bij het bespreken van een emotioneel onderwerp. Uiteindelijk raken we misschien ook wel uitgekeken op iemand die altijd maar met ons meepraat. 

‘Als een chatbot je in je angsten gaat bevestigen, werkt dat averechts’

Reageren?

Dat is alleen mogelijk met een e-mailadres dat is verbonden aan de VU. Reacties worden gepubliceerd met voornaam of initiaal en achternaam. Houd je bij het onderwerp, en toon respect: commerciële uitingen, smaad, schelden en discrimineren zijn niet toegestaan. Reacties met url’s erin worden vaak aangezien voor spam en dan verwijderd. De redactie gaat niet in discussie over verwijderde reacties. Je e-mailadres wordt niet gepubliceerd en delen we niet met derden. We gebruiken het alleen als we contact met je zouden willen opnemen over je reactie. Zie ook ons privacybeleid.

Velden met een * zijn verplicht