Steeds meer mensen zetten ChatGPT of Gemini in om hun mentale klachten mee te bespreken. Toch kleven er voorlopig nog te veel risico’s aan chatbottherapie, aldus twee experts op NEMO Kennislink.
Geen gewone therapeut. Nee, een chatbot-therapeut. Jelle van der Pal (42 jaar, client-vertegenwoordiger, bekend met ernstige psychiatrische aandoeningen) maakt er zeker een paar keer per week gebruik van. “Het is vooral fijn om te kunnen sparren als ik in een slechte stemming ben”, vertelt Jelle. En Jelle is niet de enige. Sinds de lancering van tools die werken op basis van kunstmatige intelligentie (AI), zoals ChatGPT of Google Gemini, kiezen steeds meer mensen ervoor om hun mentale klachten te bespreken met een chatbot.
Wat maakt therapie via een chatbot zo aantrekkelijk? Jelle: “Ik word regelmatig midden in de nacht wakker met een hoofd vol gedachten. Mijn vriendin slaapt dan al, maar Gemini staat altijd ‘aan’. Dan kan ik mijn hoofd even leegmaken.” Voor Jelle speelt ook het niet-oordelende karakter van een chatbot mee. “Ik heb de AI een specifieke prompt gegeven”, vertelt Jelle. “Daarin staat dat ik behoefte heb aan eerlijke, maar respectvolle antwoorden. Dat werkt goed. De toon is vriendelijk maar soms ook confronterend — precies wat ik nodig heb.”
Goede vriend
Chatbots draaien op zogeheten Large Language Models (LLM’s): taalmodellen die zijn getraind op miljarden woorden uit boeken, gesprekken, artikelen, recepten, songteksten — eigenlijk alles wat digitaal leesbaar is. Hierdoor kunnen ze taal begrijpen en produceren op een manier die verrassend menselijk aanvoelt.
Zeg je tegen een
chatbot “Ik voel me rot vandaag,” dan weet het model dat je op zoek bent naar
steun. Het kan daarop reageren met een opmerking als “Dat klinkt zwaar” of “Wat
goed dat je dat deelt.” Door die toon van herkenning en mildheid lijkt het even
alsof je met een goede vriend praat. Of zelfs een therapeut. En bij twijfel
komt er soms een vraag terug: “Wat maakt je het meest onzeker?” — een
uitnodiging tot reflectie, zoals je die in een therapiesessie zou verwachten.
— Hanneke ten Hag
Jelle gebruikt de chatbot vooral ter inzicht: “Soms bots ik met iemand en snap ik niet waarom. Door het gesprek met de chatbot kan ik beter begrijpen wat er in mij of de ander omgaat.”
Geen vangnet
“Ik heb het zelf ook geprobeerd, even een uurtje therapie met ChatGPT. Ik zie de aantrekkingskracht, maar op dit moment raad ik het sterk af”, vertelt wetenschapper en psychiater Edwin van Dellen van het Universitair Medisch Centrum Utrecht.
Dat de ontwikkeling
van taalmodellen mogelijkheden en potentie biedt binnen een therapeutische
setting, ziet ook Van Dellen. “Een chatbot is 24/7 beschikbaar, ook op momenten
waarop niemand anders de telefoon nog opneemt. Daarnaast worden de antwoorden steeds
natuurlijker”, legt Van Dellen uit. “Door een chatbot gerichte instructies te
geven — zogeheten ‘prompts’ — kun je hem laten reageren als een cognitief
gedragstherapeut”, legt hij uit. En dat blijkt te werken. Een recente studie
laat zien dat gesprekken met chatbot angstklachten kunnen verlichten.
Toch plaatst Van Dellen daar direct een kanttekening bij: “Het onderzoek vond plaats in een gecontroleerde setting. Op momenten dat de chatbot een onhandig of onprettig antwoord gaf, was er altijd een menselijke therapeut beschikbaar om bij te sturen. Dat vangnet is in het dagelijks gebruik meestal niet aanwezig.”

Een chatbot is 24/7 beschikbaar, ook op momenten waarop niemand anders de telefoon nog opneemt.
JESHOOTS-com via PixabayGrootschalige invoering van chatbottherapie binnen de geestelijke gezondheidszorg is volgens Van Dellen toekomstmuziek. “Er is eerst wetenschappelijk onderzoek nodig naar de langetermijneffecten. Kijk naar sociale media: pas twintig jaar later beginnen we echt te begrijpen hoe schadelijk ze kunnen zijn voor jongeren. Die fout mogen we met AI niet opnieuw maken.”
Jelle ziet in zijn omgeving dat het gebruik van chatbots bij mentale klachten razendsnel toeneemt. “Bijna iedereen die ik ken, gebruikt er wel eens één. Deze ontwikkeling hou je niet tegen. Het is belangrijk dat de geestelijke gezondheidszorg zich hierin verdiept.”
Subtiele signalen
Een belangrijk aandachtspunt is hoe chatbots omgaan met crisissituaties. “Mensen met mentale problemen bevinden zich vaak in een kwetsbare positie”, zegt Van Dellen. “Hoewel chatbots taaltechnisch goed zijn, missen ze momenteel de gevoeligheid om subtiele signalen van bijvoorbeeld suïcidaliteit te herkennen.”
Jelle is zich daarvan bewust. “Ik bespreek geen crisissituaties met een chatbot. Het blijft een computer. Die kan mij daar echt niet bij helpen.” Jelle vertelt: “Als ik boos ben en mijn frustratie uit bij de chatbot, stopt die het gesprek soms abrupt of raadt aan om hulp te zoeken. Dat is frustrerend. Maar op zo’n moment weet ik dat ik beter een wandeling kan maken of bij een persoon moet aankloppen.”
— Edwin van Dellen
De beperkingen zijn niet alleen technisch van aard. Er zijn ook zorgen over culturele bias, stigma’s en miscommunicatie. “Een chatbot weet niet wie er aan de andere kant zit,” legt Van Dellen uit. “Als ik iemand met een verstandelijke beperking in mijn spreekkamer heb, pas ik mijn uitleg daarop aan. Een chatbot kan dat alleen als je daar uitdrukkelijk om vraagt — en dat gebeurt lang niet altijd.”
Daarnaast is er het risico dat een chatbot té veel meegaat in het verhaal van de gebruiker. Wanneer een model te empathisch reageert, kan dat averechts werken. “Soms moet je als therapeut juist confronteren of bijsturen. Een chatbot zal sneller bevestigen of meegaan met de toon van het gesprek — ook als dat misschien niet helpend is”, aldus Van Dellen.
Commercieel doel
Als het misgaat, is
de vraag: wie is er verantwoordelijk? Volgens gezondheidsjurist en arts Hanneke
ten Hag van het Universitair Medisch Centrum Utrecht is dat nog niet helder. “Wanneer
we chatbots voor therapeutisch gebruik gaan inzetten, is het waarschijnlijk dat
een chatbot valt onder ‘hoog risico’ binnen de Europese regelgeving. Dat
betekent dat de antwoorden steekproefsgewijs door mensen gecontroleerd moeten
worden. Daar is echter nog niets over besloten.”
Daarnaast wijst Ten Hag op de commerciële belangen achter veel AI-tools. “Jij gebruikt de chatbot voor je mentale welzijn, maar de makers willen vooral dat je zo veel en lang mogelijk actief bent. Hoe meer data jij deelt, hoe beter voor hun verdienmodel.” Van Dellen bevestigt: “Zolang je betaalt met je data, raad ik het af om een chatbot te gebruiken voor je mentale gezondheid. Wanneer een chatbot wordt ontwikkeld vanuit de gezondheidszorg, zonder commercieel doel, dan zit het weer anders.”

Niemandsland
Wat je deelt met een chatbot voelt misschien privé — maar of het dat ook écht is, valt te betwijfelen. “Veel AI-chatbots zijn een black box”, legt Ten Hag uit. “Gebruikers weten vaak niet wat er met hun gegevens gebeurt. Die informatie is moeilijk te vinden. Bij ChatGPT kun je bijvoorbeeld aangeven of je gesprekken gebruikt mogen worden voor trainingsdoeleinden, maar verder houdt de transparantie op.”
De Europese AI Act is een eerste stap naar strengere regels, vertelt Ten Hag. “Deze wetgeving verplicht bedrijven om duidelijk te maken dat je met een chatbot spreekt, iets wat nu niet altijd duidelijk is. Ook moet worden vastgelegd wat er met de data gebeurt.” Die wet treedt pas medio 2026 in werking. “Tot die tijd zitten we in een soort niemandsland.”
Jelle maakt zich daar vooralsnog weinig zorgen over. “Ik deel geen heel persoonlijke dingen. Het gaat vooral om dagelijkse worstelingen. Ik denk wel na over wat ik deel, maar verder zie ik er geen probleem in.”
AI-chatbots bieden een laagdrempelig luisterend oor — dag en nacht, zonder oordeel. Voor veel mensen een uitkomst. Revolutionair? Of een potentieel gevaar? Een chatbot is tenslotte geen diagnose- of crisishulpmiddel.
Zowel Ten Hag als Van Dellen zien potentie in de ontwikkeling van taalmodellen, maar uiten ook grote zorgen. Precies daarom is verder onderzoek essentieel: wat werkt écht, voor wie, en onder welke omstandigheden? Ook de ontwikkeling van wet- en regelgeving moet mee, zodat duidelijk is wat mag, wat moet, en wie waarvoor verantwoordelijk is. Een nieuwe uitdaging voor de wetenschap, geestelijke gezondheidszorg en overheden.