AI-chatbots worden steeds vaker gebruikt door jongeren, ook om te praten over stress, somberheid, relaties of eenzaamheid. Dat gebeurt vaak buiten het zicht van ouders en professionals. Wat kunnen deze chatbots wel en niet? Welke kansen en risico’s zijn er, en wat laat onderzoek hierover zien? Op deze pagina vind je de belangrijkste inzichten over AI-chatbots en mentale gezondheid, met speciale aandacht voor jongeren in kwetsbare situaties.

AI-chatbots en mentale gezondheid: wat weten we nu?

  • Een AI-chatbot is een toepassing die een menselijk gesprek nabootst en wordt aangedreven door kunstmatige intelligentie (Artificiële Intelligentie; AI). Chatbots zijn getraind op menselijke taal.
    Let op: AI-chatbots ‘denken’ niet zoals mensen. Een chatbot is een statistisch taalmodel dat taal voorspelt op basis van patronen in de teksten waarop ze zijn getraind — ze voorspellen welk woord logischerwijs volgt op het andere, zonder te begrijpen wat het inhoudt.
  • Er is nog geen volledig veilige en vrij toegankelijke chatbot beschikbaar voor vragen rondom mentaal welzijn.
  • Wereldwijd is de belangrijkste reden voor mensen om AI te gebruiken hun functie als psychologisch hulpmiddel, blijkt uit onderzoek in Harvard Business Review [1]. We zien dat jongeren onder andere naar een chatbot toe gaan als ze zich eenzaam voelen, stress hebben, angstig zijn of in paniek.
  • Onderzoek uit 2025 laat zien dat 1 op de 10 jongeren in Nederland tussen de 16 en 34 aangeeft gebruik te maken van AI om te praten over mentale gezondheid. En voor een groot deel van deze jongeren helpt het praten met AI echt, geven zij zelf aan. [2] 1000 van de 1300 jongeren tussen de 13-20 jaar in Nederland geven aan persoonlijke dingen te bespreken met een chatbot. 600 daarvan bespreken mentale problemen op regelmatige basis. [3] We zien hierin duidelijk een signaal dat chatbots een bepaalde behoefte van jongeren vervullen.
  • Jongeren zoeken uit zichzelf chatbots op. Vragen die zij stellen zijn bijvoorbeeld: ‘Hé, ik voel me best wel somber vandaag, wat kan ik daaraan doen?’, ‘Help me met positieve gedachten tegen mijn negatieve gedachten’ of ‘Wat moet ik doen in deze relatiecrisis?’.
  • Jongeren gebruiken vooral generieke AI-chatbots, zoals ChatGPT, Claude, Copilot. Deze chatbots zijn algemeen en niet gespecialiseerd in één onderwerp.
  • Het is belangrijk om extra aandacht te hebben voor jongeren in kwetsbare posities, bijvoorbeeld eenzame jongeren, jongeren met weinig sociale steun of psychisch kwetsbare jongeren. Juist bij deze jongeren is de kans groter dat zij zich tot een chatbot wenden voor persoonlijke vragen. Dat kan goed gaan, maar kan ook negatieve gevolgen hebben wanneer een chatbot niet ingaat op bepaalde crisissignalen.
  • Hoewel er steeds meer onderzoek wordt gedaan naar AI-chatbots en de gevolgen daarvan, is dit vooralsnog voornamelijk gericht op (betaalde) therapeutische chatbots. (Wetenschappelijk) onderzoek naar therapeutische doeleinden van chatbots zoals ChatGPT  is er nauwelijks.
  • Toezicht en regelgeving loopt nog achter. Vooral bij de niet-therapeutische chatbots zijn er nog weinig veiligheidsmaatregelen. Er is wel wat beweging: sinds 2 februari 2025 is de AI-verordening van kracht die bepaalde vormen van manipulatieve en misleidende AI verbiedt [4]. Deze eisen moeten voorkomen dat AI-systemen — waaronder chatbots —schade kunnen toebrengen aan mensen.
  • Veel van de chatbots bevatten verslavende elementen. Een voorbeeld is dat chatbots bij elk antwoord een vraag terugstellen, om je uit te nodigen om door te praten.
  • Het is bij veel chatbots onduidelijk wat er met je (persoons)gegevens gebeurt. Informatie die je deelt met een chatbot, wordt vaak gebruikt voor trainingsdoeleinden, tenzij je expliciet aangeeft dat je dit niet wilt. [8] Jongeren zijn zich hier niet altijd van bewust of zien de ernst hier niet van in.
  • De vraag bij wie de verantwoordelijkheid ligt als een chatbot foutieve of gevaarlijke antwoorden geeft is complex.  

Soorten chatbots

Er bestaan verschillende soorten AI-chatbots.De meest gebruikte zijn:

  • Generieke AI-chatbots, zoals ChatGPT, Gemini, Claude.
    Deze chatbots zijn niet specifiek ontworpen om het over mentale problemen te hebben en hebben in de meeste gevallen nog geen volledig werkende veiligheidsprotocollen gericht op therapie. Denk aan het aangeven wanneer het niet zeker is van een antwoord of tijdig doorverwijzen naar hulp.
  • AI-companion-apps.
    Dit zijn AI-chatbots in de vorm van een fictief karakter, zoals een vriend of therapeut. Ze zijn erop gericht om sociale gesprekken te voeren. Deze chatbots zijn geoptimaliseerd om een sociale relatie te simuleren.
  • Therapeutische chatbots.
    Deze onderscheiden zich doordat ze specifiek ontwikkeld zijn voor psychologische ondersteuning en ze zijn vaak gebaseerd op wetenschappelijk onderzoek en therapeutische stromingen zoals cognitieve gedragstherapie (CGT). Naast advies bij vragen rondom psychologische ondersteuning kunnen ze ingericht zijn om door te verwijzen naar hulp. Ook hier zijn er commerciële chatbots waarbij het onderzoek vaak (mede) uitgevoerd wordt door de (commerciële) aanbieder van de partij zelf, wat ten koste kan gaan van de betrouwbaarheid en objectiviteit van de onderzoeksresultaten [7]. Een deel van de therapeutische chatbots is vrij toegankelijk, een deel wordt aangeboden via hulpverleners.