AI-chatbots worden steeds vaker gebruikt door jongeren, ook om te praten over stress, somberheid, relaties of eenzaamheid. Dat gebeurt vaak buiten het zicht van ouders en professionals. Wat kunnen deze chatbots wel en niet? Welke kansen en risico’s zijn er en wat laat onderzoek hierover zien? Op deze pagina vind je de belangrijkste inzichten over AI-chatbots en mentale gezondheid, met speciale aandacht voor jongeren in kwetsbare situaties.

Het speelveld rondom AI-chatbots en mentale gezondheid

Grote behoefte, geen veilige standaard

  • Wereldwijd is de belangrijkste reden voor mensen om AI te gebruiken hun functie als psychologisch hulpmiddel, blijkt uit onderzoek in Harvard Business Review [1]. We zien dat jongeren onder andere naar een chatbot toegaan als ze zich eenzaam voelen, stress hebben, angstig zijn of in paniek.
  • Er is nog geen volledig veilige en vrij toegankelijke chatbot beschikbaar voor vragen rondom mentaal welzijn.

Gebruik onder jongeren: cijfers en signalen

  • Onderzoek uit 2025 laat zien dat 1 op de 10 jongeren in Nederland tussen de 16 en 34 aangeeft gebruik te maken van AI om te praten over mentale gezondheid. En voor een groot deel van deze jongeren helpt het praten met AI echt, geven zij zelf aan [2]. 1000 van de 1300 jongeren tussen de 13-20 jaar in Nederland geven aan persoonlijke dingen te bespreken met een chatbot. 600 daarvan bespreken mentale problemen op regelmatige basis [3]. We zien hierin duidelijk een signaal dat chatbots een bepaalde behoefte van jongeren vervullen.
chatbot illustratie
  • Jongeren zoeken uit zichzelf chatbots op. Vragen die zij stellen zijn bijvoorbeeld: ‘Hé, ik voel me best wel somber vandaag, wat kan ik daaraan doen?’, ‘Help me met positieve gedachten tegen mijn negatieve gedachten’ of ‘Wat moet ik doen in deze relatiecrisis?’.
  • Jongeren gebruiken vooral generieke AI-chatbots, zoals ChatGPT, Claude, Copilot. Deze chatbots zijn algemeen en niet gespecialiseerd in één onderwerp.
  • Het is belangrijk om extra aandacht te hebben voor jongeren in kwetsbare posities, bijvoorbeeld eenzame jongeren, jongeren met weinig sociale steun of psychisch kwetsbare jongeren. Juist bij deze jongeren is de kans groter dat zij zich tot een chatbot wenden voor persoonlijke vragen. Dat kan goed gaan, maar kan ook negatieve gevolgen hebben wanneer een chatbot niet ingaat op bepaalde crisissignalen.

Beperkingen, onzekerheden en verantwoordelijkheid

  • Een AI-chatbot is een toepassing die een menselijk gesprek nabootst en wordt aangedreven door kunstmatige intelligentie (Artificiële Intelligentie; AI). Chatbots zijn getraind op menselijke taal.

Let op: AI-chatbots ‘denken’ niet zoals mensen
Een chatbot is een statistisch taalmodel dat taal voorspelt op basis van patronen in de teksten waarop ze zijn getraind — ze voorspellen welk woord logischerwijs volgt op het andere, zonder te begrijpen wat het inhoudt.

  • Hoewel er steeds meer onderzoek wordt gedaan naar AI-chatbots en de gevolgen daarvan, is dit vooralsnog voornamelijk gericht op (betaalde) therapeutische chatbots. (Wetenschappelijk) onderzoek naar therapeutische doeleinden van chatbots zoals ChatGPT  is er nauwelijks.
  • Toezicht en regelgeving lopen nog achter. Vooral bij de niet-therapeutische chatbots zijn er nog weinig veiligheidsmaatregelen. Er is wel wat beweging: sinds 2 februari 2025 is de AI-verordening van kracht die bepaalde vormen van manipulatieve en misleidende AI verbiedt [4]. Deze eisen moeten voorkomen dat AI-systemen – waaronder chatbots – schade kunnen toebrengen aan mensen.
  • Het is bij veel chatbots onduidelijk wat er met je (persoons)gegevens gebeurt. Informatie die je deelt met een chatbot, wordt vaak gebruikt voor trainingsdoeleinden, tenzij je expliciet aangeeft dat je dit niet wilt [5]. Jongeren zijn zich hiervan niet altijd bewust of zien de ernst hier niet van in.
  • Veel chatbots bevatten verslavende elementen. Een voorbeeld is dat chatbots bij elk antwoord een vraag terugstellen, om je uit te nodigen om door te praten.
  • De vraag bij wie de verantwoordelijkheid ligt als een chatbot foutieve of gevaarlijke antwoorden geeft is complex.
chatbot illustratie

Soorten chatbots

Er bestaan verschillende soorten AI-chatbots. De meest gebruikte zijn:

Generieke chatbots

  • Deze chatbots, zoals ChatGPT, Gemini, Claude, zijn niet specifiek ontworpen voor mentale problemen. Ze hebben in de meeste gevallen nog geen volledig werkende veiligheidsprotocollen gericht op therapie [6]. Denk aan het aangeven wanneer het niet zeker is van een antwoord of tijdig doorverwijzen naar hulp.

Bedrijven zoals Chatgpt zijn wel bezig met verbeteringen hierin, maar risico’s blijven nog bestaan.

AI-companion-apps

  • Dit zijn AI-chatbots in de vorm van een fictief karakter, zoals een vriend of therapeut. Ze zijn erop gericht om sociale gesprekken te voeren. Deze chatbots zijn geoptimaliseerd om een sociale relatie te simuleren [7].

Therapeutische chatbots

chatbot illustratie
  • Deze onderscheiden zich doordat ze specifiek ontwikkeld zijn voor psychologische ondersteuning en ze zijn vaak gebaseerd op wetenschappelijk onderzoek en therapeutische stromingen zoals cognitieve gedragstherapie (CGT) [8][9]. Naast advies bij vragen rondom psychologische ondersteuning kunnen ze ingericht zijn om door te verwijzen naar hulp. Ook hier zijn er commerciële chatbots waarbij het onderzoek vaak (mede) uitgevoerd wordt door de (commerciële) aanbieder van de partij zelf, wat ten koste kan gaan van de betrouwbaarheid en objectiviteit van de onderzoeksresultaten [10].

Samenvatting van de handreiking?