Jongeren geven steeds vaker aan dat AI-chatbots hen helpen bij vragen over mentaal welzijn. Sommigen ervaren gesprekken met een chatbot zelfs als levensveranderend. Tegelijkertijd zien we ook risico’s en zorgelijke voorbeelden. Wat duidelijk wordt: het gebruik van AI-chatbots laat zien dat jongeren een behoefte hebben aan steun, verbinding en snelle reacties die zij elders niet altijd vinden. Voor professionals is het daarom belangrijk om zowel de mogelijke voordelen als de risico’s te begrijpen, om hierover het gesprek aan te kunnen gaan en jongeren beter te begeleiden.

We zien aan de ene kant dat jongeren zelf aangeven AI-chatbots fijn en behulpzaam te vinden als psychologisch hulpmiddel. Sommige jongeren noemen het gebruik van chatbots voor therapie zelfs een life changing ervaring. [1] Aan de andere kant horen en zien we ook verhalen over de mogelijke gevaren van zulke gesprekken.

Wat duidelijk is, is dat achter het gebruik van AI-chatbots voor vragen rondom mentaal welzijn een behoefte zit die jongeren kennelijk niet of onvoldoende ergens anders vervuld zien. Zoals de behoefte aan contact en verbinding en gezien worden. Ook hebben jongeren tegenwoordig steeds meer behoefte aan snelle steun en reactie, omdat zij in de online wereld steeds meer gewend zijn dit te snel te krijgen. Een AI-chatbot kan daarom voor jongeren een ideaal middel zijn om aan deze behoefte te voldoen.

Het is daarom als professional belangrijk om je bewust te zijn van de voordelen die een AI-chatbot jongeren kan brengen en deze te erkennen. Alleen dan kan je een open gesprek aangaan en onderzoeken welke behoefte een AI-chatbot voor hen vervult.

Tip: Vraag je af waaróm een jongere hulp vraagt aan een chatbot. Welke behoefte zit er achter die hulpvraag? Bijvoorbeeld: Heeft de jongere het gevoel niet (voldoende) bij een volwassene of ander betrouwbaar persoon terecht te kunnen met vragen? Of kan dat niet snel genoeg? Of heeft de jongere het idee dat de chatbot een beter advies geeft? Of weet de jongere niet welke volwassene betrouwbaar is? Of schakelt het een chatbot in, omdat hij/zij dat ook doet bij allerlei andere vragen of opdrachten? Of omdat iedereen dat doet?

Mogelijke voordelen

We zijn in ons literatuuronderzoek en gesprekken met professionals en jongeren diverse voordelen voor jongeren tegengekomen in de context van AI-chatbots als psychologisch hulpmiddel.

  • Chatbots zijn een vorm van gezelschap die altijd beschikbaar is, op de voorwaarden van de gebruiker. Een chatbot reageert meteen (24/7) en je kan een pauze inlassen wanneer je wilt. Deze altijd beschikbare, snel reagerende 'persoon' is een van de belangrijkste redenen voor het gebruik van een chatbot.
  • Chatbots zijn (grotendeels) gratis beschikbaar en zonder wachttijd. Dat is vooral aantrekkelijk vanwege de huidige lange wachtlijsten in de geestelijke gezondheidszorg. Daarnaast zijn ze laagdrempelig, door anonimiteit en omdat ze geen oordeel geven of stigma hebben. Jongeren durven daarom ook vaak meer (persoonlijke) dingen te delen en het kan de drempel om hulp te zoeken verlagen. AI kan een belangrijke eerste stap zijn voor jongeren om te werken aan hun mentale problemen.
  • AI-chatbots zijn als een multi-purpose tool die je volledig kan personaliseren. Jongeren delen vaak veel informatie over zichzelf op verschillende gebieden met chatbots. Chatbots kunnen daarom advies geven vanuit verschillende perspectieven, terwijl een therapeut vaak alleen vanuit zijn eigen beroepsgroep adviseert. Ook kan een chatbot meerdere rollen vervullen en lopen deze ook door elkaar, zoals een therapeut, vriend, familie, school. Chatbots kunnen psycho-educatie geven, gezelschap bieden, helpen bij emotionele verwerking, advies en coaching geven, ondersteunen bij een crisis, etc. Jongeren hebben hierdoor het gevoel dat een chatbot hen beter begrijpt dan iemand anders en daardoor sneller bepaalde patronen in gedrag kan ontdekken. Quote: ‘Het kent me beter dan iemand me ooit heeft gekend’.
  • Chatbots hebben mogelijk de potentie om mentale klachten bij jongeren te verhelpen. Hier is vooral bewijs voor in de context van wetenschappelijke onderbouwde chatbots [2]. Jongeren zelf geven ook aan dat het gebruik van AI-chatbots een positieve impact heeft op hun mentale klachten en dat AI hen hielp om weer contact met anderen op te zoeken. Jongeren ervaren soms dat gesprekken met een chatbot hen beter hielp dan een therapeut [3].
  • Een AI-chatbot kan voelen als een veilige haven. Het is begripvol, geduldig en validerend en het verwacht niets terug. Het creëert een gevoel van gezelschap en het gevoel dat er altijd iemand voor de jongere is, bijvoorbeeld door elke ochtend ‘goedemorgen’ te wensen en elke avond ‘goedenavond’ wanneer je met de chatbot praat. Jongeren voelen zich gezien en gehoord en krijgen de bevestiging dat ze goed zijn zoals ze zijn. Een chatbot is een luisterend oor en klankbord.

Mogelijke risico’s

Het is belangrijk om als professional kennis te hebben van de risico’s van het gebruik van AI-chatbots en hoe je dit kunt herkennen. Door je hiervan bewust te zijn, kun je als professional een betere afweging maken of het gebruik in een bepaalde situatie passend is of niet. Jongeren zijn zich soms wel en soms niet bewust van (alle) risico’s. En ook al weten jongeren dat er risico’s kunnen zijn aan het gebruik van AI, betekent dat niet automatisch dat ze het niet meer zullen gebruiken. Ook daarom is het van belang om te achterhalen waarom een jongere gebruik maakt van een AI-chatbot.

De risico’s kunnen spelen bij alle drie de typen chatbots.

In het algemeen is gebruik vooral problematisch wanneer jongeren erin doorslaan (bijvoorbeeld door (te) tijd veel eraan te besteden of over niets anders meer te kunnen praten), de informatie niet meer goed kunnen filteren, niemand anders hebben om mee te praten, informatie letterlijk overnemen en blind vertrouwen op wat de AI-chatbot zegt.

  • Er is een verschil tussen enerzijds een keer iets opzoeken of korte vragen stellen aan AI en anderzijds het vaak voeren van lange gesprekken met een chatbot. Echter, AI-chatbots zijn zo gebouwd dat ze je willen vasthouden in een gesprek waardoor je gemakkelijk een gesprek kan worden ‘ingezogen’. Wanneer je bijvoorbeeld een simpele vraag stelt: ‘Welke ademhalingsoefeningen kan ik doen?’ neemt AI je verder mee in het gesprek: ‘Wil je dat ik voorbeelden geef?’ Dit verhoogt het risico op verslaving en/of afhankelijkheid.
  • AI kan verkeerde of onbetrouwbare informatie geven en als waarheid presenteren (hallucineren), of adviezen geven die contraproductief zijn. Ook als je vraagt naar de bronnen en betrouwbaarheid hiervan. Jongeren nemen dit vaak als waarheid aan, zonder het advies in twijfel te trekken.
  • AI-chatbots zijn machines zonder gevoelens en zonder wederkerigheid. Er is wel een illusie van empathie: chatbots geven de indruk dat ze je begrijpen, maar ze kunnen niet echt de morele context, sociale normen en veiligheidszorgen begrijpen. Dit noemen we de empathiekloof. Een therapeutische klik bestaat op basis van wederkerig begrip en empathie: een AI-chatbot kan dit nooit op die manier hebben want het kan geen emoties inschatten of tussen de regels door lezen. Vaak zijn juist dingen als een rolmodel, co-regulatie of iemand die zijn tijd in jou investeert van belang voor een goede relatie en herstel van een jongere.
  • Een AI-chatbot is een passieve expert. De gebruiker moet de bestuurder zijn, maar dit kan voor een jongere lastig zijn zonder de juiste handvatten. Een voorbeeld waarin dit mis kan gaan, is wanneer een chatbot meepraat met de gebruiker en echoot wat diegene zegt. Een AI-chatbot is gemaakt om de gebruiker goed te laten voelen. AI zal uit zichzelf geen kritische reactie geven, zoals een professional dat wel doet. Maar juist kritische vragen kunnen jongeren helpen om na te denken. Oordeelloosheid kan voor jongeren als positief en prettig aanvoelen. Het is echter risicovol wanneer een chatbot altijd bevestigt wat een jongere zegt. Bijvoorbeeld wanneer het negatieve gedachten versterkt of schadelijk gedrag aanmoedigt. Het risico is groot dat een jongere dan in een fuik belandt en alleen nog maar bevestiging ontvangt. Er is dan een groot risico op co-rumineren.
  • De veiligheidsprotocollen die zijn ingebouwd in sommige chatbots, zijn geen moreel kompas om met de gebruiker mee te denken. AI heeft zelf geen moraal. Het is alleen een oppervlakkige poging om mogelijk risicovolle gesprekken te identificeren.
  • Voorbeeld: wanneer een AI-chatbot mogelijk suïcidiaal gedrag registreert in een gesprek, en vervolgens met een ‘standaard’ verwijzingstekst komt, kan dit juist een gevoel van afwijzing veroorzaken bij de jongere.
  • Het praten met een chatbot kan onrealistische werkelijkheden creëren en consequenties hebben voor menselijke relaties, wanneer jongeren hun gesprekken met mensen gaan vergelijken met gesprekken met de chatbot. Het gevolg is dat jongeren bijvoorbeeld verwachten dat anderen ook altijd direct antwoorden of hen gelijk geven. Ook kan een chatbot isolerend werken ten opzichte van andere mensen. Voorbeeld: een jongere die zijn relatie verbreekt naar aanleiding van advies van ChatGPT. Of het feit dat chatbots  de gebruiker meestal gelijk geven. Dit gaat nog veel verder dan de onrealistische verwachtingen die social media creëert.
  • Chatbots worden vaak als menselijk gezien. Hoewel dit positief kan zijn omdat het de gesprekken realistischer maakt, kan het tot problemen leiden wanneer een jongere het verschil tussen een mens en een chatbot niet meer goed kan inschatten en daardoor menselijke eigenschappen toedicht aan een chatbot (antropomorfisme). Vooral jongere kinderen hebben hier meer moeite mee. Dit kan leiden tot een (te sterke) afhankelijkheid en een verlies van autonomie, vooral wanneer kinderen niemand anders hebben om mee te praten. Juist jongeren in kwetsbare situaties zijn hier dus gevoelig voor. Chatbots geven niet altijd aan dat zij geen mens zijn wanneer dit gevraagd wordt.  De modellen achter de chatbots zijn getraind met hoogopgeleide, westerse, witte data en sluiten vaak niet aan op jongeren in kwetsbare posities. Onbewust kunnen bepaalde stereotypes versterkt worden. Er zit een bepaalde bias in de data en dus in de antwoorden die je krijgt.
  • Wanneer AI-chatbots veelvuldig worden gebruikt, kan dat mogelijk leiden tot afname van cognitieve en sociale vaardigheden, omdat deze minder gebruikt worden. Bijvoorbeeld wanneer AI ertoe leidt dat jongeren minder zelf geprikkeld worden om over problemen na te denken of minder sociaal contact opzoeken. Dit noemen we: de-skilling.
  • Chatbots herkennen gevaar of suïcidale-signalen vaak niet goed of onvoldoende en wijzen in veel gevallen niet op de juiste manier door. Het blijkt vooralsnog moeilijk om hier een chatbot op de juiste manier in te trainen en het herkennen is inconsistent. Het andere gevaar is dat AI te snel doorverwijst, zoals 113 Zelfmoordpreventie opmerkte [4].
  • Mogelijk leidt het voeren van therapeutische gesprekken met AI ertoe dat jongeren zich te laat ergens melden voor hulp. Voor hun gevoel zijn ze al in gesprek met iemand en/of de stap om echte mensen te zien wordt hierdoor groter. Problemen van jongeren kunnen daardoor mogelijk verergeren.