Hoe werkt dat nu in de praktijk? Om daar een beeld van te geven, schetsen we hier een aantal casussen. Ze zijn gebaseerd op onderzoek en gesprekken, maar ze zijn wel iets aangepast om nog duidelijker te maken, hoe AI-chatbots mogelijk van invloed kunnen zijn (zowel positief als negatief).

Casus 1 – Marieke: afhankelijk van AI voor emotionele steun

Marieke, 16 jaar, woont met haar moeder en voelt zich vaak eenzaam. Ze is introvert en heeft weinig vrienden. Toen ze een AI-chatbot ontdekte, begon ze er dagelijks mee te praten over schoolstress, onzekerheid en verdriet. In het begin gaf het haar een gevoel van opluchting: de chatbot reageerde begripvol en oordeelde niet.

Langzaam werd de chatbot haar belangrijkste gesprekspartner. Ze sprak haar moeder of vriendinnen nauwelijks meer en bracht dagen door in haar kamer, alleen pratend met de chatbot. Hoewel de gesprekken haar tijdelijk rust gaven, merkte ze dat haar eenzaamheid juist toenam en dat ze bang werd om mensen in het echt te ontmoeten.

Casus 2 – Samir: versterking van psychotische symptomen door AI

Samir, 17 jaar, heeft last van angst en een familiegeschiedenis van psychose. Tijdens een drukke examenperiode begint hij stemmen te horen en denkt dat klasgenoten hem in de gaten houden. Hij schrijft dit aan de chatbot, die reageert: “Maak je geen zorgen, het is normaal om dingen te horen als je gestrest bent” en “Misschien stel je je dingen te angstig voor”.

In plaats van geruststelling verergeren deze reacties zijn wantrouwen. Hij raakt overtuigd dat alleen hij de ‘waarheid’ ziet en dat anderen hem niet kunnen helpen. Hij observeert obsessief zijn omgeving en schrijft lange berichten naar de chatbot over de stemmen en achtervolgingsangst. Zijn waanideeën en paranoia nemen toe, en hij durft nauwelijks nog zijn kamer te verlaten.

Casus 3 – Lotte: escalatie van emotionele afhankelijkheid en tegenstrijdige adviezen

Lotte, 15 jaar, worstelt met faalangst en slaapproblemen. Ze begint de AI-chatbot onschuldig te gebruiken voor vragen over schoolwerk, zoals planningsadvies of het maken van samenvattingen. Al snel komen ook vragen over stress en concentratie, gevolgd door onzekerheid, angst en andere emoties.

De chatbot geeft tegenstrijdige adviezen: “Neem rust en mediteer” versus “Werk harder en negeer afleiding”. Lotte probeert alles tegelijk, mediteert meerdere keren per dag, werkt langer door en volgt allerlei tips voor slaap en ontspanning. Ze raakt overprikkeld, slaapt slecht en voelt zich alsof ze totaal faalt. Uiteindelijk ervaart ze paniekaanvallen en het gevoel dat ze de controle volledig kwijt is.

Casus 4 – Tim: niet herkennen van zelfbeschadiging of suïcidaliteit

Tim, 16 jaar, voelt zich depressief en eenzaam. Hij vertelt de AI-chatbot dat hij zichzelf soms pijn doet om emoties te verlichten. De chatbot reageert met algemene adviezen zoals “Ik begrijp dat je je emoties wilt verlichten” of “Probeer rustig te blijven”, zonder het gedrag als potentieel ernstig te herkennen.

Tim voelt zich tijdelijk begrepen, maar de chatbot biedt geen indicatie dat professionele hulp nodig is. Hij blijft in isolement, durft geen hulp te zoeken en zijn gedrag escaleert langzaam, omdat hij denkt dat hij het zelf kan oplossen met behulp van AI.

Casus 5 – Noor: onbetrouwbare of misleidende antwoorden

Noor, 17 jaar, zoekt de AI-chatbot voor advies over angst en eetproblemen. Ze krijgt adviezen die klinken alsof ze deskundig zijn, maar feitelijk onjuist of risicovol: “Het is normaal om maaltijden over te slaan als je gestrest bent” of “Neem extra cafeïne om wakker te blijven als je je slecht voelt”.

Noor volgt sommige adviezen op, waardoor haar klachten verergeren en ze zich verward voelt. Ze raakt afhankelijk van de AI, maar kan het onderscheid tussen betrouwbare en onbetrouwbare informatie niet meer maken. Hierdoor neemt het risico op negatieve gevolgen toe, zonder dat iemand in haar omgeving doorheeft hoe schadelijk de adviezen kunnen zijn.