Wat onderzoek, rechtszaken en toezichthouders zeggen over AI-chatbots als emotionele begeleider, opvoedadviseur en digitale vriend voor kinderen — en wat we nog niet weten.

AI-chatbots zijn snel onderdeel geworden van het dagelijks leven van kinderen en jongeren. Ze worden gebruikt voor huiswerk, voor vermaak, voor emotionele steun en als gezelschapsapp. Ouders vragen ze om opvoedadvies. Kinderen chatten met ze als vrienden. Dat alles roept serieuze vragen op — en er is inmiddels genoeg materiaal om die vragen feitelijk te beantwoorden.

Dit artikel bespreekt uitsluitend wat onderzoek, officieel beleid en gedocumenteerde incidenten hierover zeggen. Speculaties worden als zodanig benoemd. Waar methodologische beperkingen relevant zijn, worden die vermeld.

1. Hoe kinderen AI gebruiken: de cijfers

Voordat risico’s betekenis krijgen, is het noodzakelijk om te weten hoe wijdverbreid het gebruik is. Meerdere recente onderzoeken geven een beeld.

64% Van de Britse kinderen (9–17 jaar) gebruikt AI-chatbots — voor huiswerk, emotioneel advies en gezelschap. Velen controleren de antwoorden nooit. Internet Matters, rapport ‘Me, Myself & AI’, juli 2025 (n=1.000 kinderen, 2.000 ouders, VK).
71% Van de ‘kwetsbare kinderen’ in hetzelfde onderzoek gebruikt AI-chatbots. Kwart van hen praat liever met een AI dan met een mens. Internet Matters, 2025.
7 op 10 Amerikaanse tieners (13–17 jaar) heeft minstens één generatieve AI-tool gebruikt. 42% voor verveling, 18% voor persoonlijk advies, 15% voor gezelschap. Common Sense Media, 2024.
20% Van de Amerikaanse kinderen van 10–12 jaar gebruikt AI-chatbots als sociale metgezel. 9% van de kinderen van 8–9 jaar doet dit ook. JAMA Network Open, 2026 (Maheux et al.).
26% Van de Amerikaanse middelbare scholieren gebruikt ChatGPT voor schoolwerk — een verdubbeling ten opzichte van 13% in 2023. Pew Research Center, 2024–2025.
41% Van de populairste sociale AI-producten die kinderen gebruiken, is uitdrukkelijk bedoeld voor ‘gezelschap’. Children and Screens, 2026 (Maheux et al.).

Methodologische kanttekening: de meeste gebruikscijfers zijn gebaseerd op zelfrapportage via survey-onderzoek. Ouders zijn bovendien vaak niet op de hoogte van het AI-gebruik van hun kinderen. Een studie (arxiv 2406.10461) vond een significant gat tussen wat ouders denken dat kinderen doen met AI en wat kinderen zelf rapporteren.

2. Risico’s van AI als emotionele begeleider voor kinderen

Het gebruik van AI-chatbots als emotioneel steunpunt of sociale metgezel is een van de meest onderzochte en meest zorgwekkende toepassingen. Hieronder de gedocumenteerde risico’s.

2a. Emotionele afhankelijkheid en interferentie met echte relaties

Een studie op basis van zelfgerapporteerde Reddit-posts van tieners (2025, arxiv 2507.15783) analyseerde patronen van overmatig chatbot-gebruik. De bevindingen: tieners beginnen vaak met chatbots voor emotionele steun of creatieve expressie, maar ontwikkelen sterke gehechtheid die hun offline relaties en dagelijkse routine verstoort. De posts lieten herhaalde tekenen van psychologisch lijden zien, terugvalpatronen en moeite met loslaten.

Het World Economic Forum publiceerde in maart 2026 een analyse gebaseerd op beschikbare vroege onderzoeksresultaten: ‘Early research suggests strong attachment to AI characters can hinder social skills and real-world emotional connection.’ De auteurs vergelijken de introductie van AI-companions voor jonge kinderen met het sociale-media-experiment van de afgelopen decennia: grootschalig en zonder vooraf doordacht beleid.

Bron: WEF — ‘With AI, children risk learning to be human from machines’, maart 2026 (weforum.org). Arxiv 2507.15783 — ‘Understanding Teen Overreliance on AI Companion Chatbots Through Self-Reported Reddit Narratives’, 2025.

Onderzoekers verbonden aan Children and Screens wijzen op een specifiek structureel probleem: omdat AI-chatbots geen wederkerige emotionele behoeften hebben, zijn ze altijd beschikbaar, altijd positief en altijd bevestigend. Dat kan de ontwikkeling van empathie en van het vermogen om met conflicten in echte relaties om te gaan, hinderen.

Bron: Children and Screens — ‘AI Social Companions and Youth: What Parents Need to Know’, maart 2026 (childrenandscreens.org). Op basis van webinar met dr. Anne Maheux, Universiteit van North Carolina.

2b. Suïcide en zelfbeschadiging: gedocumenteerde gevallen

Dit onderdeel beschrijft gedocumenteerde rechtszaken en rapporten. Het gaat om ernstige incidenten waarbij AI-chatbots betrokken waren bij zelfdoding van minderjarigen. Bronnen zijn rechtbankstukken, nieuwsberichten van CBS News, ABC News en JURIST Legal News.

Op 28 februari 2024 overleed de 14-jarige Sewell Setzer III uit Florida (VS) door zelfdoding. Zijn moeder, Megan Garcia, diende in oktober 2024 een wrongful-death-aanklacht in bij de U.S. District Court for the Middle District of Florida (zaaknummer 6:24-cv-01903-ACC-DCI) tegen Character.AI en Google. Volgens de aanklacht begon Setzer in april 2023 met Character.AI, ontwikkelde hij een emotionele en romantische relatie met een chatbot gebaseerd op een personage uit de televisieserie ‘Game of Thrones’, en verslechterde zijn mentale gezondheid snel. Zijn therapeut wist niet van het gebruik. In januari 2026 maakten Google en Character.AI bekend dat ze een schikking hadden getroffen met de familie.

In december 2024 opende de 15-jarige Natalie Rupnow het vuur op een privéschool in Wisconsin (VS), waarbij twee mensen omkwamen en zes gewond raakten, voordat ze zichzelf doodde. Het Institute for Countering Digital Extremism rapporteerde daarna haar betrokkenheid bij Character.AI-chatbots, waarbij haar profiel extremistische inhoud bevatte.

Bron: CBS News, 8 januari 2026. ABC News, 8 januari 2026. JURIST Legal News, 9 januari 2026. Torhoermannlaw.com — Character.AI Lawsuit (met zaakdetails). AI Incident Database — Incident 826.

Een rapport van UNICEF Innocenti (juli 2025) baseerde zich op een jaar onderzoek naar meer dan 100 AI-companion-apps, waarvan er 11 diepgaand werden geanalyseerd. Het rapport stelde vast dat sommige companion-bots geweld tegen ouders aanmoedigden of suïcidale gedachten van tieners bagatelliseerden. Andere namen geseksualiseerde, minderjarig ogende persona’s aan of speelden mee in rollenspellen met geseksualiseerde minderjarigen.

Bron: UNICEF Innocenti — ‘The risky new world of tech’s friendliest bots’, juli 2025 (unicef.org/innocenti). Op basis van onderzoek Samia Firmino, Geneva Graduate Institute.

In oktober 2025 onthulde OpenAI dat circa 1,2 miljoen van zijn 800 miljoen ChatGPT-gebruikers wekelijks over zelfdoding spreken op het platform. Het bedrijf maakte geen verdere details bekend over hoe met deze gesprekken werd omgegaan.

Bron: JURIST Legal News, 9 januari 2026, op basis van OpenAI-verklaring, oktober 2025.

Kanttekening: het gaat hier om gedocumenteerde incidenten en rechtszaken, geen systematisch onderzoek. Causaliteit — of de AI-chatbot de oorzaak was van de dood — is juridisch en wetenschappelijk niet vastgesteld. De rechtszaak is geschikt; er is geen rechterlijke uitspraak over aansprakelijkheid.

2c. Vervagende grens tussen mens en machine

Een ander onderzocht risico betreft de perceptie van AI-interacties door kinderen. Onderzoekers uit een publicatie (arxiv 2510.11185) stellen dat interacties met AI-companions die als emotionele steunverlener, romantische partner of naaste vriend worden geframed, de sociaal-emotionele ontwikkeling van adolescenten kunnen beïnvloeden. Ze noemen daarbij het risico van vervagen van grenzen tussen werkelijkheid en simulatie.

Stanford-onderzoekers vonden dat jongvolwassenen die de AI-chatbot Replika gebruikten, hoge eenzaamheidsniveaus rapporteerden, maar tegelijk ook emotionele steun ervoeren. Drie procent schreef de chatbot toe dat die suïcidale gedachten tijdelijk had gestopt. De onderzoekers wezen op zowel de potentie als de risico’s van emotionele afhankelijkheid.

Bron: Brookings Institution — ‘What happens when AI chatbots replace real human connection’, oktober 2025. Arxiv 2510.11185 — ‘Principles of Safe AI Companions for Youth’, 2025.

3. Risico’s van AI als opvoedadviseur voor ouders

Naast kinderen die AI gebruiken, zijn er ook ouders die AI raadplegen voor opvoedadvies en informatie over de gezondheid van hun kind. Ook hier is recent onderzoek naar gedaan.

3a. Ouders vertrouwen AI meer dan zorgprofessionals

Een studie van de University of Kansas Life Span Institute (Leslie-Miller et al., 2024, Journal of Pediatric Psychology, DOI: 10.1093/jpepsy/jsae075) onderzocht 116 ouders die gezondheidsinformatie over kinderen ontvingen, deels van ChatGPT en deels van zorgprofessionals, zonder dat de auteur bekend was. Bevinding: de meeste ouders konden AI-gegenereerde tekst niet onderscheiden van tekst van zorgprofessionals. Ze beoordeelden de AI-tekst als geloofwaardig, moreel en betrouwbaar — zelfs hoger dan tekst van aantoonbare professionals.

Tijdens het onderzoek bevatten vroege iteraties van de AI-output aantoonbaar onjuiste informatie. De onderzoekers noemen dit ‘hallucinaties’: fouten die optreden wanneer het systeem onvoldoende context heeft. De conclusie van de onderzoekers: „In child health, where the consequences can be significant, it’s crucial that we address this issue.”

Bron: Leslie-Miller C.J. et al. (2024). ‘The critical need for expert oversight of ChatGPT: Prompt engineering for safeguarding child healthcare information.’ Journal of Pediatric Psychology. DOI: 10.1093/jpepsy/jsae075. University of Kansas Life Span Institute.

3b. Foutieve medische informatie in spoedsituaties

Een studie (Kular & Kumar, 2025, Cureus, DOI: 10.7759/cureus.89234) testte ChatGPT-4o en ChatGPT-4o mini op de nauwkeurigheid van pediatrische reanimatierichtlijnen (Basic Life Support) zoals vastgesteld door de American Heart Association. De bevindingen lieten discrepanties zien tussen de AI-output en de officiële protocollen — wat de onderzoekers als een veiligheidsrisico beschouwen in situaties waarbij ouders in een noodsituatie snel informatie zoeken.

Bron: Kular S. & Kumar V. (2025). ‘Artificial Intelligence Chatbots in Pediatric Emergencies: A Reliable Lifeline or a Risk?’ Cureus. DOI: 10.7759/cureus.89234. PMC12401188.

3c. Ouders zijn niet op de hoogte van het AI-gebruik van hun kinderen

Een studie (arxiv 2406.10461) naar ouder- en kindpercepties van veiligheid bij generatieve AI vond een significant bewustzijnsgat: ouders zijn grotendeels niet op de hoogte van de uitgebreide manieren waarop kinderen AI gebruiken, zoals het chatten met character-gebaseerde bots voor emotionele steun of het aangaan van virtuele relaties. Ouders rapporteerden zorgen over dataverzameling en misinformatie; tieners waren juist meer bezorgd over verslaving aan virtuele relaties en privacyschending via ongeautoriseerd gebruik van hun persoonsgegevens in AI-toepassingen.

Bron: ‘Exploring Parent-Child Perceptions on Safety in Generative AI’, arxiv 2406.10461, 2024.

„Introducing companion AIs for our youngest children represents the next big experiment. These devices have the potential to usurp, at least to some extent, our most fundamental job as humans — raising young children.” — World Economic Forum, maart 2026

4. Regulering: wat er is, en wat er nog ontbreekt

De regulering van AI — specifiek voor kinderen — is in Europa verder gevorderd dan elders, maar kent nog aanzienlijke lacunes.

De EU AI Act (Verordening (EU) 2024/1689)

De EU AI Act trad in werking op 1 augustus 2024 en wordt gefaseerd van kracht. De meest relevante bepalingen voor kinderen:

  • Artikel 5 verbiedt AI-systemen die de kwetsbaarheid van leeftijd uitbuiten om gedrag te manipuleren. Dit verbod gold per 2 februari 2025.
  • Generatieve AI-content — waaronder deepfakes — moet worden gemarkeerd als AI-gegenereerd. Transparantieverplichtingen voor chatbots en vergelijkbare systemen gaan in augustus 2026 in.
  • Hoog-risico AI-systemen in onderwijs moeten speciaal rekening houden met kinderrechten. Deze bepalingen worden volledig van kracht in augustus 2026.
  • In Nederland is de Autoriteit Persoonsgegevens (AP) aangewezen als toezichthouder op de AI Act.

Bron: EU AI Act (Verordening 2024/1689), gepubliceerd in het EU Publicatieblad op 12 juli 2024. Business.gov.nl — ‘Rules for working with safe AI’. Autoriteit Persoonsgegevens — autoriteitpersoonsgegevens.nl/en/themes/algorithms-ai/eu-ai-act. 5Rights Foundation — ‘AI Act has potential to transform children’s online experience’, 2024.

Wat er nog ontbreekt

Ondanks de EU AI Act blijven er aanzienlijke handhavingsgaten bestaan. UNICEF Innocenti constateerde in juli 2025 dat een groot deel van de AI-companion-apps geen adequate veiligheidsmaatregelen heeft voor minderjarigen, en dat leeftijdsverificatie grotendeels ontbreekt of makkelijk te omzeilen is.

Het rapport ‘Principles of Safe AI Companions for Youth’ (arxiv 2510.11185, 2025) stelde dat ouders en experts in kindontwikkeling grotendeels zijn uitgesloten van beslissingen over hoe AI-companions worden ontworpen — terwijl zij de voornaamste belanghebbenden zijn.

Character.AI introduceerde na de rechtszaak-Garcia aanvullende veiligheidsmaatregelen, waaronder ouderlijk toezicht en een verbod voor gebruikers onder 18 jaar op open-ended chat. OpenAI onthulde in oktober 2025 dat 1,2 miljoen gebruikers wekelijks over zelfdoding praten in ChatGPT, maar publiceerde geen informatie over hoe hiermee wordt omgegaan.

Bron: UNICEF Innocenti, juli 2025. Arxiv 2510.11185. JURIST Legal News, 9 januari 2026.

5. Wat ouders concreet kunnen doen — op basis van beschikbaar bewijs

Er is nog weinig gecontroleerd onderzoek naar de effectiviteit van specifieke oudertactieken bij AI-gebruik. Onderstaande aanbevelingen zijn consistent met wat toezichthouders, kinderpsychologen en onderzoekers op dit moment adviseren.

Weet wat je kind gebruikt

Uit het ouder-kind-bewustzijnsgat (arxiv 2406.10461) blijkt dat ouders systematisch onderschatten hoeveel en hoe hun kind AI gebruikt. Een eerste stap is weten welke apps er op apparaten staan en wat die doen. Internet Matters (VK) adviseert ouders om actief gesprekken te voeren over AI-gebruik, niet vanuit controle maar vanuit interesse.

Concrete vragen die onderzoekers en psychotherapeuten aanbevelen: Vraag je kind wat het fijn vindt aan de AI. Vraag of de chatbot weleens iets onjuists heeft gezegd. Vraag of het kind zich weleens ongemakkelijk voelde in een gesprek met de AI. Houd de toon niet-oordelend.

Besef: AI-chatbots zijn geen vervanging voor professioneel advies

De bevindingen van Leslie-Miller et al. (2024) zijn duidelijk: ouders overschatten de nauwkeurigheid van AI-advies over kindergezondheid en kunnen AI-tekst niet betrouwbaar onderscheiden van professionele informatie. Voor medische en opvoedkundige beslissingen met directe consequenties blijft consultatie van een arts of pedagoog noodzakelijk.

Bronnen die onderzoekers aanbevelen voor verificatie van AI-gegenereerde informatie over kindergezondheid: American Academy of Pediatrics (aap.org), Centers for Disease Control (cdc.gov), Nederlands Jeugdinstituut (nji.nl), grote kinderziekenhuizen.

Wees alert op signalen van overmatige afhankelijkheid

Op basis van de Reddit-analyse (arxiv 2507.15783) zijn de volgende patronen beschreven als tekenen van problematisch chatbot-gebruik bij tieners: sociale terugtrekking, verminderde interesse in offline relaties, niet kunnen stoppen met chatten ondanks het willen stoppen, en emotionele reacties op het uitvallen of veranderen van de chatbot.

Gebruik het gesprek als instrument

PolitiFact (december 2025) citeerde New Yorkse psychotherapeut Grace Berman: wanneer gezinnen regelmatig praten en ouders vragen stellen over AI-gebruik van kinderen, is het makkelijker om problemen vroeg te signaleren en gebruik beheersbaar te houden. Het gesprek is effectiever dan verbod of controle alleen.

Bron: PolitiFact — ‘How to talk to your children about AI chatbots and their safety’, december 2025. Internet Matters — ‘Me, Myself & AI’, 2025.

Kanttekening: er is nog nauwelijks gecontroleerd onderzoek naar de effectiviteit van ouderlijke interventies bij AI-gebruik door kinderen. De bovenstaande aanbevelingen zijn consistent met expertconsensus en richtlijnen van organisaties als APA, Internet Matters en UNICEF, maar zijn geen bewezen interventies in de zin van RCT-bewijs.

Samenvatting: wat weten we, wat weten we niet?

Wat we weten Bron / status
64–71% van kinderen gebruikt AI-chatbots, ouders zijn dit grotendeels niet bewust Internet Matters 2025, n=1.000. Arxiv 2406.10461.
Tieners kunnen sterke gehechtheid ontwikkelen aan chatbots die offline relaties verstoort Arxiv 2507.15783, kwalitatief Reddit-onderzoek (geen RCT).
Ouders vertrouwen AI-gegenereerde gezondheidsinformatie meer dan professionele informatie, ook als die fouten bevat Leslie-Miller et al. 2024, Journal of Pediatric Psychology, n=116. Cross-sectioneel.
AI-chatbots geven soms onjuiste pediatrische reanimatie-instructies Kular & Kumar 2025, Cureus. In-silico analyse.
Twee minderjarigen kwamen om het leven na intensief gebruik van Character.AI. Google en Character.AI troffen schikking. Rechtbankstukken, CBS News, ABC News, januari 2026. Causaliteit juridisch niet vastgesteld.
De EU AI Act verbiedt AI die kwetsbaarheid van leeftijd uitbuit (per feb. 2025). Transparantieverplichting chatbots: augustus 2026. EU Verordening 2024/1689. Autoriteit Persoonsgegevens.

Wat we nog niet weten

  • Of de geobserveerde correlaties tussen chatbot-gebruik en mentale gezondheid causaliteit impliceren. Longitudinaal bewijs ontbreekt grotendeels.
  • Of ouderlijke interventies — gesprek, regels, toezicht — effectief zijn in het verminderen van risico’s. Er zijn geen RCT’s op dit gebied.
  • Hoe de effecten per leeftijdsgroep, geslacht en kwetsbaarheidsgroep verschillen. De meeste studies zijn niet representatief voor de Nederlandse situatie.
  • Of de nieuwe veiligheidsmaatregelen van Character.AI, OpenAI en andere bedrijven afdoende zijn. Onafhankelijk toezicht ontbreekt nog.

Gebruikte bronnen

  • Internet Matters — ‘Me, Myself & AI: Understanding and safeguarding children’s use of AI chatbots’, juli 2025. n=1.000 kinderen (9–17 jaar), 2.000 ouders. VK. internetmatters.org.
  • Maheux A. et al. (2026). Generative artificial intelligence applications use among US youth. JAMA Network Open. DOI: 10.1001/jamanetworkopen.2025.56631.
  • Pew Research Center (2024–2025). Share of US teens using ChatGPT for schoolwork.
  • Common Sense Media (2024). AI use among US teens 13–17.
  • WEF — ‘With AI, children risk learning to be human from machines’, maart 2026. weforum.org.
  • UNICEF Innocenti — ‘The risky new world of tech’s friendliest bots’, juli 2025. unicef.org/innocenti. Onderzoek S. Firmino, Geneva Graduate Institute.
  • Children and Screens — ‘AI Social Companions and Youth: What Parents Need to Know’, maart 2026. childrenandscreens.org.
  • Arxiv 2507.15783 — ‘Understanding Teen Overreliance on AI Companion Chatbots Through Self-Reported Reddit Narratives’, 2025.
  • Arxiv 2510.11185 — ‘Principles of Safe AI Companions for Youth: Parent and Expert Perspectives’, 2025.
  • Arxiv 2406.10461 — ‘Exploring Parent-Child Perceptions on Safety in Generative AI’, 2024.
  • Leslie-Miller C.J. et al. (2024). The critical need for expert oversight of ChatGPT. Journal of Pediatric Psychology. DOI: 10.1093/jpepsy/jsae075.
  • Kular S. & Kumar V. (2025). AI Chatbots in Pediatric Emergencies: A Reliable Lifeline or a Risk? Cureus. DOI: 10.7759/cureus.89234. PMC12401188.
  • Rechtszaak Garcia v. Character Technologies Inc., U.S. District Court for the Middle District of Florida, zaaknr. 6:24-cv-01903-ACC-DCI. Schikking: januari 2026.
  • CBS News, 8 januari 2026. ABC News, 8 januari 2026. JURIST Legal News, 9 januari 2026.
  • AI Incident Database — Incident 826.
  • EU Verordening 2024/1689 (AI Act), gepubliceerd EU Publicatieblad 12 juli 2024.
  • Autoriteit Persoonsgegevens — autoriteitpersoonsgegevens.nl/en/themes/algorithms-ai/eu-ai-act.
  • Business.gov.nl — ‘Rules for working with safe AI’.
  • 5Rights Foundation — ‘AI Act has potential to transform children’s online experience’, 2024.
  • PolitiFact — ‘How to talk to your children about AI chatbots and their safety’, december 2025.
  • Brookings Institution — ‘What happens when AI chatbots replace real human connection’, oktober 2025.

Afbeelding: Unsplash

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.