Richtsnoeren artikel 28 DSA: hoe online platforms een veilige en vriendelijke omgeving voor minderjarigen moeten inrichten

Anna Sträter & Bente van Kan
30 jun 2025

In mei 2025 heeft de Europese Commissie (“Commissie”) nieuwe richtsnoeren gepubliceerd voor openbare consultatie. De richtsnoeren geven invulling aan de verplichting voor online platforms zoals Instagram en TikTok om passende maatregelen te treffen ter bescherming van minderjarigen (artikel 28 Digital Services Act; “DSA”).

De consultatie is inmiddels gesloten en de Commissie gaat zich nu beraden over de definitieve versie. In de tussentijd bespreken we in dit blog alvast de belangrijkste aanbevelingen uit de concept richtsnoeren en wat deze mogelijk gaan betekenen voor de praktijk.

Richtsnoeren: doelstelling en reikwijdte

Artikel 28 DSA legt verplichtingen op aan alle online platforms die toegankelijk zijn voor minderjarigen. De aanbieders van deze platforms worden verplicht om “passende en evenredige maatregelen te nemen om een hoog niveau van privacy, veiligheid en beveiliging voor minderjarigen te waarborgen”. De verplichtingen gelden ook wanneer het platform formeel een leeftijdsgrens van 18 jaar hanteert, maar feitelijk toegankelijk is voor of gebruikt wordt door minderjarigen.

De richtsnoeren verduidelijken welke maatregelen platforms minimaal moeten nemen om hun diensten veilig en kindvriendelijk in te richten. Volgens de richtsnoeren moeten alle maatregelen die online platforms nemen voldoen aan vier kernbeginselen:

  1. Zo moeten maatregelen proportioneel zijn ten opzichte van de aard en het gebruik van de dienst, de risico’s voor minderjarigen en andere grondrechten.
  2. Daarnaast moeten de belangen van het kind centraal staan, zoals veiligheid, participatie en privacy.
  3. Bovendien geldt dat, om deze belangen te beschermen, online platforms al vanaf de ontwerpfase aandacht moeten hebben bij het stellen van de beveiligingsnormen.
  4. Het ontwerp van hun diensten moet daarbij afgestemd worden op het cognitieve en emotionele ontwikkelingsniveau van minderjarige gebruikers.

Om passende en proportionele maatregelen te bepalen, moeten online platforms een risicobeoordeling uitvoeren van de risico’s die hun dienst voor minderjarigen oplevert.

Het belang van het kind moet daarbij centraal staan, zonder dat andere rechten (zoals participatie, vrije meningsuiting of informatie) onnodig worden beperkt. Voor VLOP’s maakt de beoordeling deel uit van de systemische risicoanalyse onder artikel 34 DSA en moet zij ook worden herhaald bij ‘significante wijzigingen’.

Doel is om een veilige en kindvriendelijke omgeving te creëren, waarin fundamentele rechten van minderjarigen worden gewaarborgd. De richtsnoeren bevatten daarvoor een aantal praktische aanbevelingen.

Aanbevelingen

  1. Leeftijdsverificatie (age assurance)

Maatregelen die de toegang tot online platforms beperken op basis van leeftijd, zijn volgens de Commissie essentiële instrumenten om de privacy, veiligheid en beveiliging van minderjarigen te waarborgen. De Commissie onderscheidt self-declaration (‘Ik ben ouder dan 18 jaar’), age-estimation (een analyse van gezichtskenmerken of gedrag) en age-verification (bijvoorbeeld door middel van identiteitsbewijs).

Platforms moeten per geval beoordelen of leeftijdscontrole nodig is. Volgens de Commissie is leeftijdsverificatie (age-verification) in ieder geval vereist bij wettelijk vastgelegde leeftijdsgrenzen (zoals alcohol, gokken of pornografie), wanneer platforms zelf een 18+-grens hanteren vanwege geconstateerde risico’s, en in situaties waar hoge risico’s niet anders te beperken zijn.

  1. Veilige toegang vanaf het begin

Het registratieproces kan een belangrijk instrument zijn om minderjarigen veilig toegang te geven tot een platform. Als registratie wordt vereist, moet dit proces transparant, begrijpelijk en toegankelijk zijn voor kinderen. Het platform moet duidelijke uitleg geven over gebruiksvoorwaarden, minimumleeftijd en de mogelijkheid tot eenvoudig afmelden of accountverwijdering.

De Commissie benadrukt daarbij dat standaardinstellingen van kinderaccounts een cruciale rol spelen in de bescherming van minderjarigen op online platforms. Omdat kinderen deze instellingen zelden zelf aanpassen, moeten de standaardinstellingen vanaf het begin een hoog niveau van privacy, veiligheid en beveiliging bieden. Dit betekent onder meer dat tracking, locatiebepaling, camera, microfoon en pushmeldingen standaard zijn uitgeschakeld, net als sociale functies zoals likes, streaks of read receipts. Ook risicovolle filters die het zelfbeeld kunnen schaden, moeten standaard gedeactiveerd zijn.

Als een minderjarige tijdens registratie of op een later moment de instellingen wijzigt of gevoelige functies inschakelt, moet het platform steeds uitleg geven, waarschuwen en eventueel tijdelijke of automatische terugzetmechanismen toepassen. De Commissie beveelt aan dat bepaalde functies, zoals contact met onbekenden of zichtbaarheid in zoekresultaten, geheel uitgeschakeld kunnen worden voor minderjarige gebruikers.

  1. Aanbevelingen voor de online interface

Platforms moeten daarnaast hun interfaces zo inrichten dat minderjarigen controle hebben over hun digitale ervaring. Het platformontwerp moet toegankelijk, inclusief en eenvoudig te bedienen zijn.

Cruciaal hierbij is het vermijden van misleidende of manipulatieve ontwerpelementen zoals automatisch afspelende video’s, gefingeerde meldingen, sociale druk via notificaties of schaarste-trucs. Deze “persuasive design features” stimuleren namelijk eindeloos scrollen en kunnen leiden tot overmatig en problematisch platformgebruik. Hierbij hoort ook dat platforms expliciete voorkeuren van kinderen zwaarder moeten laten wegen dan indirecte gedragsdata, zoals kijktijd of klikgedrag. In plaats daarvan moeten zij juist ‘positieve frictie’ inbouwen – zoals tijdsmanagementtools of bewuste vertragingen (“weet je zeker dat je dit wilt plaatsen?“) – om minderjarigen bewuster te laten omgaan met hun platformgebruik.

Voor aanbevelingssystemen geldt verder dat deze specifiek moeten worden aangepast aan de ontwikkelingsfase en kwetsbaarheden van minderjarigen. Maximaliseren van schermtijd en betrokkenheid mag niet het primaire doel zijn; in plaats daarvan moeten de parameters van aanbevelingssystemen verschuiven naar factoren zoals nauwkeurigheid, diversiteit en eerlijkheid. Aanbieders moeten voorkomen dat kinderen herhaaldelijk worden blootgesteld aan schadelijke content, bijvoorbeeld aan inhoud die onrealistische schoonheidsidealen promoot of geweld verheerlijkt. Ook zoekfuncties vereisen specifieke bescherming, zoals het blokkeren van bekende schadelijke zoektermen. Platforms moeten daarnaast geverifieerde, leeftijdsgeschikte accounts exclusief aanbevelen.

  1. Bescherming tegen commerciële beïnvloeding

In de richtsnoeren wordt ook specifiek ingegaan op de bescherming van minderjarigen tegen commerciële beïnvloeding. Online platforms confronteren kinderen met steeds geavanceerdere marketingstrategieën, waaronder gepersonaliseerde advertenties, product placement, in-game aankopen, influencer marketing en AI-gestuurde nudging. Deze tactieken kunnen ernstige schade toebrengen aan de privacy, veiligheid en het welzijn van minderjarigen, vooral wanneer ze hun commerciële aard verhullen of misbruik maken van groepsdruk en de beperkte kennis van kinderen over economische waarde.

De Commissie eist daarom een verantwoord marketingbeleid dat expliciet rekening houdt met de leeftijd, kwetsbaarheden en beperkte commerciële kennis van minderjarigen. Alle schadelijke, onethische en onwettige reclame-uitingen moeten worden uitgesloten. Ook moet verborgen reclame, zoals product placement door influencers, actief worden bestreden.

Transparantie in economische transacties vormt een tweede cruciaal aandachtspunt. In-app betalingen en het gebruik van virtuele tussenvaluta zoals tokens, coins of loot boxes moeten transparant en begrijpelijk zijn voor minderjarigen. Platforms moeten vermijden dat deze virtuele valuta de werkelijke kosten verhullen of kinderen misleiden over de economische waarde van hun aankopen. Hetzelfde geldt voor verslavende of manipulatieve ontwerpkeuze, zoals willekeurige beloningen, schaarste-signalen (“nog maar 1 uur beschikbaar”) of gokachtige functies. Tot slot worden platforms aangemoedigd ouderlijke toezichttools in te zetten en bewuste frictie in te bouwen tussen contentconsumptie en aankopen, bijvoorbeeld door extra bevestigingen of instelbare uitgavendrempels.

  1. Aanbevelingen rondom transparantie, moderatie en rapportage

De Europese Commissie benadrukt dat effectieve en transparante moderatie essentieel is om minderjarigen online te beschermen. Platforms moeten duidelijk en expliciet definiëren wat zij als schadelijke content en ongewenst gedrag beschouwen, en dienen hiervoor heldere, stapsgewijze procedures op te stellen. Daarbij wordt proactieve inzet van filters en AI-systemen aanbevolen, aangevuld met menselijke beoordeling bij risicovolle situaties zoals populaire accounts. Minderjarigen moeten bovendien eenvoudig, vertrouwelijk en eventueel anoniem schadelijke content kunnen rapporteren.

Daarnaast doet de Commissie aanbevelingen op het gebied van transparantie, gebruikerscontrole en interne governance. Platforms dienen uitleg te geven over waarom specifieke content wordt aanbevolen, inclusief gebruikte parameters, en minderjarigen de mogelijkheid te bieden om hun aanbevelingsfeeds te resetten of voorkeuren aan te passen. Concrete hulpmiddelen zoals het blokkeren van andere gebruikers of het beperken van interacties moeten eveneens beschikbaar zijn, evenals toezicht-tools voor ouders en verzorgers met respect voor privacy. Tot slot vereist de Commissie een kindgerichte interne governance-structuur, waarin platformontwerp en beleid actief en veilig door minderjarigen worden beïnvloed, en waarin risico’s continu gemonitord, geëvalueerd en gerapporteerd worden.

Conclusie

De Commissie beschouwt deze richtsnoeren als een eerste interpretatie van artikel 28 DSA. Hoewel de richtsnoeren ruimte laten voor interpretatie en overlap met andere regelgeving (AI Act en AVG), markeren de richtsnoeren een belangrijke stap richting meer concrete maatregelen voor platforms, waarbij proportionaliteit, kinderrechten, privacy-by-design en leeftijdsgeschikt ontwerp centraal staan. Door expliciete aandacht voor risico’s zoals grooming, overmatig gebruik en manipulatieve, commerciële praktijken, adresseren de richtsnoeren de meest urgente bedreigingen voor minderjarigen online.

Voor nu is het eerst wachten met welke feedback de stakeholders zullen komen op de richtsnoeren en in hoeverre dit invloed zal hebben op de definitieve richtsnoeren. Deze worden naar verwachting later dit jaar gepubliceerd.

Alvast aan de slag met de concept richtsnoeren en/of vragen over de implementatie daarvan? Neem dan gerust contact op met Anna Sträter, Bente van Kan, Machteld Robichon en Christiaan Alberdingk Thijm.

Met dank aan Coen Buijs

Naar
boven