EU-twijfel, lidstaten handelen: socialmediaverbod voor kinderen in de maak

Geschreven door Matthijs

March 30, 2026 06:31

Steeds meer EU-lidstaten willen sociale media voor jonge kinderen beperken. Frankrijk en Italië zetten al stappen, terwijl Nederland wacht op duidelijkheid uit Brussel. Het gaat om platforms als TikTok, Instagram, Snapchat en YouTube. Overheden willen minder risico’s voor kinderen en duidelijkere regels voor toezicht en leeftijdscontrole.

Landen verscherpen kindertoegang

Frankrijk heeft een wet aangenomen die platforms verplicht om jongeren tot 15 jaar alleen met toestemming van ouders toe te laten. Onder de 13 jaar moet inschrijving worden geblokkeerd. De overheid werkt aan een technische leeftijdscontrole die privacy moet sparen. Toezichthouder CNIL publiceert hiervoor richtlijnen.

In Italië verplichtte privacytoezichthouder Garante TikTok herhaaldelijk om accounts met onzekere leeftijd te verwijderen. Doel is het weghalen van te jonge gebruikers en strenger toezicht op aanbevelingsalgoritmen. Dat zijn systemen die automatisch video’s of posts voorstellen. Platforms moesten binnen weken maatregelen treffen of riskeren boetes.

Ook Spanje en Duitsland kiezen voor strengere bescherming. Spaanse regio’s beperken smartphones op school en onderzoeken een minimumleeftijd voor socialemediagebruik. In Duitsland eist de jeugdmediabescherming (KJM) dat platforms leeftijdsgrenzen en ouderlijk toezicht afdwingen. Het leidt tot een lappendeken van regels naast Europese wetgeving.

Nederland wacht op EU-kader

In Nederland loopt een politiek debat over een verbod of striktere regels voor kinderen op sociale media. Het kabinet wil aansluiten bij Europese regels, zoals de Digital Services Act (DSA) en de audiovisuele mediarichtlijn. Daarmee moet toezicht gelijk oplopen met Europese digitalisering, zodat bedrijven niet met verschillende nationale eisen worden belast. Een landelijk verbod ligt daarom voorlopig niet vast.

Wel kijkt de rijksoverheid naar leeftijdsverificatie die past binnen de AVG. Dataminimalisatie is hier de norm: alleen controleren wat nodig is, zoals “ouder dan 16, ja of nee”. Ook wordt gekeken naar de Europese Digitale Identiteitswallet uit eIDAS 2.0. Die kan straks een leeftijdskenmerk delen zonder extra persoonsgegevens vrij te geven.

Scholen en jeugdzorg vragen intussen om duidelijkheid. Zij zien online risico’s als pestgedrag, slaaptekort en verslaving. Zonder eenduidige regels en technologie blijft handhaving lastig. Een Europees kader moet dat oplossen en de uitvoerbaarheid voor alle partijen vergroten.

Leeftijdscheck blijft lastig

Leeftijdsverificatie kan op verschillende manieren: met een identiteitsbewijs, via bank- of telecomdata, of met een erkende derde partij. Elk systeem heeft nadelen. Documenten uploaden raakt privacy, bankdata zijn niet overal beschikbaar, en derde partijen vragen om nieuw vertrouwen. Ook moeten deze diensten veilig omgaan met gevoelige gegevens.

Technisch zijn er oplossingen die alleen een leeftijdsgrens bevestigen. Dat kan met zogeheten attributen: het systeem controleert “18+” zonder de geboortedatum te tonen. Zo blijft minder data achter bij een platform. Voorwaarde is wel onafhankelijke controle en versleuteling.

Leeftijdsverificatie betekent: controleren of iemand oud genoeg is, zonder meer persoonsgegevens te delen dan strikt nodig.

Voor bedrijven tellen kosten en gebruiksgemak. Een zware check bij elke login werkt niet. Daarom kijken appstores en besturingssystemen naar ingebouwde controles, zoals gezinsinstellingen en leeftijdsprofielen. Dat kan drempels verlagen, maar vraagt goede standaardisatie in de EU.

DSA en AVG geven houvast

De Digital Services Act verplicht grote platforms om risico’s voor minderjarigen te beperken. Gerichte advertenties op basis van profilering bij kinderen zijn verboden. Ook moeten standaardinstellingen kindvriendelijk zijn en moeten bedrijven hun algoritmen laten toetsen. De Europese Commissie houdt hier toezicht op en kan hoge boetes opleggen.

De AVG bepaalt de “digitale leeftijd van toestemming” tussen 13 en 16 jaar per lidstaat. In Nederland ligt die grens op 16 jaar, op het moment van schrijven. Dit gaat over toestemming voor het gebruik van persoonsgegevens. Het is geen automatisch verbod, maar het raakt wel direct het aanmaken van accounts op sociale media.

Daarnaast gelden regels uit de audiovisuele mediadienstenrichtlijn (AVMSD) voor videoplatforms. Die vereisen maatregelen tegen schadelijke content voor jongeren. Samen met de DSA ontstaat zo al een basis, ook als een nationaal verbod nog ontbreekt. Handhaving en techniek bepalen nu het verschil in de praktijk.

Gevolgen voor platforms en scholen

Platforms moeten hun systemen en processen aanpassen. Denk aan betere leeftijdsmeting, strengere moderatie en transparante instellingen. Aanbevelingsalgoritmen voor jongeren moeten veiliger zijn en minder verslavend werken. Dat vraagt extra investeringen en mogelijke impact op reclame-inkomsten.

Voor scholen ligt de focus op gedragsregels en digitale weerbaarheid. Smartphonebeleid in de klas maakt het eenvoudiger om schermtijd te beperken. Lesprogramma’s over privacy en algoritmen helpen leerlingen bewuster kiezen. Ouders krijgen duidelijker handvatten via ouderlijk toezicht en leeftijdsprofielen.

Het bedrijfsleven moet rekening houden met nieuwe eisen aan apps en websites. Europese digitalisering gevolgen bedrijfsleven spelen vooral bij onboarding en reclame. Ook kleinere ontwikkelaars krijgen te maken met leeftijdsverificatie en documentatieplichten. Standaardoplossingen en SDK’s kunnen die lasten beperken.

Beslissingen die nog volgen

Brussel werkt aan praktische standaarden voor leeftijdscontrole en kindvriendelijk ontwerp. Een Europese aanpak voorkomt dat bedrijven per land andere oplossingen moeten bouwen. Belangrijk is een privacyvriendelijke route, bijvoorbeeld via de Europese Digitale Identiteitswallet. Daarmee kan de naleving schaalbaar én AVG-proof worden.

Verder is duidelijkheid nodig over de minimumleeftijd én uitzonderingen. Hoe gaan we om met educatieve platforms of hulpdiensten? En wie controleert grensgevallen, zoals 15- en 16-jarigen met gedeeltelijke toegang? Zonder heldere definities blijft er ruimte voor discussie en omzeiling.

Tot slot moeten resultaten meetbaar worden. Denk aan minder nachtelijk gebruik, minder meldingen van schade en minder dataverzameling bij kinderen. Pas dan is zichtbaar of een verbod of beperking echt werkt. Tot die tijd zet Nederland in op Europese regels, terwijl enkele lidstaten al strakker bijsturen.

Andere bekeken ook