Grapperhaus: techbedrijven weigerden helpen tegen online kindermisbruik

Geschreven door Matthijs

March 27, 2026 23:15

Voormalig minister Ferdinand Grapperhaus stelt dat grote techbedrijven niet of nauwelijks meewerkten aan het terugdringen van online kindermisbruik. Als minister van Justitie en Veiligheid van Nederland (2017–2021) liepen afspraken met platforms vast op privacyregels en versleuteling. De kwestie raakt direct aan Europese digitalisering en de gevolgen voor het bedrijfsleven en opsporingsdiensten. Zijn terugblik zet het debat over verantwoordelijkheid van bedrijven, wetgeving en handhaving opnieuw op scherp.

Weerstand bij grote platforms

Techbedrijven beheren de systemen waar berichten, foto’s en video’s worden gedeeld. Zonder hun medewerking is het voor politie en meldpunten lastiger om misbruik snel te vinden en te verwijderen. In een terugblik benadrukt Grapperhaus dat die medewerking vaak uitbleef. Daarmee komt de verantwoordelijkheid van private partijen in het strafrechtelijk domein opnieuw in beeld.

Bedrijven wijzen in dit soort discussies vaak op juridische en technische grenzen. Denk aan strenge privacy-eisen, internationale datastromen en end-to-end versleuteling van chats. Ook reputatierisico’s en aansprakelijkheid spelen mee bij het maken van beleid. Daardoor stokt samenwerking, terwijl snelheid juist cruciaal is bij het stoppen van verspreiding.

In Nederland werken de politie, het Openbaar Ministerie en het Expertisecentrum Online Kindermisbruik samen met internationale hotlines. Toch botsen verzoeken om gegevens regelmatig op grensoverschrijdende regels en trage procedures. Als platforms formeler en sneller schakelen, kan meer materiaal offline en kunnen slachtoffers eerder worden beschermd. Daarvoor zijn heldere, afdwingbare afspraken nodig.

Versleuteling beperkt zicht

Veel berichtenapps gebruiken end-to-end encryptie. Dat maakt gesprekken vertrouwelijk, maar beperkt ook het zicht op strafbare inhoud. Scannen in de app of op het toestel, zogenoemde client-side scanning, roept daarbij nieuwe zorgen op. Experts waarschuwen voor misbruikkansen en fouten bij automatische herkenning.

End-to-end-encryptie betekent dat alleen zender en ontvanger berichten kunnen lezen; ook de aanbieder kan de inhoud niet zien.

Het juridische kader is complex. Onder de AVG gelden dataminimalisatie en doelbinding: alleen verwerken wat strikt nodig is, voor een duidelijk doel. Toezichthouders vragen daarom om een specifieke wettelijke basis voor ingrijpende scans van privécommunicatie. Zonder die basis lopen bedrijven en autoriteiten grote juridische risico’s.

Ook operationeel is de afweging lastig. Onjuist gedetecteerd materiaal kan onschuldige gebruikers raken. Tegelijk levert niet ingrijpen risico’s op voor kinderen. De kernvraag is hoe je gericht en proportioneel kunt zoeken naar illegale inhoud, zonder massale monitoring van iedereen.

Digital Services Act verplicht

De Europese Digital Services Act (DSA) legt platforms verplichtingen op rond illegale inhoud. Diensten moeten meldingen snel behandelen, maatregelen hebben tegen herplaatsing en werken met erkende melders. Voor zeer grote platforms gelden extra plichten, zoals risicobeoordelingen voor de bescherming van minderjarigen en transparantierapportages.

Die regels zijn sinds 2024 breed van kracht in de EU. Ze geven toezichthouders meer middelen om op te treden en boetes op te leggen. In Nederland krijgen gebruikers duidelijkere procedures om content te melden en beslissingen aan te vechten. Dat helpt bij het verwijderen van misbruikbeelden die openbaar verspreid worden.

Toch lost de DSA niet alles op. De wet verplicht niet tot scannen van privéberichten en gaat niet over decryptie. De kern van het versleutelingsdebat en het actief opsporen van materiaal in gesloten chats blijft dus buiten bereik. Daarvoor is aparte, specifieke wetgeving nodig.

CSAM-voorstel blijft omstreden

De Europese Commissie stelde in 2022 een nieuwe verordening voor tegen online kindermisbruik (CSAM). Het plan maakt gerichte detectiebevelen mogelijk, verplicht snellere verwijdering en regelt meldplichten richting autoriteiten. Ook preventiemaatregelen, zoals leeftijdscontrole en grooming-detectie, maken deel uit van het pakket.

Het voorstel stuit echter op stevige kritiek. Privacyorganisaties, beveiligingsexperts en bedrijven vrezen aantasting van encryptie en risico’s voor misbruik van detectiesystemen. Lidstaten zijn verdeeld en het Europees Parlement wil sterke waarborgen voor versleuteling. Op het moment van schrijven is er nog geen definitieve politieke overeenstemming.

Intussen geldt in de EU een tijdelijk kader dat aanbieders toestaat vrijwillig bekend misbruikmateriaal te detecteren en te melden. Dat tijdelijke regime is beperkt in scope en tijd, en staat los van het CSAM-voorstel. De vraag is of en hoe die tijdelijke ruimte wordt vervangen door een duurzaam, rechtenproof systeem.

Techniek helpt, kaders nodig

Bekende afbeeldingen kunnen met hash-databases opgespoord worden. Een hash is een digitale vingerafdruk van een bestand, die matcht zonder het origineel te tonen. Technologie zoals Microsoft PhotoDNA helpt zo om al geïdentificeerd materiaal snel te vinden en te verwijderen. Dit werkt gericht en met relatief weinig extra gegevensverwerking.

Die aanpak heeft ook grenzen. Nieuwe of bewerkte beelden worden niet altijd herkend en context blijft lastig voor algoritmen. Handmatige controle en snelle opschaling door gespecialiseerde teams blijven dus nodig. Heldere procedures voor bezwaar en herstel zijn verplicht onder de DSA.

Samenwerking met internationale netwerken van hotlines, zoals INHOPE, versnelt het verwijderen aan de bron. In Nederland speelt het EOKM een rol bij meldingen en slachtofferzorg. Voor bedrijven betekent dit investeren in veilige meldprocessen, training en goed ingerichte API’s richting bevoegde instanties. Alles binnen de kaders van de AVG en met minimale opslag van persoonsgegevens.

Wat dit voor Nederland betekent

De terugblik van Grapperhaus onderstreept dat beleid, techniek en recht hand in hand moeten gaan. Voor de Nederlandse opsporing betekent dit doorgaan met specialisatie in digitaal forensisch onderzoek en internationale rechtshulp. Snellere, juridisch zekere routes naar data zijn essentieel. Dat vraagt ook om duidelijke afspraken met platforms die in Nederland actief zijn.

Voor techbedrijven wordt naleving concreter door de DSA en aankomende sectorregels. Zij moeten processen borgen voor melding, beoordeling en verwijdering, met goede documentatie en audits. Europese digitalisering gevolgen bedrijfsleven worden zichtbaar in compliance-kosten én in reputatiewinst bij aantoonbare kindveiligheid. Transparantie richting gebruikers is daarbij een basisvoorwaarde.

Voor burgers blijft de balans tussen privacy en veiligheid centraal. Ouders en scholen hebben baat bij begrijpelijke tools en duidelijke meldpunten. De overheid moet intussen blijven uitleggen welke data waarvoor worden gebruikt en wanneer. Alleen zo ontstaat het vertrouwen dat nodig is voor effectieve en proportionele bestrijding van online kindermisbruik.

Andere bekeken ook