Nieuws

Grok-uitkleedfunctie beperkt in EU, maar beperkingen blijken omzeilbaar

Geschreven door Matthijs

January 17, 2026 07:31

X.ai heeft de omstreden “uitkleedfunctie” van zijn AI-assistent Grok in de Europese Unie beperkt. De beeldbewerking verwijdert kleding in foto’s met behulp van generatieve algoritmen. In de afgelopen dagen kwamen er klachten dat de beperking weinig uithaalt. Dit roept vragen op over privacy, misbruik en de Europese digitalisering gevolgen bedrijfsleven.

EU-beperking biedt weinig bescherming

Grok’s uitkleedfunctie is voor gebruikers in de EU niet of slechts deels beschikbaar. Het platform past geografische blokkades en inhoudsfilters toe. Toch melden gebruikers dat de beperking met omwegen te omzeilen is. Daardoor blijft het risico op misbruik bestaan, ook in Europa.

De kern van het probleem is technisch simpel. De functie is een vorm van generatieve beeldbewerking. Het systeem vult delen van een foto in op basis van een model dat kleding weghaalt. Als de toegang niet sluitend is geregeld, kan de bewerking alsnog plaatsvinden.

Voor X.ai en moederplatform X betekent dit extra toezicht. X is op het moment van schrijven in de EU aangewezen als zeer groot online platform. Zulke platforms moeten misbruik actief beperken. Een halfsluiting van één functie is dan niet genoeg.

Functie vergroot misbruikrisico

Een uitkleedfunctie vergroot de kans op ongewenste, seksuele deepfakes. Slachtoffers kunnen reputatieschade, psychische schade en chantage ervaren. Dit treft vooral vrouwen en minderjarigen, maar ook publieke personen en werknemers. Het kan zich snel verspreiden via sociale platforms en chatapps.

In Nederland is het maken en verspreiden van seksuele beelden zonder toestemming strafbaar. Dit geldt ook voor deepfakes, sinds de Wet seksuele misdrijven per 1 januari 2024 is aangescherpt. Werkgevers en scholen kunnen te maken krijgen met incidenten en meldingen. Dat vraagt om duidelijke protocollen en snelle verwijdering.

Daarnaast speelt de AVG een rol. Het bewerken van foto’s van identificeerbare personen is verwerking van persoonsgegevens. Bij gevoelige inhoud, zoals seksualiteit, gelden strenge eisen. Zonder geldige grondslag en toestemming is gebruik vaak onrechtmatig.

Europese regels zetten druk

De Digital Services Act (DSA) verplicht grote platforms om systeemrisico’s te beperken. Dat raakt ook de verspreiding van non-consensuele deepfakes. Platforms moeten effectieve detectie, meldmechanismen en snelle interventie hebben. Falen kan leiden tot hoge boetes en bindende maatregelen.

De DSA legt extra plichten op aan platforms met meer dan 45 miljoen gebruikers in de EU, de zogeheten VLOP’s.

De AI-verordening (AI Act) voegt daar transparantie-eisen aan toe. Deepfake-content moet duidelijk als synthetisch gemarkeerd worden. Leveranciers van generatieve AI krijgen documentatie- en veiligheidsverplichtingen. Deze regels treden gefaseerd in werking tussen 2024 en 2026.

Voor X.ai betekent dit: strengere waarborgen in ontwerp en gebruik. Denk aan robuuste filters, beter toezicht en logging. Ook moeten gebruikers duidelijke waarschuwingen en labels zien. Op het moment van schrijven werken bedrijven aan implementatieplannen.

Moderatie en veiligheid schieten tekort

Het snelle tempo van generatieve innovatie vraagt om even snelle veiligheidsmaatregelen. Alleen geoblocking of simpele promptfilters is niet genoeg. Gebruikers vinden vaak alternatieve prompts of andere routes. Daardoor lekt schadelijke inhoud alsnog door.

Effectieve mitigatie combineert techniek en proces. Beeldherkenning kan manipulaties en patronen van misbruik detecteren. Watermerken en cryptografische labels helpen bij herkenning en bewijs. Menselijke controle blijft nodig bij meldingen en beroep.

Transparantie is cruciaal voor vertrouwen. Publiceer testresultaten, foutmarges en verbeterplannen. Bied onafhankelijke audits en bug-bounties voor veiligheid. Zo wordt duidelijk wat wel en niet werkt.

Nederlandse gevolgen en verantwoordelijkheid

Voor Nederlandse bedrijven en instellingen is dit geen randzaak. Medewerkers of studenten kunnen doelwit worden, ook buiten werktijd. Interne richtlijnen voor AI-gebruik en beeldbewerking zijn noodzakelijk. Snelle verwijdering en ondersteuning van slachtoffers horen daarbij.

De Autoriteit Persoonsgegevens houdt toezicht op de AVG. Bij misbruik kunnen boetes en handhaving volgen. Slachtoffers kunnen civiel en strafrechtelijk optreden. Platforms moeten toegankelijke meldpunten en herstelopties bieden.

Publieke organisaties hebben een voorbeeldrol. Gemeenten, scholen en zorginstellingen werken met kwetsbare groepen. Heldere communicatie over risico’s en meldprocedures helpt schade te beperken. Training en bewustwording horen in beleid en aanbestedingen.

Praktische aandachtspunten voor gebruikers

Upload geen foto’s van anderen zonder toestemming, zeker niet voor risicovolle bewerkingen. Dat kan onrechtmatig en strafbaar zijn. Wees alert op valse of bewerkte beelden in sociale feeds. Kijk naar context, bron en eventuele labels.

Bedrijven doen er goed aan beleid te maken voor generatieve AI. Leg vast wat wel en niet mag met bedrijfsdata en beelden. Zorg voor logging en autorisaties. En bied medewerkers een veilig meldpunt bij incidenten.

Voor aanbieders van AI-diensten ligt de lat hoger. Bouw preventie in aan de voorkant en maak omzeilen moeilijk. Label synthetische content duidelijk en standaard. En werk proactief samen met toezichthouders en onderzoekers.

Andere bekeken ook

February 15, 2026

Is deze elektrische Jeep echt stoer? Techniek, actieradius en slimme functies