Een nieuw onderzoek laat zien dat acht op de tien Nederlanders AI-content niet van echt kan onderscheiden. Het gaat om beelden, video’s en audio die zijn gemaakt met generatieve AI, zoals deepfakes en stemklonen. De test is uitgevoerd in Nederland en schetst een actueel beeld van digitale weerbaarheid. De uitkomst voedt zorgen over misleiding, vooral online en rond nieuws en politiek.
AI verwart meerderheid Nederlanders
De meeste deelnemers herkenden nepbeelden en -audio niet als kunstmatig. Vooral korte video’s en realistische stemmen bleken lastig te beoordelen. Ook foto’s met kleine afwijkingen, zoals schaduwen of reflecties, vielen vaak niet op. Daardoor lijkt het vertrouwen in wat mensen online zien en horen onder druk te staan.
Generatieve AI maakt het maken van geloofwaardige content eenvoudig. Toepassingen als deepfake-video en voice cloning gebruiken algoritmen die patronen in data nadoen. Deze systemen verbeteren snel en vergen weinig technische kennis. Dat verlaagt de drempel voor misbruik door oplichters en propagandisten.
De impact reikt verder dan sociale media. Ook klantenservice, onderwijs en lokale politiek kunnen doelwit zijn van misleidende content. Bedrijven lopen reputatierisico’s als nepmateriaal rondgaat in hun naam. Voor nieuwsmedia wordt verificatie nog belangrijker in de dagelijkse workflow.
“Acht op de tien Nederlanders herkent AI-beelden en -audio niet als nep.”
Europese regels dwingen transparantie
De Europese AI-verordening (AI Act) verplicht aanbieders om AI-content herkenbaar te maken. Deepfakes moeten worden gelabeld en er gelden transparantie-eisen, met strengere regels voor risicovolle systemen. Deze wet is in 2024 in werking getreden en fases treden de komende jaren in. Op het moment van schrijven bereiden bedrijven en overheden implementatie stapsgewijs voor.
De Digital Services Act (DSA) legt grote platforms extra plichten op. Diensten als YouTube, TikTok, Instagram en X moeten misleiding beperken en moderatie beter uitleggen. Ook moeten zij tools en procedures hebben voor het melden van gemanipuleerde media. Dit raakt direct de verspreiding en zichtbaarheid van AI-gegenereerde content.
Voor Nederlandse organisaties betekent dit nieuwe processen en tooling. Nieuwsredacties en adverteerders moeten labeling en verificatie structureel inbedden. Overheidsdiensten moeten burgers duidelijk informeren over AI-gebruik in communicatie. Niet voldoen kan leiden tot sancties en reputatieschade.
Watermerken en herkomstlabels
Techbedrijven werken aan watermerken en herkomstlabels om AI-content traceerbaar te maken. Google DeepMind ontwikkelde SynthID, dat onzichtbare signalen in beeld en audio plaatst. De open standaard Content Credentials (C2PA) voegt controleerbare herkomstinformatie toe. Zo kan een gebruiker zien hoe en waarmee iets is gemaakt.
Deze technieken helpen, maar zijn geen wondermiddel. Metadata kan worden verwijderd en kopieën kunnen signalen aantasten. Criminelen proberen watermerken actief te omzeilen. Daarom is een mix van labeling, detectie en menselijk toezicht nodig.
Europese mediapartners en factchecknetwerken, zoals het EDMO-ecosysteem, testen zulke oplossingen. Ook camera- en softwaremakers sluiten aan bij C2PA-initiatieven. Adoptie is nog ongelijk verdeeld tussen platforms en tools. Op het moment van schrijven groeit de steun, maar brede standaardisatie kost tijd.
Detectie blijft onzeker in praktijk
AI-detectietools hebben last van valse positieven en valse negatieven. Een echt beeld kan ten onrechte als nep worden gezien, of andersom. Makers van generatieve modellen verbeteren hun systemen continu, wat detectie bemoeilijkt. Het is een kat-en-muisspel dat de komende jaren doorloopt.
Redacties combineren daarom meerdere checks in hun workflow. Zij kijken naar bron, context en bestandsgegevens en passen omgekeerd zoeken toe. Ook vragen zij makers om ruwe bestanden of locatie-informatie. Dit kost tijd, maar verkleint de kans op fouten.
Burgers en bedrijven kunnen zelf eenvoudige stappen zetten. Controleer de herkomst en datum, en zoek of dezelfde beelden elders voorkomen. Let op details zoals onlogische schaduwen, vervormde handen of onnatuurlijke stemovergangen. Bij twijfel: deel niet en vraag om bevestiging bij de afzender.
Onderwijs en toezicht nodig
Mediawijsheid wordt een basisvaardigheid voor iedereen. Scholen en mbo’s kunnen lessen over beeldherkenning en bronkritiek aanbieden. Bibliotheken en gemeenten kunnen trainingen en laagdrempelige tools delen. Zo groeit digitale weerbaarheid zonder drempels voor wie minder technisch is.
Privacyregels uit de AVG blijven leidend bij AI-toepassingen. Stemklonen en gezichtsmodellen verwerken mogelijk biometrische data, wat extra gevoelig is. Bedrijven hebben daarom een rechtsgrond, doelbinding en dataminimalisatie nodig. De Autoriteit Persoonsgegevens houdt toezicht en kan boetes opleggen.
Ook publieke diensten moeten hun processen aanpassen. Gemeenten en zorginstellingen kunnen extra verificatie eisen bij digitale meldingen. Banken en verzekeraars voeren meerstapscontrole in bij risicovolle transacties. Zo worden de gevolgen van AI-misleiding voor burgers en het bedrijfsleven beperkt.
