Geen AI gebruikt — waarom vertrouwen in tech-journalistiek onder druk staat

Geschreven door Matthijs

March 29, 2026 10:27

Een Nederlands onderzoeksplatform zet deze week de discussie over AI in de journalistiek op scherp. In een artikel staat nadrukkelijk dat er geen AI is gebruikt, maar dat is voor lezers niet te controleren. Dat raakt een groter vraagstuk in Nederland en Europa: transparantie zonder bewijs in een tijd van snelle digitalisering. Met de Europese AI‑verordening en strengere regels voor digitale diensten groeit de druk op redacties om hun systemen, algoritmen en werkwijze helder te maken.

Transparantie zonder bewijs

Steeds meer redacties zetten onderaan stukken een korte AI‑disclaimer. Die tekst meldt of en hoe generatieve technologie is gebruikt. Lezers moeten die belofte echter op vertrouwen. Er is meestal geen technisch bewijs of onafhankelijke controle mogelijk.

De Europese AI‑verordening (AI Act) legt transparantieplichten op voor door AI gemanipuleerde content. Denk aan deepfakes die op echte personen lijken. Ook aanbieders van generatieve AI moeten waar mogelijk zorgen voor duidelijke markering van output. Die plichten worden gefaseerd van kracht vanaf 2025, op het moment van schrijven.

Voor gewone tekstproductie door journalisten is de lijn minder scherp. Een menselijke eindredactie valt niet onder een hoog risicoprofiel in de AI Act. Toch kan een redacteur AI‑hulpmiddelen gebruiken bij onderzoek, samenvattingen of vertalingen. Dat maakt uitleg over doel, grenzen en foutkansen van zulke systemen belangrijk.

Watermerken werken nog beperkt

Watermerken en herkomstlabels moeten de afkomst van digitale inhoud aantonen. In de praktijk werken die oplossingen nog niet betrouwbaar voor tekst. Een kleine herformulering kan een watermerk breken. Bij beeld en audio is er meer hoop, maar ook daar zijn beperkingen.

Watermerken zijn onzichtbare markeringen in tekst, beeld of audio, bedoeld om de herkomst en bewerking te kunnen aantonen.

De standaard C2PA met Content Credentials, gesteund door onder meer Adobe, Microsoft en de BBC, legt cryptografische herkomstdata vast. Zo kan een foto of video een controleerbare keten van bewerkingen tonen. Maar platforms strippen soms metadata, en niet alle tools ondersteunen de standaard. Daardoor is het bewijs vaak onvolledig.

Voor nieuwsredacties is brede adoptie cruciaal. Camerafabrikanten en softwareleveranciers kondigen in Europa stappen aan richting ingebouwde C2PA‑ondersteuning. Toch kost invoering tijd en geld. Zonder ketenbrede uitrol blijft verificatie kwetsbaar.

Redacties zoeken werkbare regels

Veel redacties testen interne procedures voor AI‑gebruik. Bijvoorbeeld verplichte notities bij elk stuk over welke hulpmiddelen zijn ingezet. Ook wordt geëxperimenteerd met interne logbestanden en steekproeven door eindredactie. Zo ontstaat later verifieerbaar inzicht zonder dat lezers privacygevoelige werkdocumenten zien.

Transparantie gaat verder dan een enkele disclaimer. Heldere taal op B1‑niveau over doel, data en beperkingen helpt vertrouwen. Leg uit of AI is gebruikt voor spelling, vertaling of data‑analyse. En vermeld welke fouten kunnen optreden, zoals hallucinaties of bias in trainingsdata.

De Nederlandse Raad voor de Journalistiek benadrukt zorgvuldigheid en controleerbaarheid als kernwaarden. Dat past bij een menselijke eindverantwoordelijkheid voor publicaties. AI kan ondersteunen, maar mag niet de bronkritiek of hoor‑en‑wederhoor vervangen. Juist daar kan een redactie zich onderscheiden.

Europese plichten voor AI-gebruik

De AI Act introduceert transparantie‑eisen voor deepfakes en chatbot‑interacties. Aanbieders van generatieve systemen moeten, waar technisch haalbaar, output herkenbaar maken. Grote platforms vallen bovendien onder de Digital Services Act. Zij moeten risico’s zoals desinformatie verminderen en processen inrichten voor rapportage en onderzoek.

Bij gebruik van AI‑diensten speelt de AVG. Redacties moeten dataminimalisatie toepassen en gegevens versleutelen waar nodig. Ook is een verwerkersovereenkomst vereist als een externe AI‑leverancier persoonsgegevens verwerkt. Dat geldt extra als data buiten de Europese Economische Ruimte kunnen belanden.

Auteursrecht blijft een tweede aandachtspunt. De EU‑richtlijn voor auteursrecht kent uitzonderingen voor tekst‑ en datamining, met een opt‑out voor rechthebbenden. Redacties doen er goed aan te controleren of gebruikte modellen legaal zijn getraind. Dat verkleint juridische en reputatierisico’s.

Lezers hebben nog weinig houvast

Voorlopig moeten lezers vertrouwen op redactionele uitleg. Een AI‑disclaimer zonder technisch bewijs blijft een belofte. Controle wordt pas sterker als C2PA‑achtige standaarden breed werken. En als platforms die herkomstinformatie zichtbaar houden.

Toch kunnen lezers al eenvoudige checks doen. Kijk of er Content Credentials beschikbaar zijn bij beelden en video’s. Doe een omgekeerde beeldzoektocht bij opvallende foto’s. En let op ongewone taalpatronen of feitelijke missers in lange teksten.

De structurele oplossing ligt bij samenwerking. Redacties, techbedrijven en platforms moeten de keten van herkomstgegevens sluiten. Europese regels geven richting, maar implementatie kost tijd. Tot die tijd blijft transparantie vooral een kwestie van duidelijk schrijven én goede dossiervorming achter de schermen.

Andere bekeken ook