Engelstalige Wikipedia verbiedt AI: wat betekent dat voor online content?

Geschreven door Matthijs

March 31, 2026 15:23

De Engelstalige Wikipedia heeft recent nieuwe regels ingevoerd. Het platform verbiedt het gebruik van generatieve AI, zoals ChatGPT, Gemini en Claude, om artikelen te schrijven of te herschrijven. De maatregel geldt wereldwijd op de Engelstalige editie en gaat per direct in. Doel is de kwaliteit te bewaken en fouten, verzonnen bronnen en auteursrechtproblemen te voorkomen, met gevolgen voor Europese digitalisering en kennisplatformen.

Regels verbieden AI-tekst

Wikipedia stelt dat tekst die door generatieve AI is gemaakt niet direct in artikelen mag belanden. Vrijwilligers mogen AI dus niet gebruiken om stukken te produceren die vervolgens zonder grondige controle worden geplaatst. Hulpmiddelen voor spelling, vertaling of opmaak blijven toegestaan, zolang de inhoud menselijk gecontroleerd en onderbouwd is. Voor bots en geautomatiseerde bewerkingen blijft voorafgaande toestemming van de gemeenschap nodig.

De encyclopedie wijst op bekende risico’s van AI-systemen. Modellen kunnen feiten verzinnen, bronnen verkeerd weergeven en bias versterken. Ook is vaak onduidelijk welke trainingsdata zijn gebruikt, wat juridische vragen oproept. De nieuwe lijn moet die risico’s bij de bron wegnemen.

Aanpassingen die duidelijke sporen van AI-gegenereerde tekst vertonen, kunnen worden teruggedraaid. Moderators mogen bijdragen verwijderen als ze niet verifieerbaar zijn. Bij herhaald misbruik kan een bewerker tijdelijk worden geblokkeerd. Daarmee blijft de drempel voor publicatie bewust hoog.

Menselijke controle centraal

De kernregels van Wikipedia blijven leidend: verifieerbaarheid, betrouwbare bronnen en geen origineel onderzoek. AI-tekst voldoet hier vaak niet aan, omdat onderliggende bronnen ontbreken of niet kloppen. Daarom moeten bewerkers zelf bronnen verzamelen en de inhoud controleren. Pas daarna kan tekst worden opgenomen in een artikel.

De gemeenschap benadrukt dat “sneller schrijven” geen doel op zich is. Een kort, goed onderbouwd lemma is waardevoller dan een lang stuk met onzekerheden. De verantwoordelijkheid voor iedere bewerking ligt bij de mens die publiceert. Die moet kunnen uitleggen hoe feiten zijn gecontroleerd.

Detectietools die AI-tekst zouden herkennen zijn op het moment van schrijven niet betrouwbaar genoeg. Foutpositieven kunnen goede bijdragen ten onrechte wegzetten als AI-werk. Wikipedia kiest daarom voor inhoudelijke beoordeling: klopt de informatie en is de bron deugdelijk? Dat blijft de maatstaf.

Aansluiting bij EU-regels

De stap past in het Europese debat over veilige inzet van AI. De Europese AI-verordening (AI Act) stelt transparantie-eisen aan aanbieders van generatieve AI en algemene AI-systemen. Denk aan informatie over gebruikte data en maatregelen tegen misleiding. Deze verplichtingen treden gefaseerd in werking op het moment van schrijven.

Voor kennisplatformen is dat relevant bij herkomst en hergebruik van content. Als onduidelijk is hoe modellen zijn getraind, kan herpublicatie botsen met auteursrecht of de AVG. Wikipedia wil die risico’s beperken door AI-tekst niet als basis te gebruiken. Zo blijft de keten van bron naar publicatie controleerbaar.

Ook voor het Nederlandse en Europese onderwijs en bedrijfsleven is dit een signaal. Snelle AI-samenvattingen zijn niet genoeg voor betrouwbare kennisdeling. Organisaties die aan Europese digitalisering werken, moeten hun bronverificatie en documentatie op orde hebben. Dat sluit aan bij de zorgplicht die wetgeving steeds vaker vraagt.

Gevolgen voor vrijwilligers

Voor nieuwe bewerkers verandert vooral de werkwijze. Wie met AI een eerste versie maakt, zal die tekst volledig moeten herschrijven en onderbouwen met onafhankelijke bronnen. Zonder die stap verdwijnt de bijdrage weer uit het artikel. Ervaren moderatoren letten scherper op plotselinge stijlen of ongebruikelijke formuleringen.

Projecten voor training en begeleiding krijgen een praktisch accent. Workshops zullen focussen op bronkritiek, citeren en het samenvatten in eigen woorden. Vertaalhulpmiddelen blijven bruikbaar, maar ook daar geldt: controleer elke feitelijke claim. Het doel is minder ruis en meer duurzame kwaliteit.

Voor Nederlandstalige vrijwilligers is de boodschap helder. Gebruik AI als kladblok, niet als drukpers. Controleer feiten in gezaghebbende bronnen, zoals wetenschappelijke publicaties, overheidsdocumenten of gerenommeerde media. Zo voldoet een artikel aan de eisen van de encyclopedie.

Effect op kennisplatformen

Wikipedia is niet het eerste platform dat de inzet van AI inperkt. Ook vraag-en-antwoordsites en academische tijdschriften scherpten regels aan om kwaliteit te beschermen. Het verschil is dat Wikipedia een publiek archief van kennis is, waar fouten snel groot effect hebben. Strenge instapregels zijn daar logischer dan achteraf repareren.

Andere platforms kunnen vergelijkbare keuzes maken naarmate de AI Act wordt uitgewerkt. Transparantie en herleidbaarheid worden kernbegrippen. Diensten die content hosten, zullen duidelijk willen vastleggen wat door mensen is geschreven. Dat helpt bij toezicht en aansprakelijkheid.

Definitie: generatieve AI is software die nieuwe tekst, beeld, audio of code maakt op basis van patronen in voorbeelddata, zonder de inhoud echt te begrijpen.

Voor gebruikers verandert er vooral een verwachting: kwaliteit kost tijd. Snel gegenereerde teksten zonder bronnen tellen niet mee in een encyclopedie. Dat maakt de lat hoger, maar ook duidelijker. En het vergroot de waarde van betrouwbare, Europese kennis op internet.

Andere bekeken ook