Nieuws

McConaughey en Michael Caine regelen AI-gebruik van hun stemmen

Geschreven door Matthijs

November 12, 2025 07:31

Acteurs Matthew McConaughey en Michael Caine hebben een overeenkomst gesloten over het gebruik van AI-versies van hun stemmen. De afspraken moeten controle geven over waar en hoe hun stemkloon wordt ingezet. Het gaat om toepassingen in onder meer reclames, films en audioboeken, in de VS en het VK. Dit past in de bredere Europese digitalisering en heeft gevolgen voor het bedrijfsleven en makers.

Afspraken geven acteurs regie

De overeenkomsten regelen dat een AI-stem alleen met expliciete toestemming per opdracht mag worden gebruikt. Ook worden grenzen gesteld aan het soort content, zoals politieke of misleidende boodschappen. Zo houden de acteurs regie over hun digitale stem, terwijl nieuwe inkomsten mogelijk worden gemaakt.

De stap volgt na jaren van discussie over generatieve AI in de media-industrie. Tijdens recente cao-onderhandelingen in de VS kwamen al kaders voor digitale replica’s van acteurs tot stand. Individuele deals maken die afspraken concreet en toetsbaar per project.

Voor studio’s en adverteerders biedt dit duidelijkheid over rechten, licenties en aansprakelijkheid. Het verkleint het risico op rechtszaken door ongeoorloofd gebruik. Tegelijk blijft er aandacht nodig voor misbruik en deepfakes die buiten contracten om ontstaan.

Wat mag en wat niet

Bij AI-stemmen gaat het meestal om text-to-speech: software zet tekst om in gesproken audio, getraind op opnamen van een echte stem. Veel contracten bevatten beperkingen in tijd, regio en kanaal, plus een verplichting tot herkenbare labeling. Ook wordt vaak afgesproken dat de maker het script vooraf kan inzien en afkeuren.

Technische waarborgen zijn belangrijk om hergebruik te volgen en te beperken. Denk aan onhoorbare watermerken in audio en logbestanden die vastleggen wie welke clip heeft gegenereerd. Zulke maatregelen helpen bij audits en bij het aantonen van toestemming.

De financiële kant draait om licenties en royalty’s per gebruik. Dat kan variëren van vaste fees voor campagnes tot vergoedingen per stream of uitzendbeurt. Transparante rapportages zijn nodig om makers te betalen en geschillen te voorkomen.

Europese regels voor stem-AI

De Europese AI-verordening (AI Act) verplicht, op het moment van schrijven, tot duidelijke vermelding wanneer audio door AI is gegenereerd. Bij deepfakes geldt een extra plicht: het publiek moet kunnen zien dat het niet om een echte opname gaat. Deze transparantie-eis raakt direct reclame, media en platforms in Europa.

Onder de AVG zijn stemopnamen persoonsgegevens; worden ze gebruikt om iemand uniek te identificeren, dan gelden ze als biometrische gegevens. Dat vraagt om een wettelijke grondslag, dataminimalisatie en goede beveiliging. Voor bedrijven in Nederland betekent dit: expliciete toestemming vastleggen en bewaartermijnen beperken.

Daarnaast verplicht de Digital Services Act grote platforms om misleiding en deepfakes tegen te gaan. Labeling, snelle verwijdering en klachtenafhandeling zijn daarbij sleutelmaatregelen. Dit moet voorkomen dat ongeoorloofde stemklonen zich snel verspreiden.

Kansen én risico’s voor makers

Met gecontroleerde AI-stemmen kunnen acteurs schaalbaar werken zonder elke opname zelf te doen. Toepassingen liggen in lokalisatie, games, e-learning en audioboeken. Voor opdrachtgevers verkort dit de doorlooptijd en verlaagt het kosten, mits rechten en kwaliteit zijn geborgd.

De keerzijde is het risico op imitatie en fraude, zoals telefoonscams met nagebootste stemmen. Watermerken en detectietools kunnen helpen, maar zijn niet waterdicht. Juridische en technische maatregelen moeten daarom hand in hand gaan.

In de markt bieden spelers als ElevenLabs en Respeecher tools voor stemklonen met toestemming. Zulke platforms introduceren marktplaatsen met verificatie en revenue sharing voor stemtalent. Europese studios die hiermee werken, doen er goed aan contract- en privacychecks op te nemen in hun workflow.

Wat het publiek mag verwachten

Luisteraars zullen vaker AI-gegenereerde stemmen horen in trailers, commercials en nasynchronisatie. Heldere labeling aan het begin van audio of in de aftiteling maakt dat transparant. Dat helpt het vertrouwen, zeker als de echte acteur het gebruik vooraf heeft goedgekeurd.

Bij twijfel of misbruik moeten meldpunten snel werken. Platforms en adverteerders horen dan bewijs van toestemming te tonen of het materiaal te verwijderen. Dit sluit aan bij de DSA-regels voor klachten en moderatie in de EU.

Voor consumenten blijft opletten belangrijk bij onverwachte voiceberichten met betalingsverzoeken. Controleer altijd via een tweede kanaal of een verzoek echt is. Organisaties kunnen werknemers trainen in het herkennen van stemdeepfakes.

Definitie: een stemkloon is een synthetische stem die is getraind op opnamen van een persoon en vervolgens nieuwe zinnen kan uitspreken zonder dat die persoon opnieuw in de studio staat.

Andere bekeken ook

December 6, 2025

HomeWizard Thuisbatterij Review: Is de thuisbatterij van HomeWizard het geld waard?