De Amerikaanse president Donald Trump heeft een decreet ondertekend dat de regulering van kunstmatige intelligentie (AI) door Amerikaanse staten beperkt. Het Witte Huis wil één landelijk kader en minder verschillende regels per staat. Het besluit werd in Washington genomen en geldt per direct voor federale instanties. Dit kan gevolgen hebben voor Europese digitalisering en het bedrijfsleven in Nederland.
Wit Huis kiest uniform kader
Het decreet stuurt federale ministeries aan om AI-beleid te harmoniseren en als landelijk standaard te gebruiken. Het doel is een lappendeken van staatsregels te voorkomen. Zo wil de regering duidelijkheid voor bedrijven die AI-systemen bouwen of inzetten.
Een executive order is een presidentieel besluit dat federale instanties bindt. Het is geen wet van het Congres, maar het bepaalt wel hoe de overheid beleid uitvoert. Daarmee kan het feitelijk richting geven aan nationale regels en toezicht.
Het besluit richt zich op thema’s als veiligheid van AI-modellen, transparantie, en het gebruik van AI voor deepfakes of besluitvorming. Federale agentschappen zoals de Federal Trade Commission (FTC) en het National Institute of Standards and Technology (NIST) krijgen een centrale rol. NIST beheert bijvoorbeeld het AI Risk Management Framework, een praktische set richtlijnen voor veilig en verantwoord gebruik.
Staten verliezen regelruimte
De afgelopen jaren maakten staten als Californië en New York eigen AI-regels, bijvoorbeeld rond discriminatie in werving of het labelen van synthetische media. Het Witte Huis wil dat federale standaarden leidend worden waar dat kan. Zo moet er minder variatie per staat zijn.
De regering kan dit bevorderen door federale inkoopvoorwaarden, subsidies en vergunningen te koppelen aan één set eisen. Ook kan zij agentschappen vragen om conflicterende staatsregels te weigeren of te beperken. Toch blijven de grenzen van federale bevoegdheid een juridisch vraagstuk.
Burgerrechtenorganisaties en sommige staten vrezen dat consumenten en werknemers daardoor minder beschermd zijn. Zij wijzen op risico’s als bias in algoritmen en misbruik van biometrische data. Techbedrijven zien juist voordeel in één kader, omdat dit naleving vereenvoudigt.
Juridische strijd onvermijdelijk
De kernvraag is of een executive order staatsregels echt kan verdringen. In de Verenigde Staten is “federal preemption” vaak gebaseerd op wetten van het Congres. Zonder zo’n wet is de ruimte van het Witte Huis beperkt en beslist uiteindelijk de rechter.
Staten die al AI-wetgeving hebben, kunnen naar de rechtbank stappen om hun regels te verdedigen. Industrieorganisaties kunnen juist federale uniformiteit aanvoeren om staatsregels te blokkeren. Deze procedures kunnen maanden tot jaren duren.
Een executive order stuurt federale instanties aan, maar vervangt geen wet van het Congres. De juridische gelding is sterk in de uitvoering, zwakker in het verdringen van staatswetgeving.
Voor bedrijven betekent dit een periode van onzekerheid. Er komt waarschijnlijk snel federale guidance, maar de definitieve grenzen ontstaan pas via rechtspraak. Planning en compliance moeten dus scenario’s per rechtsgebied blijven meenemen.
Verschil met Europese AI-wet
De Europese AI-verordening (AI Act) kiest voor één geharmoniseerd systeem binnen de EU. De wet werkt met risicoklassen en stelt eisen aan data, toezicht en transparantie. Lidstaten voeren uit via nationale autoriteiten, maar de kernregels zijn overal gelijk.
Het Amerikaanse decreet probeert nu vergelijkbare uniformiteit te bereiken via uitvoerend beleid, niet via een wet. Dat maakt de basis politiek en juridisch kwetsbaarder. Europese bedrijven zijn gewend aan duidelijke verordeningen; in de VS blijft het voorlopig complexer.
De AVG blijft leidend voor Europese data die in AI-systemen worden gebruikt. Dataminimalisatie en versleuteling zijn daarbij verplicht. Voor Nederlandse organisaties die in de VS actief zijn, kan een federale standaard wel de nalevingskosten verlagen als die duidelijk en stabiel wordt.
Gevolgen voor Nederlandse bedrijven
Exporteurs van AI-diensten en -software naar de VS krijgen mogelijk minder variatie in eisen per staat. Dat verlaagt de administratieve last, bijvoorbeeld bij audits of modeldocumentatie. Tegelijk kan de uitkomst van rechtszaken tot nieuwe verschillen leiden.
Praktisch is het zinvol om NIST-richtlijnen te volgen, zoals het AI Risk Management Framework en handleidingen voor modeltransparantie. Die sluiten aan bij Europese eisen aan risicobeheer en technische documentatie. Houd daarnaast contractueel vast aan AVG-standaarden voor data en beveiliging.
Op het moment van schrijven is er nog geen federale AI-wet in de VS. Het decreet geeft wel richting aan toezicht en inkoop. Bedrijven doen er goed aan een updateplan te maken voor Amerikaanse en Europese regels, inclusief de AI Act en sectorale eisen.
