In de Verenigde Staten is een conflict ontstaan tussen het Pentagon en AI-bedrijf Anthropic over de inzet van generatieve AI in defensieprojecten. De spanningen draaien om voorwaarden, veiligheid en controle over algoritmen. OpenAI komt hierdoor in een kwetsbare positie in de strijd om overheidsopdrachten. De discussie raakt ook Europese digitalisering en heeft gevolgen voor het bedrijfsleven.
Pentagon botst met Anthropic
Het Amerikaanse ministerie van Defensie wil generatieve AI inzetten voor taken zoals analyse, vertaling en planning. Anthropic, maker van het Claude-systeem, stelt strikte veiligheidsregels en gebruiksgrenzen. Die regels beperken bijvoorbeeld hoe het model antwoorden geeft over gevoelige onderwerpen. Dat zorgt voor wrijving over wat wel en niet kan in militaire processen.
Generatieve AI is software die op basis van grote datasets tekst, beeld of code kan maken. Zulke “foundation models” worden getraind op brede informatie en daarna bijgestuurd voor specifieke taken. In defensieomgevingen speelt betrouwbaarheid een grotere rol dan snelheid. Daardoor schuurt het sneller als filters of beleidskeuzes antwoorden beperken.
Beide partijen zeggen veiligheid voorop te zetten, maar leggen andere accenten. Defensie wil voorspelbare prestaties en duidelijke escalatiepaden als iets misgaat. Anthropic weegt misbruik en maatschappelijke schade zwaarder en houdt strengere drempels aan. Dat verschil in risicobeoordeling ligt aan de basis van het huidige conflict.
OpenAI verliest momentum
De rel zet OpenAI onder extra druk bij overheidsaanbestedingen. Het bedrijf concurreert met aanbieders als Anthropic, Google en openbronmodellen. Discussies over gebruiksregels, datagebruik en toezicht raken direct aan het vertrouwen in leveranciers. Overheden willen minder reputatierisico en meer contractuele zekerheden.
OpenAI heeft zijn beleid rond militair gebruik in de afgelopen jaren aangepast, op het moment van schrijven onder voorwaarden. Zulke koerswijzigingen roepen vragen op over continuïteit en governance. Inkopers willen garanties over beschikbaarheid, auditmogelijkheden en escalatie. Dat versterkt de positie van partijen die hun kaders publiek en stabiel verankeren.
Ook de technische leveringsvorm speelt mee. OpenAI wordt vaak afgenomen via Microsoft’s Azure OpenAI Service. Veel Europese organisaties vragen echter om EU-datalocatie, eigen versleuteling en beperkte telemetrie. Als die opties ontbreken, schuift de keuze sneller richting alternatieve modellen of multi-cloudoplossingen.
Gevolgen voor Europese digitalisering
De Europese AI-verordening (AI Act) zet nieuwe regels voor zogenoemde general purpose AI (GPAI). Militaire toepassingen vallen grotendeels buiten de AI Act, maar civiel gebruik van dezelfde modellen valt er wél onder. Leveranciers moeten daarom transparantie bieden over capaciteiten, beperkingen en bekende risico’s. Dat beïnvloedt hoe bedrijven contracten en documentatie inrichten.
Daarnaast geldt de AVG voor alle persoonsgegevens die door AI-systemen gaan. Dataminimalisatie, versleuteling en duidelijke bewaartermijnen zijn verplicht. Voor datadoorgifte naar de VS spelen het EU–VS Data Privacy Framework en standaardclausules een rol. In de praktijk verlangen Europese klanten vaak EU-datalocatie en technische waarborgen tegen toegang door derden.
Ook NIS2 stelt hogere eisen aan cyberweerbaarheid bij vitale sectoren, waaronder overheid en defensie toeleveranciers. Leveranciers van AI-diensten moeten aantonen dat hun platformen veilig zijn ingericht. Denk aan patchbeleid, incidentrespons en gescheiden omgevingen voor gevoelige data. Wie dat niet kan, verliest punten in aanbestedingen.
“Defensietoepassingen vallen buiten de AI Act, maar dezelfde modellen voor civiele taken vallen er wél onder. Dat dwingt leveranciers tot dubbele naleving: veiligheidsnormen voor defensie én transparantieregels voor civiel gebruik.”
Inkopers vragen harde zekerheden
Overheden en bedrijven kiezen vaker voor een multi‑modelstrategie. Ze willen kunnen wisselen tussen modellen van OpenAI, Anthropic en openbronalternatieven zoals Llama of Mistral. Dat vermindert afhankelijkheid en verkleint operationeel risico. Orchestratie‑lagen en evaluatietools worden daarom standaard in aanbestedingen.
Transparante documentatie weegt zwaarder mee in de gunning. Inkopers vragen modelkaarten, testresultaten en red‑teamingrapporten. Ook tellen beperkingen mee: wat mag het model niet, en wat gebeurt er bij misbruik? Heldere grenzen en logische fallback‑scenario’s geven vertrouwen.
Privacy en security zijn niet onderhandelbaar. Contracten eisen vaak dat trainingsdata en prompts niet worden hergebruikt, of alleen binnen een afgesloten omgeving. Logging moet nuttig zijn voor audits, maar voldoet aan dataminimalisatie. Zo ontstaat een evenwicht tussen controle, prestaties en regelgeving.
Wat dit betekent voor Nederland
De Nederlandse defensiesector en het bredere publieke domein volgen deze ontwikkeling nauw. Het Ministerie van Defensie experimenteert met AI voor onderhoud, vertaling en planning. TNO en de NL AIC werken mee aan richtlijnen en testmethoden. De Amerikaanse discussie helpt bepalen welke eisen Nederland scherp moet opnemen in contracten.
Voor Europese aanbieders is er kans én plicht. Spelers als Mistral AI en Aleph Alpha profileren zich met transparantie en Europese datalocatie. Maar zij moeten dezelfde lat halen op het gebied van veiligheid, audits en beschikbaarheid. Anders schuift de keuze alsnog naar gevestigde cloudplatformen.
Voor het bedrijfsleven is de les helder. Leg inkoopvoorwaarden vast rond datagebruik, modelupdates en exit‑clausules. Vraag om EU‑hosting en onafhankelijke evaluatiesets. Daarmee blijft innovatie mogelijk, zonder de regie over data, compliance en risico’s te verliezen.
