De Amerikaanse chipontwerper Nvidia boekte deze week opnieuw recordresultaten. De kooplust van grote techbedrijven naar AI‑chips voor datacenters blijft hoog. Dat stuwt investeringen in rekenkracht voor kunstmatige intelligentie, met Europese digitalisering gevolgen bedrijfsleven. De vraag draait om het trainen en gebruiken van grote AI‑systemen in de cloud.
Kooplust voor AI-chips houdt aan
Grote platformen als Microsoft, Google, Amazon en Meta kopen op grote schaal Nvidia‑chips. Zij bouwen clusters om AI‑modellen te trainen en vervolgens te laten draaien voor klanten. Datacenters vragen vooral om GPU‑accelerators zoals H100 en de nieuwe Blackwell‑generatie. Deze chips voeren veel berekeningen tegelijk uit en zijn daardoor geschikt voor AI.
De bedrijven leggen contracten vast voor meerdere jaren en reserveren capaciteit bij toeleveranciers. Zo willen zij tekorten voorkomen en nieuwe diensten sneller lanceren. Ook AI‑startups huren rekenkracht in via de cloud om kosten te spreiden. Daardoor groeit de afzet van Nvidia zowel direct als via cloudaanbieders.
Cloudplatformen bieden de rekenkaarten als een dienst aan. Klanten betalen per uur of per taak, zonder eigen hardware te kopen. Dat is aantrekkelijk voor Europese organisaties die snel willen opschalen. Het vergroot wel hun afhankelijkheid van buitenlandse infrastructuur.
Een GPU‑accelerator is een rekenkaart die duizenden bewerkingen tegelijk uitvoert en zo training en gebruik van AI‑modellen versnelt.
Record komt uit datacenters
Het datacenteronderdeel is veruit de grootste inkomstenbron van Nvidia. Gaming en automotive tellen mee, maar vallen kleiner uit. De groei komt vooral van AI‑training en het uitvoeren van AI‑toepassingen, ook wel inferentie genoemd. Daarbij wordt een getraind model ingezet om antwoorden of voorspellingen te geven.
Nvidia breidt het assortiment versnellers uit met de Blackwell‑lijn, zoals B200 en GB200. Die combineert GPU en CPU om snelheid en energieverbruik te verbeteren. Softwarepakketten zoals CUDA en AI‑bibliotheken binden ontwikkelaars aan het ecosysteem. Dat maakt overstappen naar alternatieven lastiger voor klanten.
Een knelpunt was de productie en het geavanceerde verpakken van chips. Fabrikanten als TSMC schalen de CoWoS‑capaciteit op om meer kaarten te leveren. Daardoor kunnen leveranciers in 2025 grotere volumes leveren. Het blijft echter een wereldwijde keten met meerdere kwetsbare schakels.
Europese digitalisering: gevolgen bedrijfsleven
Voor Europese bedrijven is toegang tot AI‑rekenkracht een concurrentiefactor geworden. Middelgrote organisaties kiezen vaak voor cloud omdat eigen clusters duur zijn. Sectoren als industrie, zorg en financiële dienstverlening testen generatieve AI voor productiviteit en klantenservice. De totale kosten hangen sterk af van chipprijzen en energie.
Europa wil strategische afhankelijkheden verkleinen met de Europese Chips Act. Nederland speelt hierbij een sleutelrol via ASML, dat machines levert voor chipproductie. Toch blijven ontwerp (Nvidia) en fabricage (vooral Taiwan) grotendeels buiten Europa. Dat maakt leveringszekerheid en prijsontwikkeling een extern risico.
Onderzoekscentra en universiteiten in de EU bouwen eigen AI‑infrastructuur. Een deel draait op Nvidia‑hardware via nationale supercomputers en Europese samenwerkingen. Dat ondersteunt wetenschap en startup‑ecosystemen. Tegelijk blijft de vraag of publieke middelen gelijke tred kunnen houden met de markt.
Energie en infrastructuur knellen
AI‑datacenters gebruiken veel stroom en koeling. In Nederland en Ierland speelt schaarste op het elektriciteitsnet. Nieuwe locaties vragen jaren aan vergunningen en netaansluitingen. Warmte‑hergebruik en vloeistofkoeling beperken het verbruik, maar nemen de piekvraag niet weg.
Nationale en lokale overheden stellen strengere eisen aan nieuwe datacenters. In Nederland gelden ruimtelijke kaders en duurzaamheidsregels voor hyperscales. Transparantie over energie‑efficiëntie wordt belangrijker door Europese richtlijnen. Dit beïnvloedt waar en hoe snel rekenclusters kunnen groeien.
Nvidia benadrukt betere prestaties per watt in nieuwe generaties. In de praktijk stijgt de totale vraag door meer toepassingen. Bedrijven moeten dus plannen maken voor capaciteit, koeling en kosten. Dat geldt ook voor Europese cloud‑ en telecomproviders die AI‑diensten aanbieden.
Regulering stuurt AI-investeringen
De AI‑verordening (AI Act) treedt gefaseerd in werking; op het moment van schrijven starten eerste verplichtingen in 2025 en 2026. Aanbieders van hoog‑risico‑toepassingen moeten documentatie, testen en toezicht regelen. Dat raakt zowel ontwikkelaars van modellen als gebruikers in sectoren als zorg en mobiliteit. Investeringen in hardware moeten daarom samengaan met compliance‑processen.
De Digital Services Act en Digital Markets Act leggen transparantie‑eisen op aan grote platforms. Wie AI‑functies integreert, moet uitleg en klachtenafhandeling organiseren. Daarnaast blijft de AVG leidend voor data‑minimalisatie, beveiliging en doelbinding. Bedrijven die AI‑diensten inkopen via de cloud moeten dit contractueel en technisch borgen.
Overheden en bedrijven kijken steeds vaker naar “sovereign AI”, met eigen data‑afspraken en soms on‑premises clusters. Europese supercomputers en nationale HPC‑centra bieden hierbij opties voor gevoelige workloads. Dat kan de afhankelijkheid van buitenlandse clouds verkleinen, maar vraagt forse investeringen. De keuze tussen cloud en eigen infrastructuur wordt zo een strategische afweging.
