Een internationaal onderzoeksteam meldt een doorbraak in kosmologie. Met een AI-gestuurde methode draaien universumsimulaties tot duizend keer sneller, zelfs op een gewone laptop. De innovatie combineert klassieke natuurkunde met een neuraal netwerk en open-source software. Dat is relevant voor Europese digitalisering van onderzoek en de verwerking van data uit grote telescopen.
Snellere kosmische simulaties
De nieuwe aanpak versnelt rekenwerk dat vroeger alleen op supercomputers kon. Het systeem gebruikt een “emulator”: een neuraal netwerk dat een dure simulatie nabootst. Daardoor daalt de rekentijd van dagen naar minuten. De kwaliteit blijft volgens de makers dicht bij klassieke resultaten.
De methode bouwt voort op de zogeheten particle-mesh techniek. Dat is een rekenmethode die zwaartekracht benadert op een rooster om de vorming van structuren in het heelal te berekenen. Door deze fysica te koppelen aan een getraind model, blijft de uitkomst realistisch. Tegelijk profiteert de gebruiker van de snelheid van moderne algoritmen.
Het doel is sneller itereren op kosmologische scenario’s. Onderzoekers kunnen meer varianten testen binnen dezelfde tijd en het beste model kiezen. Dat helpt bij het begrijpen van donkere materie en de verdeling van sterrenstelsels. Ook maakt het onderwijs laagdrempelige practica mogelijk op standaard hardware.
Tot duizend keer sneller dan klassieke N-body simulaties, en bruikbaar op een gewone laptop.
AI vervangt zware rekenkracht
De kern van de versnelling is een emulator die patronen leert uit grote voorbeelddatasets. Zo’n emulator is een getraind neuraal netwerk dat de uitkomst van een complexe berekening voorspelt. Het model draait efficiënt op een CPU of GPU, de grafische processor in veel laptops. Daardoor verschuift de bottleneck van pure rekenkracht naar slimme voorspelling.
Belangrijk is dat de emulator binnen het domein van de trainingsdata blijft. Buiten dat bereik neemt de fout toe en moet de simulatie terugvallen op klassieke fysica. De software controleert daarom of een scenario binnen veilige marges valt. Zo blijft de wetenschappelijke betrouwbaarheid behouden.
De code is opzetbaar als open-source pakket, wat hergebruik en controle vergemakkelijkt. Collega’s kunnen de aanpak toetsen en verbeteren. Dat past bij Europese open science-doelen. Het maakt de keten van data tot publicatie beter navolgbaar.
Toepassingen voor Euclid-data
Europa investeert in kosmische data via ESA’s Euclid-missie en telescopen van de European Southern Observatory. Die instrumenten leveren enorme hoeveelheden metingen over donkere materie en de uitdijing van het heelal. Snelle simulaties zijn nodig om die data te duiden. Met deze methode kan de analyse vlotter en breder.
Nederlandse instituten zoals SRON, NOVA en universiteiten die kosmologie doen, profiteren direct. Zij kunnen nu op werkstations of laptops hypotheses testen voordat ze rekentijd op supercomputers aanvragen. Dat scheelt tijd in onderzoeksvoorstellen en planning. Het verlaagt ook de drempel voor kleinere onderzoeksgroepen en studenten.
Voor bedrijven die datasets verwerken in de cloud dalen de kosten per experiment. Minder rekentijd betekent minder GPU-uren. De Europese digitalisering en de gevolgen voor het bedrijfsleven spelen mee: goedkopere rekenmodellen verlagen de drempel voor R&D. Dit kan samenwerking tussen academie en industrie versnellen.
Minder kosten, minder energie
Hoge rekentijd betekent hoge energiekosten en CO₂-uitstoot. Een simulatie die duizend keer sneller draait, verbruikt in de praktijk veel minder stroom. Dat past bij duurzaamheidseisen van universiteiten en financiers. Ook helpt het dat rekenclusters minder piekbelasting ervaren.
EuroHPC-infrastructuren zoals LUMI en Leonardo blijven nodig voor grootschalig werk. Maar voor verkenningen en parameterstudies is lokaal draaien vaak genoeg. Zo benutten onderzoekers de grote faciliteiten alleen waar het echt telt. Dat maakt het geheel efficiënter en goedkoper.
Ook onderwijs en citizen science profiteren. Een laptop in een practicum kan nu een vereenvoudigd universum laten groeien. Dat maakt abstracte kosmologie tastbaar voor studenten en het brede publiek. Het vergroot de instroom in bèta- en datarichtingen.
Beperkingen en controle nodig
Een emulator is zo goed als zijn trainingsdata. Als de werkelijkheid afwijkt, kan het model systematisch fouten maken. Daarom blijven validatie en onzekerheidschatting essentieel. De software moet duidelijk aangeven hoe betrouwbaar een uitkomst is.
Complexe processen zoals baryonische fysica rond gas, sterren en zwarte gaten blijven lastig te vangen. Daarvoor zijn vaak hybride methoden nodig: deels klassiek, deels AI. De makers melden dat fijnere details nog beperkingen kennen. Verdere training en betere datasets moeten dit verbeteren.
Transparantie is cruciaal in de wetenschap. Publicatie van code, modellen en evaluaties hoort daarbij. Dat maakt onafhankelijke reproductie mogelijk. Het voorkomt dat de versnelling ten koste gaat van vertrouwen.
Europese regels en impact
De Europese AI-verordening (AI Act) vraagt om transparantie en documentatie bij inzet van AI, ook in onderzoek. Hoewel wetenschappelijke emulators doorgaans niet in een hoog-risicoklasse vallen, zijn traceerbaarheid en duidelijkheid over data en beperkingen gewenst. Open source en gedocumenteerde modellen sluiten daar goed op aan. Beheer van datasets valt onder open science-beleid en FAIR-principes.
Voor universiteiten in Nederland en België is dit praktisch. Projecten kunnen sneller van prototype naar publicatie. Toegang tot supercomputeruren via SURF of EuroHPC kan gerichter worden aangevraagd. Dat versterkt de internationale positie van de regio.
De aanpak biedt ook kansen buiten de astronomie. Snelle fysische emulators zijn bruikbaar in klimaat- en materiaalonderzoek. Daar gelden vergelijkbare eisen aan betrouwbaarheid en transparantie. Met duidelijke documentatie kan het bredere onderzoeksecosysteem veilig profiteren.
