OpenAI slaat intern alarm over problemen met ChatGPT. De directie spreekt van code rood omdat het systeem trager reageert en soms vastloopt. Het bedrijf start in de VS direct een noodplan om de dienst te stabiliseren. Dat gebeurt deze week na signalen van gebruikers en bedrijven in meerdere landen.
OpenAI voert noodplan uit
De leiding van OpenAI kiest nu voor stabiliteit boven nieuwe functies. Teams werken aan het terugbrengen van foutmeldingen, trage antwoorden en onverwachte uitval. Ook worden recente wijzigingen in de software tijdelijk bevroren. Zo wil het bedrijf de basis van de dienst weer betrouwbaar krijgen.
ChatGPT is een generatieve AI-dienst die tekst en code maakt met behulp van grote taalmodellen. Zulke modellen zijn complex en gevoelig voor zogenaamde modeldrift, waarbij de kwaliteit ongemerkt kan verslechteren. OpenAI onderzoekt welke updates de oorzaak zijn. Daardoor kunnen geplande releases later komen dan eerder aangekondigd.
Zakelijke gebruikers krijgen prioriteit bij het herstel. Denk aan ChatGPT Enterprise en API-klanten die het platform in eigen producten hebben geïntegreerd. Voor hen telt niet alleen creativiteit, maar vooral voorspelbaarheid en uptime. OpenAI zegt die balans te willen herstellen.
Code rood is een interne noodprocedure waarbij alle inzet gericht is op het snel herstellen van stabiliteit, en nieuwe releases tijdelijk op pauze staan.
Wat er nu misgaat
Gebruikers melden langere wachttijden en vaker time-outs. Soms stopt een gesprek halverwege of komt er geen antwoord. In andere gevallen wijkt het resultaat af van eerdere, vergelijkbare vragen. Dit zorgt voor frustratie in dagelijks gebruik.
Voor ontwikkelaars en supportteams leidt dit tot extra werk. Zij moeten herhaalverzoeken afhandelen of eigen foutafhandeling inbouwen. Dat kost tijd en kan de klantervaring schaden. Vooral bij kritieke processen, zoals klantenservice, telt elke minuut.
De problemen raken ook evaluaties van algoritmen en interne tests. Als metingen schommelen, is het lastig om verbeteringen te beoordelen. Daardoor kan het ontwikkeltempo dalen. OpenAI richt zich daarom eerst op een stabiele basislijn.
Gevolgen voor Europese klanten
Voor bedrijven in Nederland en Europa telt betrouwbaarheid extra zwaar. Zij moeten voldoen aan de AVG en interne kwaliteitsnormen. Wanneer ChatGPT hapert, riskeren zij vertraagde processen of fouten in klantcommunicatie. Dat raakt de operationele continuïteit.
De Europese AI-verordening (AI Act) stelt op het moment van schrijven eisen aan general-purpose AI (GPAI), zoals documentatie, risicobeperking en transparantie. Leveranciers moeten laten zien hoe ze prestaties bewaken en incidenten aanpakken. Een code-roodperiode valt daar direct onder. Dit vergroot de druk om sneller en helderder te rapporteren.
Voor gebruikers betekent dit het herzien van SLA’s en exitstrategieën. Denk aan fallback-scenario’s, dubbele leveranciers of tijdelijke beperkingen op kritieke taken. Zo beperken organisaties de gevolgen voor dienstverlening en naleving. Dit is relevant voor sectoren als zorg, finance en overheid.
Technische oorzaken en keuzes
Bij grootschalige AI-diensten spelen meerdere lagen mee: het model, de servercapaciteit en de applicatie eromheen. Verstoring in één laag kan de hele keten vertragen. Bijvoorbeeld door piekbelasting, updates in het redeneer-algoritme of een fout in de geheugenfunctie (contextvenster). Het is vaak een optelsom van kleine issues.
Ook caching en routering van verzoeken zijn gevoelig. Slimme wachtrijen en prioriteiten helpen, maar vragen fijn afgestelde instellingen. Als grenswaarden veranderen, kan dat onverwachte wachttijden geven. Daarom testen leveranciers normaliter wijzigingen gefaseerd uit.
Tot slot is er het risico op hallucinerende antwoorden, vooral als het model onder druk staat. Dan worden plausibele maar onjuiste teksten geproduceerd. Goede evaluatie helpt dat te beperken, maar vergt consistente prestaties. Precies daar ligt nu de uitdaging.
Regels vragen transparantie
De AI Act verplicht GPAI-aanbieders op het moment van schrijven tot technische documentatie, evaluatie en informatie voor downstream-gebruikers. Dat betekent helder maken welke versies draaien, hoe performance wordt gemeten en welke beperkingen gelden. Ook moeten samenvattingen van trainingsdata en energieverbruik inzichtelijk worden. Dit versterkt toezicht en vergelijkbaarheid.
Voor de AVG geldt dat dataminimalisatie en versleuteling standaard moeten zijn. Chatloggegevens vallen onder persoonsgegevens als ze herleidbaar zijn. Bedrijven moeten daarom verwerkersafspraken en bewaartermijnen scherp regelen. ChatGPT Enterprise belooft dat klantdata niet voor training worden gebruikt, maar organisaties blijven zelf verantwoordelijk voor naleving.
Europese toezichthouders, waaronder nationale privacy-autoriteiten, letten extra op generatieve AI in publieke diensten en onderwijs. Storingen vergroten het risico op fouten in communicatie of besluitvorming. Transparant incidentbeheer en duidelijke gebruiksgrenzen zijn daarom essentieel. Dit sluit aan bij de eisen uit de AI Act en bestaande consumentenregels.
Wat gebruikers nu kunnen doen
Bedrijven kunnen tijdelijke drempels instellen, zoals lagere tijdslimieten per verzoek of strengere validatie van antwoorden. Zet een fallback in, bijvoorbeeld een simpelere routine of een lokale taalmodule voor standaardtaken. Monitor eigen foutpercentages apart van de leverancier. Zo wordt snel zichtbaar of het herstel effect heeft.
Overweeg vendor-diversificatie voor niet-kritieke functies. Zo kan werk worden verdeeld bij verstoringen. Documenteer beslisregels en bewaak welke taken door mensen worden gecontroleerd. Dit verkleint de kans op fouten in klantprocessen.
Werk tenslotte de AI-governance bij: registreer modelversies, toets prompts en log beslissingen. Leg vast welke gegevens wel en niet mogen worden ingevoerd, in lijn met de AVG. Dit helpt bij audits en bij de eisen voor Europese digitalisering gevolgen bedrijfsleven. En het maakt overstappen of opschalen eenvoudiger als de situatie verandert.
