Cerebras Systems heeft opnieuw een aanvraag ingediend voor een beursgang, nadat een eerdere aanvraag in 2024 werd ingetrokken. Destijds gaf het bedrijf aan dat de ingediende documenten niet langer aansloten bij de actuele stand van zaken.
Inmiddels presenteert de ontwikkelaar van AI-chips echter sterk verbeterde financiële resultaten, wat de weg vrijmaakt voor een nieuwe stap richting de beurs. Dit meldt SiliconANGLE.
De cijfers laten een duidelijke ommekeer zien. Waar in 2024 nog een verlies van 485 miljoen dollar werd genoteerd op een omzet van 290,3 miljoen dollar, sloot het bedrijf het daaropvolgende jaar af met een winst van 87,9 miljoen dollar. Tegelijkertijd groeide de omzet met 76 procent tot 510 miljoen dollar.
In de nieuwe aanvraag maakt Cerebras bekend dat het een doorlopend krediet van 125 miljoen dollar heeft verkregen via Morgan Stanley. Dit kapitaal is bedoeld om samenwerkingen met datacenterontwikkelaars en exploitanten te financieren. Het bedrijf investeert nadrukkelijk in uitbreiding van zijn infrastructuur om de groei van zijn cloudgebaseerde AI-platformen te ondersteunen.
WSE-3-chip vormt kern van strategie
De activiteiten draaien op de eigen WSE-3-chip. Dit is een AI-accelerator die qua formaat en schaal aanzienlijk afwijkt van traditionele hardware. De chip telt 4 biljoen transistors en 900.000 rekenkernen. In de aanvraag wordt vermeld dat de kredietfaciliteit na een succesvolle beursgang kan worden uitgebreid tot 850 miljoen dollar. Ook heeft het bedrijf een aparte lening van 1 miljard dollar ontvangen van OpenAI.
Met diezelfde partij werd eind vorig jaar een omvangrijke overeenkomst gesloten voor de levering van AI-infrastructuur. De deal vertegenwoordigt een waarde van meer dan 20 miljard dollar. Het omvat de levering van 750 megawatt aan capaciteit. Daarbij is afgesproken dat deze capaciteit kan worden uitgebreid tot 2 gigawatt. In het kader van deze samenwerking heeft OpenAI tevens warrants ontvangen. Die geven recht op de aankoop van maximaal 33,4 miljoen aandelen, afhankelijk van het behalen van afgesproken afnamevolumes.
Ook met Amazon Web Services werd recent een overeenkomst bereikt, zoals Techzine meldde. Binnen deze samenwerking wordt de WSE-3-chip ingezet in een zogeheten gedisaggregeerde architectuur voor AI-verwerking. Hierbij worden prefill en decode van elkaar gescheiden.
Die opsplitsing speelt in op de aard van AI-inferencing. Dat bestaat uit het verwerken van input en het genereren van output. AWS zet zijn eigen Trainium-chips in voor de prefillfase, waarin rekenkracht bepalend is, terwijl Cerebras wordt gebruikt voor de decodefase, waar de snelheid van dataverplaatsing doorslaggevend is. In die stap worden tokens gegenereerd en ontstaat de uiteindelijke output van een model.
Trainium krijgt tweede leven in AI-stack
De samenwerking geeft daarmee een nieuwe rol aan Trainium, dat oorspronkelijk werd ontwikkeld voor AI-training maar minder goed aansloot bij de hoogste prestatieniveaus. Door de chip in te zetten voor prefill binnen inference-workloads ontstaat alsnog een duidelijke toepassing binnen de AI-stack.
De aanpak past binnen een bredere trend waarin AI-workloads worden verdeeld over verschillende typen hardware. Deze vorm van gedisaggregeerde verwerking maakt het mogelijk om per onderdeel de meest geschikte architectuur te benutten. Volgens Cerebras biedt de WSE-3 hiervoor een geheugenbandbreedte van 27 petabyte per seconde, wat vooral in de decodefase een voordeel vormt.
Verder blijkt uit de documenten dat Cerebras werkt aan een bredere inzet van zijn technologie binnen infrastructuren waarin meerdere chiparchitecturen samenwerken. Mogelijk vormt de bestaande CS-3-oplossing hiervoor de basis, waarin een WSE-3-chip wordt gecombineerd met ondersteunende systemen zoals koeling, energievoorziening en beheersoftware. Met deze software kunnen meerdere systemen worden samengevoegd tot grootschalige clusters.
Het bedrijf wil zijn aandelen noteren op de Nasdaq onder het symbool CBRS.









/s3/static.nrc.nl/wp-content/uploads/2026/04/19013228/ANP-556145826.jpg)
English (US) ·