Anthropic heeft een preview aangekondigd van Claude Mythos, een nieuw zogeheten frontier-model dat volgens het bedrijf opvallend sterke capaciteiten heeft op het gebied van cyberbeveiliging.
In tegenstelling tot eerdere modellen ligt de nadruk niet alleen op het opsporen van kwetsbaarheden, maar ook op het daadwerkelijk uitwerken ervan tot exploits. De introductie maakt deel uit van Project Glasswing, een initiatief waarbij een selecte groep organisaties het model inzet voor defensieve beveiligingstoepassingen. Onder de deelnemers bevinden zich onder meer Amazon, Apple, Microsoft en de Linux Foundation, meldt TechCrunch.
In totaal nemen ongeveer twaalf kernpartners deel, terwijl daarnaast circa veertig organisaties toegang krijgen tot de preview. De bedoeling is dat deze partijen hun bevindingen delen met de bredere sector.
Volgens Anthropic is Claude Mythos een algemeen taalmodel dat niet specifiek voor cybersecurity is getraind, maar waarin verbeteringen in codebegrip en redeneringsvermogen leiden tot nieuwe toepassingen. In tests zou het model in korte tijd duizenden kwetsbaarheden hebben geïdentificeerd, waaronder veel zogenoemde zero-days. Daarbij gaat het volgens het bedrijf vaak om fouten die al tien tot twintig jaar in software aanwezig zijn. Een groot deel van die bevindingen is nog niet gepatcht, waardoor onafhankelijke verificatie voorlopig beperkt blijft.
De claims sluiten aan bij een eerder uitgelekte interne beschrijving van het model, waarin het werd aangeduid als een nieuwe categorie die krachtiger zou zijn dan de bestaande Opus-modellen. In die context werd het systeem gepositioneerd als het meest geavanceerde model dat Anthropic tot nu toe heeft ontwikkeld. Het lek ontstond door een fout waarbij interne documenten publiek toegankelijk waren, wat later door het bedrijf werd toegeschreven aan menselijke vergissing.
Anthropic kiest voor gecontroleerde inzet
Anthropic erkent dat de capaciteiten van dit soort modellen risico’s met zich meebrengen. In dezelfde toelichting stelt het bedrijf dat technologie die kwetsbaarheden kan vinden en uitbuiten ook misbruikt kan worden als die in verkeerde handen valt. Dat is een belangrijke reden om de uitrol te beperken en eerst samen te werken met een kleine groep partners. Tegelijk suggereert het bedrijf dat deze ontwikkeling moeilijk te stoppen is, omdat de onderliggende vooruitgang voortkomt uit algemene verbeteringen in AI-modellen.
De timing is opvallend, aangezien Anthropic recent zelf met beveiligingsproblemen te maken had. Door een fout in een software-release werden duizenden broncodebestanden tijdelijk blootgesteld, waarna een poging om dit te herstellen leidde tot het offline halen van GitHub-repositories. Dat onderstreept dat ook partijen die geavanceerde securitytools ontwikkelen niet immuun zijn voor operationele fouten.










English (US) ·