Anthropic verbiedt gebruik van zijn AI in autonome wapens. Het Pentagon dreigt met zware maatregelen om daartoe te dwingen

6 uren geleden 1

Het is een harde, en heel principiële confrontatie. Schijnbaar onverzoenlijk staan ze al weken tegenover elkaar: het Amerikaanse ministerie van Defensie aan de ene kant en aan de andere kant Anthropic, een van de meest innovatieve bedrijven in kunstmatige intelligentie en belangrijk strategisch leverancier van het Pentagon.

Het is een beslissend moment voor de AI-industrie, schreef The Wall Street Journal onlangs. Maar ook voor het Pentagon staat er in deze krachtmeting veel op het spel – en in het algemeen voor oorlog en vrede in de wereld. Centraal staat de vraag of Amerikaanse AI-bedrijven een bepaald gebruik van hun producten kunnen verbieden als ze vinden dat dit – gezien de stand van de techniek – onverantwoord en zelfs gevaarlijk zou zijn.

Anthropic wil niet dat het Amerikaanse leger zijn AI-model Claude gebruikt voor massasurveillance van de Amerikaanse bevolking, zomin als voor de inzet van autonome wapens die kunnen doden zonder menselijke tussenkomst. Dat staat in de gebruiksvoorwaarden bij het contract ter waarde van 200 miljoen dollar dat het bedrijf afgelopen zomer met het Pentagon sloot.

Anthropic is in 2021 juist opgericht om veiligheid voorop te stellen bij de ontwikkeling van AI. Bij andere AI-bedrijven zoals OpenAI, waar Anthropic-ceo Dario Amodei aanvankelijk werkte, zou het economische belang te vaak het veiligheidsbelang verdringen.

De regering van Donald Trump wil af van de beperkende voorwaarden die voor Anthropic zo belangrijk zijn. Na een hard gesprek met Amodei stelde minister van Defensie Pete Hegseth Anthropic dinsdag een ultimatum: als het AI-bedrijf de beperkende voorwaarden niet laat vallen vóór vrijdagmiddag één minuut over vijf in Washington (één over elf uur ’s avonds in Nederland), volgen uitzonderlijke zware strafmaatregelen, die het bedrijf fataal kunnen worden.

Net als andere AI-bedrijven zou Anthropic genoegen moeten nemen met de afspraak dat zijn producten door het Pentagon voor alles kan worden gebruikt wat niet in strijd is met de wet. Verder is het aan het ministerie, vindt Hegseth, om te bepalen wat het doet met de systemen die het koopt.

Bezoek aan Elon Musk

Tijdens een bezoek aan Elon Musk, wiens bedrijf xAI een concurrent is van Anthropic, loste de minister al een schot voor de boeg: „Het Pentagon zal geen AI-modellen gebruiken die militairen beletten om oorlogen te voeren.”

Maar Anthropic schuwt militair werk allerminst. Het heeft met succes meegedongen naar diverse opdrachten. Claude wordt intensief gebruikt binnen met ministerie van Oorlog, zoals het departement van Defensie zichzelf onder Hegseth noemt (het Congres is met de naamverandering nog niet akkoord gegaan). Als enige AI-model voldoet Claude aan de strikte eisen voor gebruik in geheime operaties, en het wordt daarvoor ook al ingezet. Bij de ontvoering van de Venezolaanse president Maduro speelde Claude bijvoorbeeld een belangrijke rol.

Geleidelijk heeft Anthropic zijn gebruiksregels afgelopen maanden al wel versoepeld. Zo mag het Pentagon Claude nu gebruiken voor de ontwíkkeling van dodelijke autonome wapens, alleen niet voor de inzet ervan.

Militairen die bevelen in de wind slaan

Topman Amodei legde eerder in een podcast met columnist Ross Douthat van The New York Times uit waar hij vooral bang voor is. „De Grondwet biedt bepaalde bescherming, maar of die ook wordt nageleefd, hangt in onze krijgsmacht af van het idee dat er mensen zijn die – hopelijk – bereid zijn illegale bevelen in de wind te slaan. Bij volledig autonome wapens kunnen we daar niet meer op terugvallen.”

Over massasurveillance zei hij dat dit weliswaar niet in strijd is met de wet en dat je op straat ook geen recht op privacy hebt. Maar met de vele camera’s in de publieke ruimte en de mogelijkheid vrijwel ieder gesprek op te nemen, kan een overheid al dat soort informatie met behulp van AI „met elkaar verbinden en analyseren. En dan kan ze zeggen: deze persoon hoort bij de oppositie. En dat kan ze dan in kaart brengen voor honderd miljoen mensen.”

Voor het Pentagon is het onverteerbaar dat een particulier bedrijf zou beslissen welke middelen op wat voor manier militair ingezet mogen worden. Beperkingen daarvan zouden van het Congres of de regering moeten komen, vinden Hegseth en de militairen, niet van het bedrijfsleven.

De harde dreigementen waarmee Hegseth probeert Anthropic overstag te laten gaan, zijn voor het Pentagon niet zonder risico. Draait Amodei niet bij, zei Hegseth dinsdag, dan kan dat het bedrijf het contract van 200 miljoen dollar kosten. Dat zou een zware, maar geen fatale tegenvaller zijn voor Anthropic. Voor het Pentagon is het óók problematisch, want het verliest dan zijn belangrijkste en meest geavanceerde leverancier van kunstmatige intelligentie.

Gouden kans voor concurrenten

Hegseth hield Amodei voor dat hij diens bedrijf ook kan bestempelen als „risico in de toeleveringsketen”. Dat betekent dat alle bedrijven die zaken doen met het Pentagon, voortaan moeten aantonen dat ze daarbij geen gebruik maken van diensten van Anthropic. Zo’n maatregel wordt doorgaans gebruikt tegen buitenlandse bedrijven uit vijandige landen, die bijvoorbeeld verdacht worden van spionage. Voor Anthropic zou het dan wél een mogelijk fataal verlies van omzet betekenen – en voor zijn concurrentie een gouden kans.

Als derde mogelijke strafmaatregel kan het Pentagon een heel andere richting inslaan, maakte Hegseth duidelijk: door Anthropic niet te verdoemen maar juist aan zich binden en tot gehoorzame samenwerking te verplichten op basis van een wet uit de Koude Oorlog.

Vooral die laatste twee maatregelen van het Pentagon tegen Anthropic kunnen innovatieve projecten van AI-bedrijven ontmoedigen. Dat vrezen zelfs experts die Hegseths mening delen dat de militairen AI-modellen moeten kunnen gebruiken zoals ze willen.

Lees het hele artikel