USA:s militär och AI-teknologi: En komplicerad relation

När bomberna föll över Venezuelas huvudstad natten mot den 3 januari var det delvis planerat med hjälp av artificiell intelligens. Enligt Wall Street Journals källor använde USA:s militär AI-modellen Claude, utvecklad av företaget Anthropic, för att analysera underrättelseinformation, identifiera militära mål och simulera strider.

Detta kunde ha blivit en framgång för Anthropic, som redan förra året tecknade ett avtal med Pentagon värt upp till 200 miljoner dollar för leverans av AI-modeller. Fler lukrativa kontrakt väntade potentiellt det företag vars teknik bidrog till spektakulära operationer som tillfångatagandet av Venezuelas president Nicolás Maduro.

Anthropic är en av de snabbväxande aktörerna inom AI-området med en värdering på imponerande 380 miljarder dollar, men har ändå befunnit sig något i skuggan av konkurrenten Open AI och dess Chat GPT.

Men relationen mellan Anthropic och USA:s försvarsdepartement skulle snart ta en dramatisk vändning. I ett möte med USA:s försvarsminister Pete Hegseth i slutet av februari uttryckte Anthropics vd Dario Amodei sin oro kring riskerna med AI-kontrollerade vapensystem. Han meddelade att företagets regler måste respekteras: deras AI-modeller fick inte användas för massövervakning av amerikanska medborgare eller för att kontrollera autonoma vapensystem – system där AI fattar beslut om våldshandlingar.

Anthropic var alltså inte villiga att ge Pentagon fria händer att använda Claude i krigföring.

Försvarsminister Hegseth reagerade med ilska. Att ett teknikföretag från Silicon Valley skulle sätta sina egna moraliska ståndpunkter framför den amerikanska militärens behov ansågs oacceptabelt. ”Amerikas krigsmakt kommer aldrig att hållas gisslan av Big Techs ideologiska nycker,” förklarade han upprört.

Även president Donald Trump uttryckte sitt missnöje: ”Vänstergalningarna på Anthropic har begått ett katastrofalt misstag genom att försöka tvinga krigsdepartementet med hårda metoder och få dem att lyda deras användarvillkor i stället för vår konstitution,” skrev han på sin sociala plattform Truth Social.

Reaktionen blev drastisk. Anthropic svartlistades och klassades som en säkerhetsrisk för det amerikanska försvarsdepartementet – ett beslut utan tidigare motstycke för ett amerikanskt bolag. Denna typ av svartlistning brukar vanligtvis reserveras för utländska leverantörer med misstänkta kopplingar till främmande makter.

Anthropic valde att stå på sig. Tidigare denna vecka stämde företaget försvarsdepartementet för beslutet, som beskrevs som ”utan motstycke och olagligt”. I stämningsansökan hävdar Anthropic att svartlistningen orsakat allvarlig skada för företaget.

Samtidigt har konflikten gett Anthropic en viss hjältestatus bland kritiker av Trumpadministrationens krigföring och bland dem som uttrycker oro för AI-styrda vapensystem. Frågan om artificiell intelligens som tar kontroll över vapensystem är inte bara ett science fiction-scenario utan en seriös utmaning inom reglering av AI-teknologi.

I kontrast till Anthropics ställningstagande står Open AI, ett företag som ursprungligen grundades som ett ideellt forskningslaboratorium med fokus på säker och ansvarsfull AI-utveckling. Sedan dess har Open AI tagit emot miljardinvesteringar från Microsoft, omstrukturerat sig i en mer vinstdriven riktning och blivit en ledande aktör i den globala AI-utvecklingen.

När Anthropic hamnade i onåd hos Trumpadministrationen var Open AI snabbt framme för att fylla tomrummet. Ett nytt avtal med försvarsdepartementet – som Open AI, i enlighet med Trumps preferens, valt att kalla krigsdepartementet – gör Chat GPT-utvecklaren till Pentagons nya leverantör av AI-modeller.

Enligt Open AI innehåller avtalet begränsningar liknande de som Anthropic krävde, men vd Sam Altman har även meddelat sina anställda att företaget inte kommer att kunna kontrollera hur deras teknologi används i slutändan.

Varför Open AI, men inte Anthropic, skulle ha fått igenom liknande krav är fortfarande oklart.

Sam Altmans beslut att ingå avtal med Pentagon har inte varit okontroversiellt. Caitlin Kalinowski, en högt uppsatt chef inom Open AI, avgick i protest. Kampanjen ”QuitGPT” startades för att uppmuntra användare att lämna Chat GPT till förmån för andra alternativ. Under en period rapporterades Claude till och med vara mer nedladdad än Chat GPT enligt appbutikernas topplistor.

Trots svartlistningen av Anthropic tyder mycket på att Pentagon fortsatt använda Claude-teknologin. Enligt Wall Street Journal användes den redan timmarna efter svartlistningen för att planera attacken mot Iran.

Att två stora militära operationer under Trumps andra mandatperiod har understötts av AI-teknologi visar tydligt hur djupt Pentagon har integrerat artificiell intelligens i sin verksamhet. Det illustrerar också den svåra balansgång som AI-företag står inför när de både vill profilera sig som etiska aktörer och samtidigt leverera teknologi till militären med potentiellt lukrativa kontrakt.

Dela.

17 kommentarer

  1. Noah Jackson on

    Interesting update on Linus Larsson: AI-bolaget sade nej till ”mördarrobotar” – blev Trumps hatobjekt. Curious how the grades will trend next quarter.

Leave A Reply

Exit mobile version