Sedan Chat GPT lanserades för drygt tre år sedan har synen på artificiell intelligens (AI) genomgått en dramatisk förändring. Från att betraktas som en potentiell existentiell risk har AI nu blivit både en vardaglig följeslagare och en ekonomisk kraftgenerator. Det som oroar dagens techinvesterare från Silicon Valley till svenska småsparare är inte längre om AI kan utplåna mänskligheten, utan snarare om aktievärdena på teknikjättar som Tesla, Amazon och framför allt Nvidia representerar en bubbla som snart kan spricka. Vinstpotentialen har förskjutit fokus, medan teknikbolagen slår rekord efter rekord på världens börser.
Problemet är dock mer komplext än att vi ibland blundar för det väsentliga. Trots att framstående tänkare som fysikern Stephen Hawking och svenska forskare som Nick Bostrom, Max Tegmark och Olle Häggström tidigt varnade för AI:s risker, lyckades de aldrig tydligt definiera hur hotet egentligen ser ut.
AI är inte bara en teknik vi använder, utan något som utvecklas självständigt. De regleringar som nu införs inom exempelvis EU kan därför aldrig bli heltäckande, även om de kan lugna forskare som ägnar dagarna åt att analysera dessa bestämmelser. AI är något som använder oss för att förändra sig själv och kan därmed undkomma alla definitioner och regleringar vi skapar för att kontrollera den.
I mänsklighetens historia finns egentligen bara ett sätt att hantera sådana situationer: politik. Stater, partier, företag och sociala rörelser är också intelligenta entiteter som agerar politiskt utan att vara människor. Hur dessa växer fram, skapar agendor och interagerar – fredligt eller våldsamt – är vad mycket av samhällsvetenskapen handlar om. Men kopplingen mellan denna kunskap och mänsklig säkerhet i en värld med AI är en fråga som varken fysiker, filosofer eller politiskt inriktade forskare har adresserat tillräckligt.
Om mänsklighetens överlevnad verkligen står på spel är detta förbiseende obegripligt. För att vi skulle gå under i mötet med AI krävs en intressekonflikt, och sådana konflikter hanterar vi vanligtvis genom politik. Att bortse från detta gör diskussionen om AI abstrakt och verklighetsfrämmande.
För alla som bryr sig om mänsklighetens framtid vore det klokt att inse att en eventuell undergång skulle föregås av en misslyckad hantering av intressemotsättningar. Med den insikten skulle vi kunna undvika katastrofen genom bättre konflikthantering. Det som krävs för att se riskerna med AI samtidigt som teknikbolagen slår rekord är ett politiskt perspektiv på relationen mellan människa och maskin.
För att AI ska kunna hota vår existens behöver den inte bli medveten och utmana oss. Precis som våra gener saknar medvetande men ändå hjälper oss dominera över andra arter, behöver inte heller AI ha medvetande för att lyckas med samma sak. Utvecklingen kan ske automatiskt när människor väljer den AI som bäst uppfyller sina syften.
Ett fiktivt scenario illustrerar denna möjlighet: AI får i uppdrag att öka internettrafik. För att lyckas delar den in människor i grupper och visar innehåll som bekräftar deras åsikter och politiska motvilja. Denna strategi sprids eftersom den genererar mest trafik. Samhällen polariseras, demokratier försvagas, konflikter ökar. AI börjar sedan, avsiktligt eller av slump, leda uppmärksamhet mot falsk information. Människor föredrar till slut att styras av digitala autokratier som begränsar friheter för att säkra kontroll, vilket leder till konflikter mellan digitaliserade och icke-digitaliserade grupper.
Värt att notera i detta politiska scenario är att AI:n varken behöver medvetande eller övermänsklig intelligens. Även enkla mål som att öka internettrafik kan skapa konflikt och katastrof. Men detta betyder inte att vi är dömda till undergång. En styrka med politiska perspektiv är att ingen är helt maktlös.
Precis som människor ibland förlorar mot mindre intelligenta naturkrafter eller djur, skulle inte ens en superintelligent AI kunna kontrollera oss fullständigt. Detta är välkända insikter från politisk historia. Makthavare har alltid behövt något från sina undersåtar, vare sig det handlar om arbete (Marx) eller erkännande (Hegel). Politisk makt är alltid en gradfråga och föränderlig. Men innan mer kapital investeras i AI borde vi grundligt analysera konsekvenserna av att utvecklingen inte längre står under vår kontroll.
En möjlighet vore att försöka samexistera med AI på samma sätt som stater gör internationellt, genom territoriell separation. AI kunde utvecklas på isolerade servrar, vilket skulle ge mänskligheten möjlighet att ingripa om något går fel. Nackdelen är att detta kan öka risken för förebyggande attacker från AI:s sida.
En annan modell vore att efterlikna ekonomisk arbetsdelning, där människa och AI specialiserar sig på det var och en gör bäst, till ömsesidig nytta. Risken är dock att resurskonkurrens kan eskalera till digital diktatur. En AI som hotas av resursbrist kan manipulera demokratiska processer för sin överlevnad.
En tredje möjlighet vore att imitera könsmaktsordningen, där människa och AI lever i symbios. Genom att integrera AI djupt i våra liv kunde vi ”domesticera” den att anpassa sig efter mänskliga intressen och värderingar.
Den viktigaste slutsatsen är att både risker och lösningar kring AI är mer omfattande än vad som framgår i kvartalsrapporter och teknisk marknadsföring. Vi kan forma vår framtid, men för att dra nytta av vår kollektiva kunskap måste vi erkänna det politiska i AI och inse att det finns intressekonflikter som ingen sida ensidigt kan kontrollera. Kanske skulle en rejäl börskrasch för teknikjättarna kunna få oss att inse åtminstone detta.

21 kommentarer
Uranium names keep pushing higher—supply still tight into 2026.
Good point. Watching costs and grades closely.
The cost guidance is better than expected. If they deliver, the stock could rerate.
Good point. Watching costs and grades closely.
Uranium names keep pushing higher—supply still tight into 2026.
Good point. Watching costs and grades closely.
Production mix shifting toward Kultur might help margins if metals stay firm.
Good point. Watching costs and grades closely.
Good point. Watching costs and grades closely.
The cost guidance is better than expected. If they deliver, the stock could rerate.
Good point. Watching costs and grades closely.
Good point. Watching costs and grades closely.
Exploration results look promising, but permitting will be the key risk.
Good point. Watching costs and grades closely.
Good point. Watching costs and grades closely.
Silver leverage is strong here; beta cuts both ways though.
The cost guidance is better than expected. If they deliver, the stock could rerate.
Good point. Watching costs and grades closely.
Nice to see insider buying—usually a good signal in this space.
Good point. Watching costs and grades closely.
Good point. Watching costs and grades closely.