Svenska techbolag och artificiell intelligens – ett växande hot mot samhället
I kölvattnet av Christopher Nolans hyllade film om Robert Oppenheimer aktualiseras frågor om vetenskapens etiska gränser och maktkoncentration kring modern teknologi. Oppenheimer, som ledde utvecklingen av atombomben, argumenterade för att USA – inte Nazityskland – skulle vara först med att skapa denna förödande teknologi. Hans ord ”Jag vet inte om vi kan anförtros med ett sådant vapen. Men jag vet att nazisterna inte kan det” ekar genom historien och speglar dagens dilemma kring artificiell intelligens.
Sam Altman, vd för Open AI, har använt en liknande retorik. Han varnade tidigt för att AI kan utgöra ett existentiellt hot mot mänskligheten, samtidigt som han drivit utvecklingen framåt med argumentet att det är bättre att han och hans företag kontrollerar denna teknologi än andra aktörer.
Open AI startades ursprungligen som en icke-vinstdrivande organisation med det uttalade syftet att utveckla teknologi för ”mänsklighetens bästa”. Idag har företaget omvandlats till en vinstdriven verksamhet där tidigare säkerhetshänsyn har tonats ned. Enligt en omfattande granskning i The New Yorker, baserad på hundratals intervjuer, framställs Altman som en opålitlig ledare med makthunger och bristande skrupler.
Den artificiella intelligensens risker är inte längre teoretiska spekulationer utan påtaglig verklighet. Amerikanska militären samarbetar med techföretag för att utveckla övervaknings- och vapensystem. Svenska polisen har ingått avtal med Palantir, ett företag grundat av den kontroversiella investeraren Peter Thiel, känd för sina demokratiskeptiska åsikter. Nyligen tillkännagav AI-företaget Anthropic att de skapat en robot som kan identifiera sårbarheter och hacka sig in i de flesta datorsystem världen över – en teknologi som i fel händer utgör ett allvarligt hot mot finansiella institutioner, stater och enskilda medborgare.
I diskussioner med amerikanska politiker har Altman hävdat att Kina driver ett ”Manhattan-projekt” inom AI, och att amerikanska techföretag måste ligga i framkant för att inte bli omsprungna av kinesiska konkurrenter. Detta narrativ används strategiskt för att motverka reglering av branschen, medan frågor om barns utveckling, integritet och rättssäkerhet hamnar i skymundan.
Till skillnad från atombomben, som utvecklades under statlig kontroll, befinner sig dagens AI-teknologi i händerna på privata aktörer med begränsad demokratisk insyn och ansvarsskyldighet. Vi står mitt i en kapprustning mellan maktfullkomliga techmiljardärer och auktoritära stater som Kina, där båda parter driver utvecklingen i en allt snabbare takt.
Den oroväckande parallellen mellan Oppenheimer och dagens techledare slutar emellertid där. Efter att ha bevittnat atombombernas förödande kraft i Hiroshima och Nagasaki ägnade Oppenheimer resten av sitt liv åt att förespråka internationell reglering av kärnvapen. Sam Altman och andra techmagnater verkar däremot aktivt motarbeta meningsfulla regleringar av den teknologi de utvecklar.
Den fundamentala frågan kvarstår: Kan vi anförtro dessa kraftfulla verktyg till privata företag utan transparent styrning och tydlig ansvarsskyldighet? AI-teknologin representerar en ny sorts ”supervapen” vars potentiella konsekvenser sträcker sig bortom vad vi idag kan förutse.
När artificiell intelligens utvecklas i en kommersiell miljö där vinst prioriteras över säkerhet, där techbolagen aktivt försöker undvika reglering, och där internationell samordning kring etiska riktlinjer saknas, skapas en farlig miljö där samhällets skyddsnät riskerar att undermineras.
Den pågående kapprustningen inom AI-sektorn påminner om kalla krigets kärnvapenkapplöpning, men med den avgörande skillnaden att dagens teknologiutveckling till stor del sker utanför demokratisk kontroll. I denna nya verklighet behöver vi ställa kritiska frågor om vem som egentligen kontrollerar framtidens mest kraftfulla teknologier – och i vems intressen de kommer att användas.














19 kommentarer
Exploration results look promising, but permitting will be the key risk.
Good point. Watching costs and grades closely.
Exploration results look promising, but permitting will be the key risk.
Production mix shifting toward Ledare might help margins if metals stay firm.
Good point. Watching costs and grades closely.
Good point. Watching costs and grades closely.
Uranium names keep pushing higher—supply still tight into 2026.
Good point. Watching costs and grades closely.
I like the balance sheet here—less leverage than peers.
If AISC keeps dropping, this becomes investable for me.
Good point. Watching costs and grades closely.
If AISC keeps dropping, this becomes investable for me.
The cost guidance is better than expected. If they deliver, the stock could rerate.
Good point. Watching costs and grades closely.
Good point. Watching costs and grades closely.
The cost guidance is better than expected. If they deliver, the stock could rerate.
Good point. Watching costs and grades closely.
Good point. Watching costs and grades closely.
Uranium names keep pushing higher—supply still tight into 2026.