Oddsen för mänskligheten
Kärnvapen? Biologisk krigsföring? Dinosauriernas återkomst? Åtminstone de två första anses vara ytterst allvarliga hot mot mänsklighetens överlevnad. I höst ska en internationell grupp forskare vid Chalmers och Göteborgs universitet undersöka vilka andra hot vi står inför samt hur vi ska överleva dem.
Den alltmer upptrappade stämningen mellan främst Nordkorea och USA hintar om att ett kärnvapenkrig kanske inte är så långt ifrån en realitet som man gärna vill tro.
Det finns dock andra, mindre kända och mindre uttalade hot mot mänskligheten som på sikt utgör ett lika stort hot mot vår arts överlevnad som kärnvapen gör. Vilka dessa är och hur vi kan skydda oss mot dem är något som Olle Häggström, till vardags professor i matematisk statistik på Chalmers, anser är ytterst viktigt att kartlägga.
Det är också anledningen till att han anordnar forskningsprogrammet Existential risk to humanity som äger rum i september och oktober på Chalmers och Göteborgs universitet. Exakt vad de ska prata om är dock inte hugget i sten.
– Om man kan tala om i förväg exakt vad som ska hända så är det ingen riktig forskning, säger Olle Häggström.
Han kan dock avslöja vad han anser vara de främsta hoten mot mänskligheten just nu:
Kärnvapen. Hotet från kärnvapen är enligt Olle Häggstöm helt i särklass just nu. Det har funnits med oss sedan 1945, men har under tiden varierat i sin hotbild. I och med att USA fick en ny president i Donald Trump ökade risken för ett nytt kärnvapenkrig väsentligt, menar han. Bioteknologisk krigsföring. Tittar vi ett tiotal år framåt i tiden överskuggas vi av ytterligare ett hot, nämligen artificiella virus och bakterier. Artificiell intelligens. På ännu lite längre sikt finns risken med intelligenta robotar som bygger ännu mer intelligenta robotar. Anders Sandberg, forskare vid Future of the Humanity Institute vid universitetet i Oxford håller med om Olle Häggströms topp tre, men lägger till ytterligare två hot: Globala systemhot. Många av hoten är långsamma, vilket innebär att det finns en risk att vi skjuter upp dem till kommande generationer. Detta gäller främst det som Anders Sandberg kallar ”osexiga existensiella risker”, till exempel överbefolkning och pandemier. Svarta hål. För några år sedan var det en debatt om att partikelacceleratorn i Schweiz eventuellt skulle kunna producera svarta hål som till slut skulle leda till att hela jorden kollapsar. Fysikerna bekräftade att detta skulle kunna hända rent teoretiskt, men konstaterade också att jorden har träffats av mer kosmiska stålar än vad partikelacceleratorn skulle kunna uppbåda.Hoten mot mänskligheten – topp 5
– USA valde en person som inte alls är lämpad att sitta på den positionen, vilket har gjort kärnvapen till ett ytterst aktuellt hot, säger Olle Häggström.
– Det är en teknologi som är svår att hindra spridningen av. Kärnvapen är fortfarande, 70 år efter att de utvecklades, ett tiotal staters exklusiva egendom, men kunskapsspridningen är mycket större med biologiska vapen. Om de hamnar i händerna på exempelvis en terroristgrupp är vi i en farlig situation.
– När människan inte längre är den mest intelligenta varelsen på jorden, kommer vi då att kunna behålla kontrollen? Om den artificiella intelligensens drivkrafter inte står i väldigt bra samklang vad gäller mänskliga värderingar kan det lätt gå väldigt illa, säger Olle Häggström.
– I många fall är det inte självklart vilka riskerna är, vilket gör dem svåra att behandla. Vi vet till exempel ganska väl vad vi kan göra om vi hotas av en asteroid eller en supervulkan, men dessa hot är egentligen ganska osannolika. Däremot har vi inte lika bra skydd mot exempelvis pandemier, vilket ebolautbrottet visade.
– Det är dock viktigt att vi gör ny forskning så att vi vet att det är säkert. Problemet är hur man ska kunna förklara detta för allmänheten, säger Anders Sandberg.
– Mänsklighetens överlevnad är ett underutforskat område och det behövs mer kunskap om det än vad vi har i dag. Vi vill säkerställa en lång och blomstrande framtid för mänskligheten och därför behöver vi ta reda på de största riskerna mot den och vad vi kan göra för att undvika dem, säger Olle Häggström.
Anders Sandberg på Future of the Humanity Institute vid universitetet i Oxford är vetenskaplig ledare för forskningsprogrammet som i höst ska identifiera hoten mot mänskligheten. Han är inne på samma spår som Olle Häggström.
– Visst kommer vi att sammanfatta de mest intressanta sakerna, men det här är ju riktig forskning och vi vet inte ännu hur man ska hantera dessa frågor. Förhoppningsvis får vi nya uppslag att arbeta med och att det stimulerar till mer forskning i USA, England och framförallt Sverige.
Sammanlagt ett 20-tal forskare från olika länder deltar och forskningsprogrammet innebär framförallt en möjlighet för forskare inom olika discipliner att sitta ner och prata med varandra.
Mänskligt skapade hot
– Vi drunknar i mänskligt skapade hot. Därför får vi skjuta lite på de icke akuta hoten från asteroider och supervulkaner för när det gäller att skydda oss från existensiella hot gäller det främst från våra egna teknologier, säger Olle Häggström.
Att de allra mest akuta hoten mot mänskligheten är skapade av oss själva kan nog få vissa att ifrågasätta syftet att rädda en sådan självmordsbenägen art. Att göra ingenting och låta mänskligheten utrota sig själv tycker dock Olle Häggström inte är en rimlig lösning.
– Inte mycket är vunnet på att sitta och oroa sig över att människor är korkade. Hoten har och göra med att vi inte koordinerar våra handlingar på rätt sätt, vilket gör att det uppstår teknologiska kapplöpningar. Det viktiga är hur man organiserar ett samhälle som faktiskt kan hantera den här sortens problem.
Han får medhåll av Anders Sandberg.
– Bara för att något är naturligt betyder det inte att det är rätt och det faktum att en art dör ut betyder inte att det är bra att den gör det. Men vi måste tänka igenom vad vi vill med universum och där finns det fantastiskt mycket att utforska.
Text: Izabella Rosengren på uppdrag av Forskning.se