• No results found

Diskussionen om artificiell intelligens

Artificiell intelligens är redan idag en mycket kraftfull teknik, med många tillämpningar där den mänskliga intellektuella kapaciteten överträffas. Men ändå så finns det mycket som talar för att vi bara är i början av denna utveckling och att konsekvenserna på ekonomi och samhälle sannolikt kommer att eskalera i takt med att den artificiella intelligensen blir allt mer kraftfull. Därför pågår det idag en mycket intensiv akademisk debatt kring AIs konsekvenser på samhället, där utvecklingen analyseras ur exempelvis filosofiska, juridiska eller ekonomiska perspektiv.

6.1 The Future of Lifes upprop

Ett inlägg i debatten är exempelvis organisationen the Future of Life Institutes upprop för säkrare utveckling av artificiell intelligens (Future of life, 2016). Detta upprop har undertecknats av många namnkunniga AI-forskare och IT-entreprenörer, exempelvis Stuart Russell (Berkeley University), Francesca Rossi (Harvard), Nick Bostrom (Oxford University), Demis Hassabis (DeepMind), Ben Goertzel (OpenCog), Eric Horvitz (Microsoft), Peter Norvig (Google), Elon Musk (SpaceX & Tesla), Yann

30 LeCun (Facebook), Steve Wozniak (Apple), Erik Brynjolfsson (MIT), Stephen Hawking (Cambridge) och många många fler (Future of life, 2016).

I det tillhörande dokumentet till uppropet ”Research Priorities for Robust and Beneficial Artificial Intelligence” tar Stuart Russell, Daniel Dewey och Max Tegmark (2015) upp ett flertal aspekter av utvecklingen inom artificiell intelligens; exempelvis AIs påverkan på de ekonomiska systemen, AI ur ett filosofiskt och etiskt perspektiv, datasäkerhetmässiga aspekter av utvecklingen av artificiell intelligens och mer långsiktiga frågeställningar relaterade till den dag som artificiell intelligens kapacitet överstiger den mänskliga hjärnan. Syftet med uppropet är enligt initiativtagarna inte att hindra utvecklingen av artificiell intelligens utan en uppmaning till säker och ansvarstagande utveckling av tekniken (Russell, Dewey, Tegmark, 2016):

In summary, success in the quest for artificial intelligence has the potential to bring unprecedented benefits to humanity, and it is therefore worthwhile to research how to maximize these benefits while avoiding potential pitfalls. The research agenda outlined in this paper, and the concerns that motivate it, have been called ‘‘anti-AI”, but we vigorously contest this characterization. It seems self-evident that the growing capabilities of AI are leading to an increased potential for impact on human society. It is the duty of AI researchers to ensure that the future impact is beneficial.

We believe that this is possible, and hope that this research agenda provides a helpful step in the right direction.

6.2 ITIF: Farorna med artificiell intelligens är överdrivna

Men det finns även de som menar att varningarna för artificiell intelligens är kraftigt överdrivna. Exempelvis utnämndes Future of Life Institutes upprop till årets

”Luddite”, med hänvisning till de som under det tidiga 1800-talet försökte motarbeta den industriella utvecklingen inom textilindustrin genom att slå sönder vävstolar, av den amerikanska tankesmedjan och lobbyorganisationen Information Technology &

Innovation Foundation (ITIF, 2016a).

Enligt ITIF är de farhågor och varningar som Future of Life Institute väcker i sitt upprop kraftigt överdrivna, både när det gäller utvecklingen generellt inom artificiell intelligens och när det gäller automatiserade vapensystem med artificiell intelligens.

När det gäller frågorna kring artificiell generell intelligens argumenterar ITIF särskilt mot Nick Bostroms tankar, och skriver (Atkinson, 2015):

In his book Superintelligence: Paths, Dangers, Strategies, Oxford professor Nick Bostrom reflected the general fear that “superintelligence” in machines could outperform “the best human minds in every field, including scientific creativity, general wisdom and social skills.” He argues that artificial intelligence will advance to a point where its goals are no longer compatible with that of humans and, as a result, superintelligent machines will seek to enslave or exterminate us.

[…]

Raising such sci-fi doomsday scenarios just makes it harder for the public, policymakers, and scientists to support more funding for AI research. Indeed, continuing the negative campaign against artificial intelligence could potentially dry up funding for AI research, other than money for how to control, rather than enable AI. What legislator wants to be known as “the godfather of the technology that destroyed the human race”? (On the other hand, if we are all dead, then one’s reputation is the last of one’s worries.)

Budskapet från ITIF tycks med andra ord vara att den kritiska debatten kring artificiell intelligens är mycket skadlig eftersom den hotar forskningsanslagen och riskerar att öka lagkraven kring artificiell intelligens. Istället menar ITIF att artificiell intelligens är en teknik med mycket stor potential och som bara är i början av sin utveckling, bara vi inte låter oss hindras av en paranoid rädsla.

ITIF har även mycket starka åsikter om debatten om att förbjuda autonoma vapensystem (Atkinson, 2015):

31 As part of the paranoia over artificial intelligence, efforts to establish a global ban on offensive autonomous weapons—also known as “killer robots”—have intensified.

[…]

But that overlooks the fact that the military clearly will benefit, because substituting robots for soldiers on the battlefield will increase a military’s capabilities while substantially decreasing the risk to its personnel. Furthermore, it is possible that autonomous weapons could be programmed to engage only known enemy combatants, which may even lead to a reduction in civilian casualties.

Moreover, military research and investment has long been a key catalyst to developing and commercializing new technologies with important commercial uses, and robotics will likely prove no different.

[…]

Unfortunately, the efforts to ban autonomous weapons could very well reduce funding and support for robotics research that would have significant positive spillovers for other kinds of robotics use that would in turn increase economic productivity and quality of life over the next half-century. With autonomous robots, factories will be able to increase productivity and better compete with low-cost competitors, mines will be able to improve safety, and hospitals will be able to provide better care to patients. Substituting robots for human workers will lead to higher productivity, lower costs, higher wages, more capabilities, and more service availability, all without reducing the total number of jobs as demand expands across the economy in response to increasing supply.

Indeed, robotics could very well be the most important technology of the 21st century. As such, the battle to ban autonomous weapons, much like the fight over artificial intelligence, works against the societal goal of building innovations that will improve human lives. Rather than allowing those predicting doom and gloom to dominate the debate, policymakers should encourage military investment in autonomous robots, not only to improve national defense, but also to accelerate the development of autonomous robots for other sectors.

ITIF argumenterar med andra ord för att autonoma vapensystem bör tillåtas eftersom de stärker militären och minskar risken för soldaterna. Enligt ITIF kan autonoma vapensystem potentiellt också programmeras för att endast bekämpa fiender och inte civilbefolkningen. Vidare menar ITIF att forskningen inom autonoma vapensystem är viktig eftersom framsteg i militär utveckling ofta leder till tekniker som även har civilt värde.

6.3 Analys av diskussionen

Med tanke på det höga tonläget i inlägget från Information Technology & Innovation Foundation är det lätt att få intrycket att parterna i debatten står mycket långt ifrån varandra, men jag menar att de i grund och botten sannolikt har ganska mycket gemensamt. Exempelvis ger båda inläggen uttryck för att artificiell intelligens är en mycket kraftfull teknik, till skillnad från de som menar att artificiell intelligens är en teknik som alla andra.

Båda sidor är också eniga om att tekniken har mycket stor potential att påverka i stort sett alla dimensioner av det mänskliga samhället, till skillnad från de som vill tona ner betydelsen av artificiell intelligens. Båda sidor är även eniga om att ekonomin och sysselsättningen kan påverkas genom att arbetsuppgifter som tidigare utförts av människor i stället utförs effektivare av artificiell intelligens och robotar, och att säkerhetspolitiken kan påverkas genom att även militären blir effektivare samtidigt som färre soldaters liv riskeras.

Samtidigt kommer ITIF och The Future of Life Institute till helt olika slutsatser, där de förstnämnda vill utveckla artificiell intelligens så snart som möjligt och tycks utgå från att konsekvenserna av artificiell intelligens ofrånkomligt uteslutande kommer att vara positiva, i alla fall för dem. Enligt ITIF kommer en ökad användning

32 av artificiell intelligens inom näringslivet medföra effektivare produktion, billigare produkter, högre löner och högre välstånd samtidigt som mängden arbetstillfällen ökar som svar på den högre tillgången. För mig framstår detta som en mycket egen tillämpning av de nationalekonomiska begreppen tillgång och utbud där visserligen ett ökat utbud i sig leder till större volym, men vid en lägre prispunkt dvs i detta fall lägre löner (Eklund, 1995, s.60). Dessutom bortser ITIF från den tröghet som finns i det ekonomiska systemet, att det tar ofta tid för människor som förlorat sitt arbete i samband med exempelvis en nedläggning att ställa om och hitta ett nytt, samt att effekterna av ett inkomsttapp kan bli mycket långvariga (Furman et al., 2016, s.12):

Perhaps more significantly, over time, displaced workers’ earnings recover only slowly and incompletely. Even ten or more years later, the earnings of these workers remain depressed by 10 percent or more relative to their previous wages. These results suggest that for many displaced workers there appears to be a deterioration in their ability either to match their current skills to, or retrain for, new, in-demand jobs. AI-driven automation can act—and in some cases has already acted—as a shock to local labor markets that can initiate long-standing disruptions.

Vidare tycks ITIF mena att autonoma vapensystem uteslutande är positivt, dels eftersom detta kommer att driva på den allmänna utvecklingen av artificiell intelligens ytterligare och dels eftersom man då kan utveckla effektivare robotar som bara bekämpar fiender och inte civilbefolkningen. Men redan idag satsas mycket stora pengar på utvecklingen av artificiell intelligens, något som exempelvis framgår av den mycket kraftiga ökning av patent inom området som tidigare redovisats. Som jag ser det finns det med andra ord mycket lite som talar för att utvecklingen av artificiell intelligens skulle stå still om man inte satsade mer på att utveckla militära tillämpningar.

När det gäller idén om att autonoma vapensystem skulle innebära en säkrare och effektivare militär, så finns det många tänkbara motargument och invändningar.

Exempelvis kan man som tidigare konstaterats notera att egenskaper som empati och medkänsla sannolikt kommer att vara bland det svåraste att överföra till artificiell intelligens eftersom dessa egenskaper bygger på samspel mellan flera olika hjärnstrukturer, exempelvis spegelneuroner, amygdala och belöningsfunktionerna, medan vi när vi skapar artificiell intelligens använder oss av en central målfunktion för att uppnå önskat beteende. Som jag ser det är empati och medkänsla sannolikt den starkaste garanten mot omfattande övergrepp, eftersom offrets lidande gör att den normala reaktionen är att undvika beteendet då offrets smärta i normala fall blir vår egen. Detta kan exempelvis förklara att man i samband med omfattande krigsförbrytelser och folkmord ofta ser en retorik där motståndarsidan avhumaniseras för att bryta denna koppling mellan offer och förövare (Stanton, 2013).

En annan aspekt är att ökad användning av autonoma vapensystem sannolikt kommer att förändra den säkerhetspolitiska balansen. I ett tidigare avsnitt argumenterade jag till att detta i sig kan leda till kapprustningar, ökade geopolitiska spänningar och ett instabilare säkerhetsläge när länder i allt större utstäckning använder olika former av maktspråk för att försöka uppnå makt och inflytande.

Vidare har mänskligheten genom tiderna uppvisat en betydande uppfinnings-rikedom när det gäller att uppfinna destruktiva användningsområden för ny teknik.

Kemiska sprängämnen som krut och dynamit var avgörande för att bygga järnvägsnäten tvärs över kontinenterna, men har också gett oss effektivare och dödligare vapen och därmed fruktansvärda krig och konflikter världen över. Zyklon B utvecklades från början som ett bekämpningsmedel för att öka skördarna och bekämpa undernäring, men är idag mest känt för användningen i gaskamrarna i Auschwitz.

Elektriciteten som ger oss ljus varje dag används också för tortyr och som avrättningsmetod i den elektriska stolen. Atomkraften ger oss daglig energi till att driva kylskåp, spisar, datorer och allt annat elektiskt, men restprodukterna är giftiga i hundratusentals år och det räcker med en knapptryckning för att med kärnvapen utrota allt mänskligt liv på jorden inom loppet av någon timme. Till och med vatten, som är

33 ett fundament för livet på jorden och dessutom en ”ren” energikälla, används för tortyr – sk waterboarding. Tanken på att en så kraftfull teknik som artificiell intelligens enbart skulle användas på ett positivt och konstruktivt sätt framstår därför som både historielöst och naivt.

I detta ljus menar jag att den inställning som förs fram av The Future of Life Institute framstår som liberal och pragmatisk, med ett tydligt fokus på teknisk säkerhet och betoning av behovet av mer kunskap om vilka effekter som ökad användning av artificiell intelligens kan antas få för våra samhällen, exempelvis ut ett ekonomisk eller legalt perspektiv. Samtidigt efterfrågar The Future of Life Institute en fördjupad diskussion mer långsiktiga utvecklingsfrågor gällande exempelvis superintelligens och teknisk singularitet – som även om de idag framstår som mycket avlägsna med största sannolikhet en dag kommer att inträffa. Ur ett etiskt perspektiv kan man som jag ser det argumentera för att denna inställning som en miniminivå, helt oavsett om man exempelvis argumenterar ur ett utilitaristiskt eller pliktetiskt perspektiv.

Related documents