• No results found

Uppfattning av AI i vår tid

N/A
N/A
Protected

Academic year: 2021

Share "Uppfattning av AI i vår tid"

Copied!
38
0
0

Loading.... (view fulltext now)

Full text

(1)

Uppfattning av AI i vår tid

En studie om de bakomliggande faktorerna till människors uppfattning kring AI och hur uppfattningen har förändrats

över tid

Perception of AI in our time

A study of the underlying factors to people's perceptions of AI and how these perceptions have changed over time

Kandidatuppsats

Luka Rozic Damon Salehi

Huvudområde: Informatik

Uppsatsens nivå: Kandidatnivå/Kandidatuppsats Omfattning i antal högskolepoäng: 13 hp Inlämningstermin: VT2021

Handledare: Gion Koch Svedberg

(2)
(3)

Uppfattning av AI i vår tid

Kandidatuppsats

Luka Rozic, IT och Ekonomiprogrammet, Malmö Universitet, Sverige Damon Salehi, IT och Ekonomiprogrammet, Malmö Universitet, Sverige

Abstrakt

I det här arbetet tittar vi på artificiell intelligens genom sitt ursprung och hur tekniken har utvecklats över tiden. Eftersom begreppet diskuteras flitigt i dagens samhälle och av människors förståelse av det, vill vi klargöra vad människor faktiskt tror att artificiell intelligens är och jämföra det med dess faktiska definitioner. Eftersom artificiell intelligens har många definitioner är vårt syfte att redogöra för dessa definitioner utförligt och gå igenom AI:s historia och hur människor har uppfattat termen i generationer.

Målet är att framföra en presentation av en jämförelse med hur människor uppfattar artificiell intelligens, vad uppfattningen grundar sig på i förhållande till AI:s faktiska definitioner, hur dess perspektiv och kunskap har förändrats i allmänhet - associerat med förändringar som händer i vårt samhälle. För att göra denna jämförelse var vi tvungna att genomföra en semistrukturerad intervju med informanter om olika demografi och åldrar för att få en nyanserad bild av ”vanliga” människors uppfattning om AI. Olika teorier som definitionerna av AI, automatisering och robotik användes också för att jämföra hur våra informanter beskrev de olika termerna.

De presenterade resultaten visade att i princip alla våra informanter hade väldigt lite kunskap om AI baserat på vår insamlade data. Automatisering och robotik talades ofta om, och det verkade som om dessa termer är allt som människor associerade AI med. Likheter och skillnader i uppfattningar om AI genom tiden uppmärksammades, vilket sträcker sig till uppfattningar om etiskt resonemang, hälsovård, robotik m.m.

Nyckelord: artificiell intelligens, automatisering, robotisering, historia, uppståndelse

(4)

Perception of AI in our time

Bachelor’s thesis

Luka Rozic, IT and Economics, Malmo University, Sweden Damon Salehi, IT and Economics, Malmo University, Sweden

Abstract

In this assignment, we look at artificial intelligence through its origin and how the technology has developed over time. Since the term is highly discussed in today's society and by people's understanding of it, we want to clarify what people believe artificial intelligence is and compare it to its true definitions.

Since artificial intelligence has many definitions, our purpose is to account for these definitions thoroughly and go through the history of AI and how people have perceived the term through various timelines. The goal is to accredit a presentation of a comparison with how people perceive artificial intelligence, what the acknowledgement is based on in relation to how AI:s true definitions, how its perspectives and knowledge has changed in general - associated with changes happening in our society.

In order to make this comparison, we had to perform a semi-structured interview with informants of various demographics and ages to get a nuanced image of “ordinary” people’s perception of AI.

Different theories such as the definitions of AI, automatization and robotics were also used to compare how our informants described the different terms. The results presented showed that basically all of our informants had arguably little knowledge of AI based on our collected data. Automation and robotics were frequently spoken about, and it seemed as if these terms are all that people associated AI with.

Similarities and differences in perceptions of AI through time were acknowledged, which extends to perceptions of ethical reasoning, health care, robotics etc.

Keywords: artificial intelligence, automation, robotics, history, hype.

(5)

Innehållsförteckning

1. Inledning 1

1.1. Bakgrund 1

1.2. Problemformulering och forskningsfråga 2

1.3. Syfte 2

1.4. Avgränsning 2

1.5. Etiska åtaganden 3

2. Metoder för forskning 3

2.1. Semistrukturerade intervjuer 4

2.2. Urval av informanter 5

2.3. Litteratursökning 5

2.4. Kvalitativ innehållsanalys 5

3. Teori, begreppsdefinitioner och tidigare forskning 7

3.1. AI:ns olika definitioner 7

3.2 Automatisering 8

3.3. Robotik 8

3.4. Tidigare forskning 8

4. Artificiell Intelligens 10

4.1. En fördjupad förklaring av de olika definitionerna 10

4.1.1. Mänskligt agerande: The Turing Test approach 10

4.1.2. Mänskligt tänkande: The cognitive modeling approach 11

4.1.3. Rationellt tänkande: The “laws of thought” approach 11

4.1.4. Rationellt agerande: The rational agent approach 12

4.2. Den Artificiella Intelligensens uppkomst och dess tolkning i generationer 13

4.2.1 Stora förväntningar, 1952–1962 13

4.2.2 En reality check, 1966–1973 14

4.2.3 Kunskapsbaserade system, 1969–1989 15

4.2.4 AI blir en industri, 1980-nutid 16

4.2.5 Intelligenta agenter, 1995-nutid 16

4.3. Artificiell Intelligens idag och dess generella uppfattning 17

5. Intervjuer med informanter 21

5.1. Val av frågor som baserats utifrån datainsamling 22

5.2. Resultat från intervjuerna 22

5.2.1. Den gemene mannens generella uppfattning kring AI, bidragande faktorer till denna uppfattning och hur den skiljer sig från hur det uppfattades vid dess uppkomst

och dess tidigare utvecklingsstadier. 22

6. Analys av resultat 24

7. Slutsats 29

(6)

7.1. Vad är människors generella uppfattning om AI idag och vilka faktorer påverkar

denna uppfattning? 29

7.2. Hur skiljer sig uppfattningen av AI idag från hur det uppfattades vid dess uppkomst

och dess tidigare utvecklingsstadie 29

7.3. Sammanfattning 29

8. Diskussion och förslag på vidare forskning 30

(7)

1

1. Inledning

I denna del täcker vi bakgrunden av artificiell intelligens och dess koppling till informationsteknik, samt hur användningen av teknologin kommit till bruk. Detta följer med en problemformulering kring området gällande hur det alltid funnits en stor uppståndelse bland människors uppfattningar kring termen, vilket står till grund för våra frågeställningar. Därefter presenteras studiens syfte, avgränsning av arbetet, tidigare forskning och etiska åtaganden som vi tagit till hänsyn längs arbetets gång.

1.1. Bakgrund

Russell & Norvig (2016) förklarar att människor kallar sig själva för homosapiens, vilket betyder

“förnuftig människa”, eftersom vår intelligens har en stor betydelse för oss. Under flera tusentals år har människan försökt att förstå hur vi tänker, vilket innebär hur vi uppfattar olika situationer samt hur vi förstår, förutspår och manipulerar en värld som är avsevärt större och mer komplicerad än vad vi inser.

Artificiell intelligens, som förkortas som AI, utsträcker sig ännu längre än detta då den enbart inte bemödar sig till att förstå varierande enheter utan försöker även bygga nya intelligenta enheter (Russell

& Norvig, 2016).

Informationsteknik (IT), det vill säga teknik som hjälper oss att behandla information, har funnits ända sedan de första civilisationerna. Däremot såg IT annorlunda ut förr i tiden än vad den gör idag. Det ljudbaserade alfabetet utvecklades på olika håll cirka 1 500 år innan vår tideräkning. Genom det ljudbaserade alfabetets limiterade antal symboler gjordes symbolsystemet åtkomligt för fler än bara yrkesskrivare. Denna innovation ifrågasattes med motiveringen att den ökade tillgängligheten skulle kunna bidra till att samhällsordningen störs. Det krävs att skrivaren och läsaren delar samma referensram i tillräckligt stor utsträckning. Detta för att mottagaren av data ska göra samma eller tillräckligt lik tolkning av det som “sändaren” vill förmedla. Man var även orolig för att det skulle ge folk en tro om att vara bildade när dem faktiskt inte är det. Redan vid denna tidpunkt hade en rädsla etablerats för ny teknik vilket speglar sig i oron som tekniken medför (Cöster, 2016). I mitten av 1400- talet kom tryckpressen i kombination med det västerländska alfabetet som möjliggjorde kostnadseffektivt mångfaldigande av texter. Genom denna teknik sattes det även fart på censur, “lätt”

litteratur, kommersiell nyhetsspridning och spridningen av religiösa idéer som kom att påverka samhällen enormt (Cöster, 2016).

Nästa steg i utveckling kom runt sekelskiftet under 1800 talet. Det är under denna tid som jacquardvävstolarna först uppfanns. Dessa vävstolar kunde väva olika mönster med hjälp av en form av hålkort. Det vill säga att man med hjälp av instruktioner fick direkt kontroll över en maskin. Dessa maskiner skapade redan då en oro. Textilarbetarna såg denna automatisering som ett hot mot deras arbete och valde att förstöra maskiner genom att slänga in träskor i dem. Historien visar ett tydligt mönster. IT-utvecklingen har ofta öppnat för nya möjligheter och genombrott, däremot har det även nästan alltid skapat en oro och ett motstånd i de olika samhällena (Cöster, 2016).

Implementering av artificiell intelligens i verksamheter idag har till primärt syfte att effektivisera arbetsprocesser genom att ersätta människan i vissa specifika arbetsuppgifter på olika sätt. Ljungberg

& Norberg (2015) förklarar att AI är användbart när det gäller att utföra beräkningar och fatta beslut som i många fall kan anses vara allt för avancerade för en människa. Maskininlärningssystem ersätter inte gamla algoritmer i många fall, men de är numera överlägsna på många uppgifter som tidigare utfördes av människor. Systemet är däremot inte felfritt, deras error rate ligger på drygt 5%, men deras

(8)

2

prestanda är dock fortfarande bättre än människans. Enligt Brynjolfsson och Mcafee (2017) öppnar sådana begynnelser upp nya möjligheter för att transformera en arbetsplats och ekonomin.

Ljungberg & Norberg (2015) förklarar ytterligare att teknikens- och företagets utveckling går hand i hand och när nyfunna tekniker, som AI, träder fram under rampljuset blir det väldigt intressant att definiera begreppet. Begreppet har många definitioner och kan betyda olika saker, ha olika potential och studeras utifrån olika synvinklar. Vi kommer att undersöka artificiell intelligens, dess utveckling över tid samt de bakomliggande faktorerna till hur människor uppfattar AI:n.

1.2. Problemformulering och forskningsfråga

Det råder en väldigt stor uppståndelse kring AI och dess funktioner. Det pratas och diskuteras flitigt bland människor vad AI kan göra och vad AI:n kommer att göra. Som vi presenterat i föregående avsnitt har uppkomsten av nya teknologier orsakat motstånd och oro i samhällen genom tiden. Det vill säga, ju mer teknologin och tekniker som AI har utvecklats desto större förväntningar och rädslor har den gemene mannen etablerat. AI är dessutom en väldigt bred term med många definitioner, vilket dessutom problematiserar den klara uppfattningen människan har kring ämnet. AI har blivit ett allt mer omtalat och aktuellt ämne i samhällsdebatter. I exempelvis Sydsvenskans artikel Expert: AI riskerar bli

”Kejsarens nya kläder” (2021), diskuteras riskerna med AI och hur tekniken kan påverka människans roll i samhället samt hur den redan har delat människor i frågan. Detta ger upphov till följande forskningsfrågor:

- Vad är människors generella uppfattning om AI idag och vilka faktorer påverkar denna uppfattning?

- Hur skiljer sig uppfattningen av AI idag från hur det uppfattades vid dess uppkomst och dess tidigare utvecklingsstadie?

1.3. Syfte

Syftet med detta arbete är att redogöra för AI:ns olika definitioner samt koppla det till teknikens utveckling och dess uppfattningar genom historien. Genom dessa redogörelser vill vi med detta arbete komma underfund med hur människans uppfattning kring AI ser ut idag, vilka faktorer som ligger bakom denna uppfattning, vad denna uppfattning grundar sig på samt hur den har förändrats sedan dess uppkomst och tidigare skede.

1.4. Avgränsning

Vi har valt att utforska vad AI är, vad den generella uppfattningen kring AI är och de bakomliggande faktorerna till denna uppfattning. Vi är mindre intresserade av hur man kan implementera AI i organisationer och hur AI ska användas för att få bästa möjliga resultat. Vi kommer däremot titta på hur AI gestaltar sig idag och var det har applicerats i samhället för att kunna jämföra detta med hur allmänheten uppfattar AI i dagens samhälle. Det vill säga om människor vet ifall saker som finns i deras vardag är och klassas som artificiella intelligenser, som exempelvis ansiktsigenkänning.

Vad gäller den gemene mannens generella uppfattning kring AI utifrån intervjuerna har vi avgränsat oss till enbart den svenska befolkningen, varav resterande datainsamling som litteratur och artiklar varierar mellan områden och länder där AI:n är aktuell. Detta eftersom artificiell intelligens inte är lika

(9)

3

utvecklat inom alla delar av världen och vi fokuserar därför huvudsakligen på att fördjupa oss inom de ovan nämnda områden där Sverige ligger i framkant.

Pandemin vi befinner oss i idag kommer att påverka vårt arbete och är något som vi som författargrupp måste förhålla oss till under arbetets gång. Intervjuerna som vi kommer att hålla med våra informanter kommer att ske digitalt via diverse digitala verktyg på grund av den rådande pandemin. Detta kan påverka informantens svar då man kanske inte är lika bekväm med att faktiskt öppna upp sig och verkligen utveckla sina svar som man hade varit i en normal/fysisk miljö. Intervju-upplevelsen kan upplevas mindre naturlig och mer stel.

Vårt arbete kommer även att ske mest på distans. Vi kommer att hålla eventuella möten via exempelvis Zoom vilket kan skapa kommunikationssvårigheter mellan oss som författargrupp eftersom det finns större rum för feltolkningar.

1.5. Etiska åtaganden

Vi som författare av denna rapport har vid rapportens utformning utgått ifrån det som Vetenskapsrådet beskriver som en god forskningssed med syftet att uppnå de kriterier som krävs för att arbetet ska ha tagit de etiskt korrekt utfört. År 2017 släppte Vetenskapsrådet en rapport där de skrev ut vilka åtagande och punkter som författare måste förhålla sig till för att ha en god forskningssed. Punkterna som beskrevs i Vetenskapsrådets rapport är punkter som vi författare också har tagit hänsyn till i detta arbete.

Vetenskapsrådet tar upp 8 punkter i sin rapport:

1. Tala sanning om din forskning

2. Medvetet granska och redovisa utgångspunkterna för dina studier 3. Redovisa öppet för dina resultat och metoder

4. Redovisa öppet för dina, eventuella, kommersiella intressen och andra bindningar 5. Stjäl inte forskningsresultat från andra

6. Håll god ordning i din forskning genom bland annat dokumentation och arkivering 7. Sträva efter att bedriva din forskning utan att skada andra djur, människor eller miljö 8. Var rättvis i din bedömning av andras forskning

Ytterligare etiska åtaganden som gjordes var att vi vid våra intervjuer informerade informanterna om syftet bakom intervjun, vi frågade om deras tillåtelse till att spela in intervjuerna och vi försäkrade de även om att de kommer förbli anonyma i rapporten. Det vill säga att deras namn, personnummer eller annan personlig information inte kommer att förekomma i studien.

2. Metoder för forskning

Denscombe (2018) förklarar att det inte finns ett konkret bästa tillvägagångssätt för att säkerställa validiteten i datan som kommer från kvalitativa metoder. Det finns däremot åtgärder som går att ta för att öka validiteten i datan som införskaffat. Vi har valt att använda oss av flera källor av data för att säkerställa att det vi får fram ur våra intervjuer har en hög validitets-grad i sig. Denna metod kallas för triangulering. Det är även viktigt att vårt resultat betraktas ha reliabilitet, för detta krävs det mer än att vår data bara är trovärdig. Det krävs även att resultatet ska kunna gå att upprepa. Detta kan kontrolleras genom att man följer samma steg som forskarna har tagit för att därefter få fram samma resultat eller genom att dela datamängden i två för att sedan jämföra dem mot varandra vilket borde resultera i snarlika resultat (Denscombe, 2018). Ytterligare kontroller som kan göras för att säkerställa tillförlitligheten i datan är att fråga intervjuobjektet ifall man tolkat deras svar på rätt sätt. Genom att ha

(10)

4

transparens, triangulering och återkoppling i fältet kan vi erbjuda vår läsare en trovärdig uppsats (Ahrne

& Svensson, 2015)

2.1. Semistrukturerade intervjuer

Metoderna för datainsamling har skett genom kvalitativa metoder i form av semistrukturerade intervjuer via digitala verktyg. Anledningen till att vi genomförde en semistrukturerad intervju var för att vi på så sätt kunde få fram mer detaljerade beskrivningar och detaljerad information, vilket Denscombe (2018) förklarar endast är möjligt att införskaffa med hjälp av ett fåtal personer. En semistrukturerad intervju innebär att vi som är intervjuare har en lista på olika frågor som vi önskar ta upp med personen som blir intervjuad för att vidare kunna använda oss av svaren som informanten tillför till vår forskning. Dessa frågor behandlade till mesta dels ämnet artificiell intelligens och eftersom intervjuerna var semistrukturerade hade vi format våra frågor på så sätt att det inte fanns något rätt eller fel svar. Frågorna som vi hade utformat var väldigt öppna med syftet att ge utrymme för informanten att utveckla och motivera sina svar. Intervjun blev på så sätt väldigt flexibel och gav utrymme för oss som intervjuare att ställa följdfrågor. Det hjälpte oss att reda ut eventuella tvetydigheter eller om vi fann svaren intressanta och ville be informanten att fortsätta motivera och utveckla sitt svar.

Våra semistrukturerade intervjuer planerades att ske personligt med varje informant och inte i grupp.

Detta valde vi att göra eftersom det var huvudsakligen enklare att arrangera en personlig intervju än vad det var att arrangera en gruppintervju, samtidigt som det gav informanten utrymme att enkelt kunna uttrycka sina uppfattningar och synpunkter kring ämnet. Detta underlättade även för oss att kunna lokalisera särskilda idéer till vissa bestämda människor då all information härstammade från en källa (Denscombe., 2018). Personliga intervjuer är även relativt enkla att kontrollera, då forskaren vid varje intervju endast behöver lägga fokus på den intervjuades erfarenheter och tolkningar. Detta innebär även att när vi väl påbörjade arbetet och skrev ut ljudinspelningar, underlättade det att strukturera resultatet av intervjuerna då ljudinspelningarna endast involverade en deltagare åt gången.

På grund av den rådande pandemin som vi alla för tillfället befinner oss i valde vi att genomföra det som Denscombe (2018) kallar för internetbaserade intervjuer. Alla som har tillgång till en dator och som är uppkopplade till internet kan genomföra en internetbaserad intervju. Denna formen av intervju bidrar dessutom till fördelar som exempelvis försumbara kostnader och gör det även möjligt för forskaren att intervjua människor över hela världen utan att ängslas över resekostnader och tidsåtgång.

Den internetbaserade intervjun gjordes i realtid med visuell kontakt genom webbkamera och datorprogrammet Zoom. På så sätt blev intervjun likt en “face to face” intervju men med ett geografiskt avstånd mellan intervjuaren och den intervjuade.

En semistrukturerad intervju är att föredra framför andra former av datainsamling, eftersom det som tidigare nämnt ger oss en större inblick till vad våra informanter verkligen tycker och tänker kring artificiell intelligens, samtidigt som det ger dem utrymme till att uttrycka sig på vilken nivå de än känner sig bekväma på. Bekvämligheten är även en viktig faktor som en semistrukturerad intervju bidrar med, då den intervjuade får en möjlighet till att lära känna oss aningen bättre på en personlig nivå vilket tillåter honom eller henne att öppna upp sig mer, till skillnad från exempelvis en kvantitativ metod i form av enkäter.

(11)

5 2.2. Urval av informanter

Vid val av informanter har vi haft som grund att ha en variation i deras demografi, det vill säga varierande kön och ålder för att få en mer generell bild av hur människor uppfattar AI. Spannet vi valde låg mellan åldrarna 20–60 år eftersom vi ansåg att det är människor mellan dessa åldrar som har lyckats skapa sig själva en uppfattning kring AI, samtidigt som vår datainsamling genom litteratur och artiklar lyfter teknikens uppkomst och uppfattning vilket sträcker sig cirka 50 år tillbaka. Åldersspannet blir på så sätt intressant eftersom det ger oss en inblick på hur de äldre uppfattar artificiell intelligens gentemot hur de yngre uppfattar det och ger oss en möjlighet att dra paralleller med hur AI:n såg ut förr i tiden.

Vad gäller urvalets storlek har vi som forskare utgått ifrån ett kumulativt tillvägagångssätt, vilket Denscombe (2018) förklarar innebär att forskaren ökar storleken på urvalet successivt fram till att han eller hon känner att de fått tillräckligt med information eller fram till att forskaren känner att ytterligare informanter inte kommer att tillföra studien något mer. Antalet informanter vi intervjuat är fem, varav majoriteten av dessa besvarat våra frågor någorlunda likartat och vi ansåg därför inte att en större ökning av informanter hade bidragit med någon annan input till vårt arbete.

När vi väl valde våra informanter utgick vi ifrån någonting som Denscombe (2018) kallar för ett bekvämlighetsurval, vilket innebär att vi valt de personer som kommer först till hands. Anledningen till detta är för att vi i denna studie är som sagt intresserade av den generella uppfattningen människor har kring AI, varav vi mest kan få en generell bild ifall vi vänder oss mot den gemene mannen. Eftersom folket i vår omgivning inte är några experter kring ämnet och betraktas enligt oss som den “gemene mannen”, ansåg vi även att de är det perfekta urvalet som bäst kan bistå oss för att komma fram till en slutsats.

2.3. Litteratursökning

Förutom en kvalitativ metod utifrån semistrukturerade intervjuer utgår vi även från en variation av litteratur och vetenskapliga artiklar kring områdena artificiell intelligens och dess roll inom ett företag och olika arbetsplatser. Arbetet kommer att inneha en högre grad induktion, detta eftersom vi utifrån enstaka fall samt eventuella tidningsartiklar kommer att generalisera för att komma fram till en slutsats, och på så sätt skapa en form av förstudie (NE., 2021).

Litteratur och artiklar kommer att hittas genom litteratursökning där vi spårar upp relevanta källor som ska tas med i litteraturöversikten. För att hitta artiklar relevanta till vårt arbete utgår vi ifrån sökmotorer som exempelvis Google Scholar där vi använder oss utav specifika nyckelord som “artificial intelligence”, “artificial intelligence perception” med mera. Vi använder oss främst av engelska nyckelord eftersom majoriteten av forskningen som gjorts om AI har gjorts på engelska.

Nyckelord förklarar Denscombe (2018) är ord som fångar in själva kärnan i det området som forskaren vill undersöka, varav genomföringen sker utifrån en rangordning av specifika nyckelord rangordnade efter betydelse i förhållande till undersökningsområdet. Därefter görs en kritisk granskning av litteratur varav de som ger mest betydelse för arbetet väljs ut.

2.4. Kvalitativ innehållsanalys

För att utförligt kunna genomföra en analys av vårt resultat och jämföra informanternas uppfattningar av AI med dess historia har vi utgått ifrån vad Graneheim & Lundman (2008) beskriver som en kvalitativ innehållsanalys. Med denna metod utgår vi även ifrån en induktiv ansats, vilket tillåter oss att

(12)

6

ha en mindre utvecklad teori fast med en mer utvecklad empiri som i sin tur framställer teorier och begrepp. För att analysera den insamlade datan med en kvalitativ innehållsanalys utgår vi från två utgångspunkter, vilka är dem manifesterade och latenta innehållen som erhålls utifrån datainsamlingen.

Graneheim & Lundgren (2008) förklarar vidare att det manifesterade innehållet är det som i processen visar sig vara tydligt och givet, medan det latenta innehållet innebär mer för oss som forskare att läsa mellan raderna för vad resultatet visar och tydliggöra dess betydelse.

Graneheim & Lundman förklarar att i det kvalitativa innehållsanalysens första steg ska författarna läsa igenom de underlag som man lyckats insamla flera gånger. Detta för att man ska få skapa sig själv en homogen bild av vad underlaget innehåller. Processens andra steg består av att författarna ska sortera underlaget för att sedan kunna identifiera och framhäva det som kallas för meningsbärande enheter som anses vara väsentliga för arbetet. Meningsbärande enhet betyder, i detta sammanhang, påståenden, meningar eller ord som anses vara väsentliga. Det tredje steget i processen består av att de meningsbärande enheterna nu ska förkortas och avgränsas utan att de ska tappa sin huvudsakliga betydelse. Man kondenserar alltså de meningsbärande enheterna (Graneheim & Lundman, 2008).

Processens fjärde steg kräver att de nu förkortade meningsbärande enheterna ska kodas för att återspegla dess huvudsakliga betydelse. Koderna ska därefter jämföras med de ursprungliga meningsbärande enheterna och de förkortade för att kontrollera vilken grad av validitet de erhåller. Det femte steget skriver författarna ur koderna och jämför dessa. Detta med syfte till att hitta likheter och skillnader och på så sätt skapa en tydligare bild över vad innehållet omfattar. När författargruppen lyckats identifiera likheter och skillnader mellan respondenternas svar kan författarna utifrån dessa likheter och skillnader skapa olika teman (Graneheim & Lundman, 2008). För att illustrera hur det ser ut visas ett exempel i tabellen nedan.

Tabell 1. Exempel på hur meningsbärande enheter, kondenserade meningsbärande enheter och slutligen teman kan se ut.

Meningsbärande enheter Kondenserade meningsbärande enheter

Teman

“Att det med hjälp av AI blir allt för kontrollerat och att det kommer att kränka människors identitet samt våra rättigheter”

“Rädsla för att förlora kontrollen och för inskränkning av mänskliga rättigheter.”

Rädsla för förlorad kontroll och förlorade rättigheter.

(13)

7

3. Teori, begreppsdefinitioner och tidigare forskning

Avsnitten som följer syftar till att definiera och förklara de begrepp som frekvent kommer att förekomma i denna studie. Till en början redogör vi för en enkel beskrivning av AI:ns olika definitioner (vilket förklaras mer djupgående längre fram i arbetet), följt med förklaringar av vanligt förekommande och ihopblandade begrepp inom området. Vi vill med dessa avsnitt ge läsaren en större förståelse och underlätta för denne så att den kan följa med i studien utan att tappa den röda tråden. Detta följer med en illustrering av tidigare forskning inom ämnet där vi redogör för den kunskap som redan finns inom vårt valda problemområde samt resultaten som forskningen lett fram till.

3.1. AI:ns olika definitioner

AI har existerat under en längre period, men betraktas än idag som en av de nyaste fälten inom vetenskap och teknologi. Sedan dess utveckling återstår det än idag dilemman med AI och dess definition. Russell

& Norvig (2016) benämner åtta olika definitioner gällande artificiell intelligens och rör sig inom två olika dimensioner, vilket presenteras i tabellen nedanför. Definitionerna till vänster mäter framgången i förhållande till plikttrogenhet kring den mänskliga prestandan, medans definitionerna till höger mäter en prestanda motsatt till en fulländad prestanda som kallas för rationalitet. Ett system anses vara rationell ifall den genomför “the right thing”.

Tabell 2. Artificiella intelligensens olika definitioner uppdelat i två olika dimensioner (det mänskliga och det rationella).

De olika definitionerna av AI har använts inom flera olika scenarier och implementerats på varierande metoder. En människocentrerad ansats skall vara inkluderat i en empirisk vetenskap som involverar observationer och hypoteser kring det mänskliga beteendet. En rationalistisk ansats involverar en kombination av matematik och ingenjörsvetenskap. De varierande grupperna har både nedvärderat och hjälpt varandra.

(14)

8 3.2 Automatisering

Automatisering är en term som innebär att en maskin utför ett arbete, antingen på egen hand eller med hjälp av människor. Termen har tidigare endast omfattat att man vill ersätta fysiska muskelarbeten med maskiner. Däremot har digitaliseringen lett till att automatisering även handlar om att stötta eller ersätta mänskliga kognitiva arbeten och beslutstaganden med hjälp av system. Dessa system kan, som tidigare nämnt, vara helt självgående, arbeta jämsides människan eller agera som stöd till människor i deras arbeten. Artificiell intelligens börjar alltmer handla om en mer komplex och komplicerad automatisering (Kecklund & Sandblad, 2021)

3.3. Robotik

Chen et al. (2017) definierar robotar som ett system vilket kan programmeras till att utföra en variation av uppgifter, som dessutom involverar rörelser och kraftöverföringar medan systemet antingen är i drift eller inte. Att utföra varierande uppgifter genom robotik är dess unika funktion och används oftast inom tillverkningsindustrier för att utföra enklare arbetsuppgifter samt i miljöer som anses vara farlig för människan. Termen associeras ofta till AI genom att den kan konstrueras till att bestå av förmågor som att se, höra och beröra. Vissa robotar är dessutom konstruerade till att fatta enkla beslut. Forskare inriktar sig även på att göra robotar mer självständiga när de befinner sig i strukturlösa miljöer.

3.4. Tidigare forskning

“The AI narratives project” var ett projekt som Cave et al. (2018) förklarar undersökte hur forskare, kommunikatörer, policyskapare och allmänheten talar om artificiell intelligens. Denna undersökning utfördes i Storbritannien där man delade upp deltagarna i fyra studiegrupper. I den första studiegruppen utforskade man vilka berättelser kring intelligenta maskiner som är mest förekommande och vad de grundar sig i. I den andra studiegruppen fokuserade forskarna på vilka lärdomar som kunde dras från dessa berättelser, varav ny teknologi var flitigt diskuterat och vilken påverkan det har. Den tredje studiegruppen granskade hur “storytellers” formar utvecklingen av intelligent teknologi och vilken roll median har i förhållande till utmaningarna och möjligheterna som följer AI. Fjärde studiegruppen höll en debatt utifrån informationen forskarna samlat in och involverade AI utövare, forskningskommunikatörer m.fl. Här undersökte man även hur ingripanden i detta utrymme kan sprida akademisk forskning för att påverka offentlig debatt och politisk diskurs, för att säkerställa att båda är välgrundade och välinformerade.

Vad gäller de mest förekommande berättelserna kring AI förklarar Cave et al. (2018) att de oftast utgår ifrån fantasifullt tänkande, vilket innebär att de vanligtvis är fiktiva. Dessa är bland annat legender kring hur maskiner var skapade i en uråldrig tid för att betjäna människan, eller hur maskiner patrullerade vid Kretas kuster för att skydda dess invånare från pirater och inkräktare. AI-berättelser, både fiktiva och icke-fiktiva, är något som än idag påverkar människors uppfattning kring AI och ett fokus på förkroppsligande av maskin, utopisk eller dystopisk överdrift samt brist på diversitet hos kreatörer, huvudpersoner och typer av AI är egenskaper som dessa berättelser vanligtvis har gemensamt.

Cave et al. (2018) förklarar vidare på att berättelserna är väsentliga för utvecklingen av forskning och människors engagemang med ny teknik, då de har ett stort inflytande i vilken riktning som utvecklingen skall följa. De tillför mycket inspiration till forskare genom att belägga alternativa framtider med artificiell intelligens, samt bidrar till en ökad debatt kring tekniken. De kan däremot även skapa falska förväntningar och uppfattningar kring AI som för människor som inte är insatta i tekniken kan vara svåra att stjälpa, vilket i sin tur gör det svårare för forskare att främja sina projekt.

(15)

9

Överdrivna förväntningar och rädslor för AI, tillsammans med en överdriven betoning på humanoida representationer, kan påverka allmänhetens förtroende och uppfattningar för tekniken. De kan bidra till felinformerad debatt med betydande konsekvenser för finansiering, reglering och mottagande av AI- forskning (Cave et al., 2018).

Artificiell intelligens består av många olika funktioner, och vad det kan och inte kan göra för en organisation undersöker Brynjolfsson & Mcafee (2017). I denna artikel lyfter författarna fram ett behov för företag att ständigt hänga med i den teknologiska utvecklingen då teknologiska innovationer varit och är ett drivande motiv för ekonomisk tillväxt. Maskininlärning är den främsta formen av AI som läggs fokus på hos företag, vilket Brynjolfsson & Mcafee (2017) beskriver som en maskins förmåga att utveckla sina prestationer utan att behöva förklara för människor hur olika uppgifter skall åstadkommas.

Författarna förklarar även att artificiell intelligens har likt andra nya teknologier genererat mycket orealistiska förväntningar. I denna artikel granskar de den verkliga potentialen av AI, dess praktiska implikationer och barriärerna som förekommer vid dess användning.

Den artificiella intelligensens definitioner är många, vilket Kvarnström (2020) förklarar beror det på vilka perspektiv en väljer att angripa termen på. Likt vårt genomförande valde författaren att göra en undersökning av människors uppfattningar och tolkningar kring AI, fast här utgick forskaren istället från en kvantitativ metod i form av enkätundersökningar på olika arbetsplatser. Enkäterna var helt anonyma och innehöll enkla besvarade frågor kring hur mycket informanten visste om AI, som exempelvis “Vet du vad artificiell intelligens betyder?”. Innan Kvarnström (2020) kom fram till något resultat var han först tvungen att förtydliga vad artificiell intelligens innebär och hur den har framkommit, eftersom han förklarar att ifall den vanliga människan inte har någon teoretisk referensram kring tekniken att utgå ifrån leder detta ofta till Sci-Fi relaterade diskussioner och debatter. Författaren gjorde därför en förstudie gällande AI:s uppkomst och hur det definieras för att senare kunna göra en jämförelse mellan vilka tolkningar och uppfattningar den vanliga människan har kring ämnet gentemot dess faktiska betydelse. Resultatet visade sig variera en hel del, varav majoriteten av de undersökta visste vad artificiell intelligens var för något till viss utsträckning medan en minoritet inte hade någon aning. Författaren förklarar att okunnigheten av AIs betydelse inte är särskilt överraskande på grund av dess olika definitioner och att det kan ha olika betydelser beroende på sammanhang. Arbetet visar att de som arbetar med AI har en ungefärlig bild av vad det faktiskt är, men att de inte kan särskilt mycket om det på en djupare nivå. Slutligen lyfter Kvarnström (2020) även vikten av att regelbundet kartlägga människors uppfattningar och tolkningar kring ämnet. AI kommer troligtvis bli allt vanligare i samhället och därför bör okunniga informeras om tekniken och dess innebörd.

(16)

10

4. Artificiell Intelligens

I denna del genomför vi till en början en fördjupad förklaring av AI:ns olika definitioner som vi tidigare presenterat under avsnittet “Teori och begreppsdefinitioner”. Därefter går vi vidare på uppkomsten av artificiell intelligens för att få en bättre förståelse av hur själva tekniken uppkommit samt hur det har förändrats över tid, samtidigt som vi drar paralleller med vart AI:ns olika definitioner har sitt ursprung.

Slutligen under sista avsnittet av denna del går vi igenom artificiell intelligens idag och dess generella uppfattning, samtidigt som vi redogör för människors typiska rädslor och förväntningar över tekniken och hur denna förändrats genom dess utveckling. Med hjälp av denna information gör vi sedan en jämförelse med våra informanters svar kring deras uppfattningar av AI idag för att på så sätt kunna besvara våra frågeställningar.

4.1. En fördjupad förklaring av de olika definitionerna

I denna del genomför vi en fördjupning av de olika definitionerna som vi presenterat under avsnitt 2.2.1.

AI:ns olika definitioner. Eftersom artificiell intelligens är en bred term och dess teknik kan uppfattas väldigt olika, anser vi att det är en viktig del att tydliggöra för vad det egentligen innebär. De olika områdena som definitionerna grundar sig i är mänskligt agerande, mänsklig tänkande, rationellt tänkande och rationellt agerande, vilket illustreras i följande fyra avsnitt. Avslutningsvis för varje avsnitt görs en associering mellan de olika definitionerna och de områden som de befinner sig i, för tydlighetens skull.

4.1.1. Mänskligt agerande: The Turing Test approach

År 1950 designade Alan Turing “The Turing Test”, i syfte till att kunna förse en tillfredsställande och funktionsduglig definition av intelligens. Enligt Russel & Norvig (2016) utfördes detta test av människor som förhörde datorer med frågor av olika ämnen, varav ifall en dator klarade testet eller inte mättes endast på ifall personen som förhörde datorn inte kunde avgöra ifall svaren kommer från en dator eller en människa. För att en dator ska ha en chans av att klara detta test krävs det att datorn är programmerad att erhålla följande förmågor:

- Naturlig språkbehandling för att möjliggöra framgångsrik kommunikation på Engelska.

- Kunskapsrepresentation för att lagra information kring vad den vet eller hör.

- Automatiserad resonemang för att använda sig av den lagrade informationen och kunna svara på frågor och dra nya slutsatser.

- Maskininlärning för att kunna anpassa sig till nya omständigheter samt upptäcka och extrapolera mönster.

Russel & Norvig (2016) förklarar att under detta test undveks all fysisk interaktion med datorn, eftersom det påstås att en fysisk simulering inte är nödvändigt för intelligens. Däremot inkluderar The Turing Test en videosignal så att förhöraren kan sätta datorns perceptuella förmågor på prov och dessutom ge den möjligheten att klara av fysiska objekt. För att klara testet kommer datorn behöva följande:

- Computer vision för att registrera objekt.

- Robotik för att kunna manipulera objekten och röra sig fritt.

Enligt Russel & Norvig (2016) täcker dessa sex faktorer det mesta av AI och testet är än idag lika relevant som det var för 60 år sedan. Forskare inom artificiell intelligens har däremot lagt ned väldigt

(17)

11

lite ansträngning när det kommer till att genomföra ett fulländat Turing Test, eftersom de anser det vara viktigare att studera de underliggande principerna av en intelligens.

Definitionerna som då faller under ett mänskligt beteende upplyser en mer robotiserad maskin som skall kunna utföra handlingar och aktiviteter så människolikt som möjligt. Här studeras intelligensen i sig och målet är att skapa en maskin som kan tala och röra sig på samma sätt som en människa, om inte bättre, varav studien kring artificiell intelligens används för att perfektionera dessa funktioner på maskinen.

4.1.2. Mänskligt tänkande: The cognitive modeling approach

Vad gäller artificiell intelligens ur ett “mänskligt tänkande” perspektiv förklarar Russel & Norvig (2016) att en form av bestämmande gällande hur människor tänker är nödvändigt, vilket mer eller mindre indikerar på att man måste komma innanför människans hjärna för att ta reda på hur varje del av den fungerar. Denna process kan genomföras på tre olika sätt:

- Introspection: försöka fånga våra egna tankar.

- Psykologiska experiment: observera en person i akt.

- Hjärnavbildning: observera hjärnan i akt

Utifrån dessa processer tyder Russel & Norvig (2016) på att en person kan erhålla tillräckligt mycket information för att därefter implementera denna teori på en dator. Skulle datorns input- och outputbeteende motsvara ett mänskligt beteende tyder detta på att funktioner och mekanismer som finns i programmet möjligtvis fungerar på samma sätt hos människan. Sådana teorier faller under kognitionsvetenskap, vilket sammanför datormodeller från AI och experimentella tekniker från psykologin för att konstruera precisa och testbara teorier kring människans hjärna som senare används för att skapa en intelligent dator.

Definitionerna under ett mänskligt tänkande tyder alltså på en form av självarbetande dator där en människohjärna i korta drag appliceras på en dator och ger maskinen på så sätt “liv”. Utifrån de tre olika processerna kan datorn programmeras för att mer eller mindre kunna tänka själv, vilket sträcker sig allt från att fatta egna beslut till att lösa problem så som den själv tycker är lämpligt.

4.1.3. Rationellt tänkande: The “laws of thought” approach

The “laws of thought” sträcker sig ända tillbaka till den grekiska filosofen Aristoteles tid, som var den första människan att försöka kodifiera det rätta tankesättet, vilket innebär en obestridlig resonemangsprocess. Enligt Russel & Norvig (2016) tilldelade Aristoteles resonemangmönster för argumenterande strukturer som vid varje fall ledde till korrekta slutsatser vid korrekta omständigheter, som exempelvis “Socrates är en man, alla män är dödliga, vilket innebär att Socrates är dödlig”. Sådana tankesätt var tänkta att styra människans hjärna, och det är sådant tankesätt vi idag kallar för logik.

Vid mitten av 1900-talet hade program redan utvecklats för att i princip kunna lösa alla möjliga problem som var “lösbara” inom en logisk beteckning, med en nackdel till att det fanns en risk för att programmet skulle fastna i en loop ifall det inte fanns någon logisk lösning. Vid en sådan approach förekommer två vanliga hinder (Russel & Norvig, 2016):

1. Det är inte enkelt att ta informell kunskap och implementera det i de formella termerna som en logisk notation kräver, särskilt inte ifall kunskapen är mindre än 100% säker.

(18)

12

2. Det är en stor skillnad mellan att lösa ett problem “i princip” och lösa det i praktik. Problem med endast ett par hundra faktorer har förmågan att utsöndra resurserna hos en dator ifall den åtminstone inte får någon form av vägledning till vilka steg av resonemang den bör pröva till en början.

“Studien om mentala förmågor genom användningen av datoriserade modeller” och “Studien om datorisering som gör det möjligt att uppfatta, resonera och agera” (som presenteras under tabell 2) innefattar faktorer inom programmering som ska möjliggöra det för maskinen att bland annat kunna lösa problem på det mest logiska sättet. För att en maskin skall kunna göra detta måste den till en början ha olika alternativ på vilka tillvägagångssätt den kan utgå ifrån, för att senare kunna resonera kring vilket alternativ som är mest lämplig för just detta specifika problem.

4.1.4. Rationellt agerande: The rational agent approach

En agent är enkelt förklarat någonting som agerar och självklart är alla datorer skapade för att göra någonting, men datoragenter är förväntade att göra mer. Dessa är förväntningar som t.ex. självstyrande manövrering, förnimmande av sin egen miljö, en längre livslängd, anpassning till förändring samt skapa och eftersträva olika mål. Russell & Norvig (2016) beskriver en rationell agent som en som agerar efter att uppnå det bästa utfallet, eller vid osäkerhet uppnå det bästa förväntade utfallet.

Likt “the laws of thought” under ett rationellt tänkande förklarar Russell & Norvig (2016) att en del av the rational agentapproach består av att skapa korrekta slutsatser, eftersom ett sätt att agera rationellt är att resonera logiskt kring slutsatsen att en given åtgärd kommer att uppnå ett specifikt mål som därefter skall ageras på. Däremot består inte rationalitet enbart av att skapa korrekta slutsatser då det i vissa fall inte bevisligen finns något korrekt sätt att utföra det på. Att agera rationellt innebär att få någonting gjort trots att en slutsats inte är given.

Alla förmågor som krävs för att fullfölja ett Turing test tillåter även en agent att agera rationellt då kunskapsrepresentering och resonemang utvecklar förmågan för agenterna att fatta bra beslut. Russell

& Norvig (2016) förklarar att det är nödvändigt att generera begripliga meningar i ett naturligt språk för att överleva i ett komplex samhälle. Utbildning är inte endast till för lärdom då det gynnar oss även genom att vi utvecklar vår förmåga att generera ett effektivt beteende.

Vad gäller den rationella agenten förklarar Russel & Norvig (2016) att det finns två dominanta fördelar över de ovanstående metoderna:

1. Den rationella agenten är mer generell än “laws of thought” då korrekta slutsatser är endast en utav flertalet möjliga mekanismer som krävs för att uppnå rationalitet.

2. Den rationella agenten är även mer mottaglig till vetenskaplig utveckling än metoderna som faller under mänskligt agerande och mänskligt tänkande.

Rationalitetens standard är matematiskt väldefinierad och fullkomligt generell, samtidigt som den kan öppnas upp för agenterna genom en generering av design som bevisligen kommer att uppnå full rationalitet. Mänskligt beteende är däremot välanpassat för en specifik miljö och definieras utifrån människans förmåga (Russell & Norvig, 2016).

En definition av artificiell intelligens under ett rationellt agerande perspektiv lutar sig alltså mot att rationella agenter är nödvändigt för att en dator skall anses vara intelligent. En dator som kan fatta egna

(19)

13

beslut och som mer eller mindre har förmågan att testa sig fram utifrån logiska tillvägagångssätt för att uppnå ett tillfredsställande resultat, även fast en given slutsats inte finns till hands.

4.2. Den Artificiella Intelligensens uppkomst och dess tolkning i generationer 1950-talet var idén och konceptet om artificiell intelligens inrotad i en hel generation av matematiker, forskare och filosofer. Alan Turing, en ung brittisk man, utforskade de matematiska möjligheterna till artificiell intelligens. Alan Turing menade att vi människor använder oss av information som finns tillgänglig för att kunna lösa problem, varför skulle inte maskiner kunna göra detsamma? Dessvärre kunde Turing inte påbörja sitt arbete kring detta omgående, eftersom datorerna innan 1949 saknade de nödvändiga förutsättningarna för intelligens. Datorerna kunde utföra kommandon men inte lagra de, vilket innebär att man kunde säga till datorn att göra en sak men datorn kommer inte minnas vad den har gjort. Utöver bristerna i datorerna var datoranvändning väldigt dyrt (Anyoha 2017). Under tidigt 1950-tal kunde dator-leasing kosta cirka 200 000 dollar i månaden. Det var endast dem mest prestigefyllda universiteten och dem allra största tech-företagen som hade råd. Pga. detta var man tvungna att bevisa konceptet samt få stöd från hög profilerade människor för att kunna övertyga finansieringskällorna att det är värt att investera i maskinintelligens (Anyoha 2017).

Fem år senare initialiseras det första “beviset” genom Allen Newell, Cliff Shaw och Herbert Simons program Logic Theorist. Detta datorprogram var designat för att härma en människas problemlösnings kunskaper och var finansierat av Research and Development Corporation. Programmet, som anses av många vara det första AI programmet, presenterades på Dartmouth Summer Research Project on Artificial Intelligence konferensen av värdarna John McCarty och Marvin Minsky. John McCarthy föreställde sig att konferensen skulle resultera i ett framgångsrikt samarbete och valde att samla toppforskare inom olika områden för att starta en öppen diskussion om just artificiell intelligens, ett begrepp som myntades under samma evenemang (Anyoha 2017). Bland deltagarna fanns bland annat Trenchard More, Arthur Samuel och Ray Solomonoff. Till McCarthys besvikelse nådde konferensen och det önskade samarbetet inte upp till hans förväntningar. Däremot var han och de inbjudna forskarna överens om att artificiell intelligens var uppnåeligt. Denna konferens kan ses som katalysatorn för AI forskningen, främst för att deltagarna i denna konferens hade alla stora roller i AI forskningen de nästkommande 20 åren och det var vid detta tillfälle som dem alla introducerades för varandra.

Artificiell intelligens blev även en egen “bransch” så att säga. Detta eftersom AI redan från början omfamnade tanken om att “kopiera” mänskliga förmågor som kreativitet, självförbättring och användning av språk. Detta adresseras inte i något av de andra områdena som exempelvis reglerteknik.

En ytterligare anledning till att AI blev ett eget område är på grund av metodiken. AI är en tydlig gren av datavetenskap och är det enda området som försöker bygga maskiner som ska fungera autonomt i komplexa och föränderliga miljöer (Russel & Norvig, 2016).

4.2.1 Stora förväntningar, 1952–1962

Åren 1952–1969 var fyllda av framgångar för AI-forskningen på ett begränsat sätt. Framgångarna var begränsade på så sätt att datorerna och programmeringsverktygen på den tiden var väldigt primitiva.

Bara några år innan sågs datorer som något som endast kunde utföra räknelära och matematik. Därav var det relativt häpnadsväckande när datorn kunde producera något som kunde liknas vid “smart”.

Newells och Simons tidiga framgång följdes upp av ett nytt program vid namn General Problem Solver, eller GPS. Till skillnad från Newells och Simons program var GPS till en början designat för att kunna imitera människors problemlösnings redogörelser. Förutom de begränsade antalen pussel som programmet kunde lösa, så visade det sig att programmets tillvägagångssätt var väldigt likt sättet som

(20)

14

människor hanterade samma problem på. Denna typ av resonemang och prioritering av “egenskaper”

ledde även till framväxten av The cognitive modelling approach. GPS-programmet satte exempelvis upp liknande delmål för sig själv när den skulle lösa ett pussel, väldigt likt de delmål som människor sätter på samma problem. På grund av detta blev GPS-programmet förmodligen det första programmet att omfamna det “mänskliga tänkandet” attityden (Russell & Norvig, 2016). Framgången som GPS samt efterföljande program och modeller förde med sig ledde till att Newell och Simon formulerade den kända “physical symbolsystem” hypotesen. Hypotesen lyder “Ett fysiskt symbolsystem har de essentiella och tillräckliga medlen för att kunna utföra generella intelligenta handlingar”. Det Newell och Simon menar med denna hypotes är att ett system, människa som maskin, påvisar intelligens genom att tolka och manipulera datastrukturer som är bestående av symboler. Denna hypotes blev sedan ifrågasatt från fler olika håll (Russell & Norvig, 2016). Under ungefär samma tidsperiod designade Turing “The Turing Test” för första gången. Det som dessa två program och tester visar är att AI under den här tiden sågs som något åt det mer robotiserade hållet. Man ville helt enkelt få maskiner att efterlikna människors sätt att tänka, resonera och lära sig samt att lära maskiner att göra mänskliga uppgifter. Denna uppfattning av artificiell intelligens verkar vara en gemensam nämnare hos dåtidens forskare. Huvudmålet var att bevisa att en dator kan göra fler saker än vad man säger åt den att göra.

Trots de teknologiska begränsningarna och de höga kostnaderna för att använda datorer skapades det ständigt olika AI program som gav stöd till den uppfattningen.

4.2.2 En reality check, 1966–1973

AI-forskare var i början väldigt glada för att göra publika förutsägelser om deras framtida framgång.

Forskaren Herberts Simon förutspådde att inom 10 år kommer en dator att vara schackmästare vilket visade sig stämma relativt väl. Enda skillnaden mellan Simons förutsägelse och verkligheten är att det i själva verket tog 40 år istället för 10. Hans optimism var förståelig då den grundar sig i de lovande resultaten av de tidiga AI-systemen (Russell & Norvig, 2016).

Däremot visade det sig att i nästan alla fall misslyckades dessa system när de testades i ett mer komplext sammanhang och fick möta svårare utmaningar. De första svårigheterna som uppstod var på grund av att de tidigaste programmen inte visste något om sina ämnen. De lyckades endast på grund av enklare manipulationer av syntax. Ett tydligt exempel på detta problem påvisas i den typiska “berättelsen” som inträffade under det tidiga stadiet av maskinöversättning. Under detta projekt ville man påskynda översättningen av ryska vetenskapliga dokument inför Sputnik uppskjutningen 1957. Tanken var att programmet skulle ersätta ryska ord till engelska med hjälp av ett elektroniskt lexikon. Programmet hade även enklare syntaktiska transformationer baserat på den ryska och engelska grammatiken. Man trodde att detta skulle räcka för att bevara meningarnas exakta mening. I själva verket kräver en korrekt översättning att det finns bakgrundskunskaper som kan reda ut tvetydigheter och oklarheter för att fastställa meningens innehåll (Russell & Norvig, 2016). I denna historia blev översättningen inte korrekt och någorlunda komisk, just på grund av att programmet saknade kunskaperna som krävs för att kunna göra en bra och pricksäker översättning i kontrast till meningens riktiga innehåll. Meningen “the spirit is willing but the flesh is weak” översattes till “the vodka is good but the meat is rotten” vilket speglar de beskrivna problemen på ett bra sätt. Dessa problem ledde till att den statliga finansieringen av maskinöversättning stoppades helt i USA, då resultaten uteblev.

En ytterligare svårighet som AI-forskningen stötte på var det svårhanterliga i problemen som AI:n försökte lösa. De tidiga AI programmen löste problem genom att testa olika kombinationer av tillvägagångssätt tills lösningen hittats. Denna strategi fungerade väl till en början på grund av att problemsituationerna bestod av väldigt få objekt. Detta ledde till att det endast fanns ett väldigt

(21)

15

begränsat antal handlingar som kunde exekveras vilket i sin tur ledde till väldigt korta lösningssekvenser. För att kunna skala upp till större problem behövde man större minne och snabbare hårdvara. Detta tankesätt ändrades när “theory of computational complexity” utvecklades (Russell &

Norvig, 2016).

Russel & Norvig beskriver en tredje svårighet som uppstod på grund av några fundamentala begränsningar i grundstrukturerna som användes för att generera intelligent beteende. Minsky och Paperts bok “Perceptrons (1969), perceptroner är en enkel form av ett neuralt nätverk som hjälper en AI att lära sig saker”, bevisade att en perceptron kan lära sig allt som den kan presentera. Däremot fanns det många begränsningar i vad den kan presentera. Russell & Norvig (2016) skriver vidare att en “two- input” perceptron inte kan tränas för att känna igen när dem två olika inputen är olika. Trots att deras resultat inte kunde appliceras på mer komplexa nätverk med fler lager började finansieringen av neurala nätverk minska till nästintill 0. Dessa svårigheter och enkla problemlösningar grundar sig i det rationella tänkandet “The Laws of Thought” approachen. Man skapade maskiner för att kunna lösa problem som redan hade en given och logisk slutsats. När man då stötte på svårare och mer komplexa problem var

“approachen” relativt problematisk. Detta tyder på att människan la stor tillit till maskinens förmåga att kunna lösa mer komplexa problem som människor själva hade svårigheter med. Teknologins utvecklingsstadie vid denna tidpunkt var inte tillräckligt utvecklad för att arbeta med mer storskaliga problem utan var endast lämpade till mer simpla problem med logiska tillvägagångssätt.

4.2.3 Kunskapsbaserade system, 1969–1989

Efter det första årtiondet av AI-forskning hade man en bild av att problemlösning, generellt sätt, baserades på att sökmekanismer försöker väva ihop elementära resonemang för att hitta hela lösningar.

Denna och liknande approacher kallas för svaga metoder, “weak methods”. Russell & Norvig (2016) förklarar att de kallas för svaga metoder eftersom de generellt sätt inte klarar av större och/eller mer komplexa probleminstanser. Substitutet för weak methods är att använda mer kraftfulla och domänspecifika kunskaper som tillåter större resonemang steg och som enklare kan hantera typiska fall i nischade expertisområden.

Forskarna Ed Feigenbaum, Bruce Buchanan och Joshua Lederberg omfamnade den nya approachen och gick ihop för att försöka tackla problemet. De startade DENDRAL programmet som de utvecklade på Stanford. Programmets betydelse var väldigt stort eftersom det var det första kunskapsbaserade systemet. Systemets expertis grundade sig i väldigt många speciella regler i form av “if” satser.

Efterföljande system omfamnade samma strategi, det vill säga att separera kunskapen, med hjälp av regler, från de “tänkande” komponenterna (Russell & Norvig, 2016). Feigenbaum och andra forskarkollegor från Stanford påbörjade därefter ett nytt projekt kallat HPP. Syftet med projektet var att undersöka i vilken utsträckning den nya metodiken av expertsystem kan appliceras på andra mänskliga expertisområden. Feigenbaum, Buchanan och Dr. Edward Shortliffe utvecklade MYCIN som skulle kunna utföra medicinska diagnoser. Programmet var expert på att diagnostisera blodinfektioner och hade cirka 450 regler att följa. Med hjälp av dessa regler kunde programmet prestera lika bra som experter inom området och bättre än yngre läkare.

MYCIN hade två primära skillnader jämfört med DENDRAL. Till skillnad från DENDRAL fanns det ingen generell teoretisk modell som MYCIN kunde härleda regler ifrån. Reglerna hade formats efter intervjuer med experter inom området. Experter som i sin tur hade fått kunskapen från läroböcker, andra experter och sina egna erfarenheter. Den andra skillnaden var att reglerna var tvungna att reflektera för osäkerheten som associeras med medicinsk kunskap. På grund av detta var man tvungna att införa en

(22)

16

kalkyl av osäkerheter som kallades för säkerhetsfaktorer. Dessa faktorer användes för att programmet skulle kunna göra en snarlik bedömning av bevisens effekt på diagnosen. Det vill säga för tolkningen av själva diagnosen (Russell & Norvig, 2016).

4.2.4 AI blir en industri, 1980-nutid

Det första kommersiella expertsystemet kallas för R1 och sätter i drift på Digital Equipment Corporation (DEC). Programmet hjälpte företaget att sammanställa ordrar för nya datorsystem. 1986 hade programmet hjälpt företaget att spara cirka 40 miljoner dollar om året och vid 1988 hade företaget 40 expertsystem implementerade samtidigt som man hade fler på ingång. Nästan alla stora företag i USA hade sin egen AI grupp där man antingen redan hade expertsystem implementerade eller undersökte möjligheterna för att implementera ett (Russell & Norvig, 2016).

År 1981 offentliggjorde Japan sitt Fifth Generation projekt som var en 10 årsplan där man ville bygga intelligenta datorer med hjälp av programspråket Prolog. USA skapade i sin tur Microelectronics och Computer Technology Corporation (MCC) som svar på Japans offentliggörande. Dessa organisationer designades för att säkerställa en god nationell konkurrenssituation. I båda fallen var AI en viktig del i en annars bred ansträngning. Även i Storbritannien började man återigen finansiera i AI forskning.

Däremot nådde man inte, i något av dem tre länderna, dem högt uppsatta och ambitiösa målen. AI industrin gick från att vara en industri värt några miljoner dollar till en miljardindustri där hundratals företag försökte bygga expertsystem, robotar, mjukvara och hårdvara. Kort därefter kom en period känd som “AI vintern” där många företag gick under då de inte lyckades leverera och hålla sina löften (Russell & Norvig, 2016).

4.2.5 Intelligenta agenter, 1995-nutid

De stora framstegen ledde till att forskare började studera teorin om intelligenta agenter. Allen Newell, John Laird och Paul Rosenblooms arbete på SOAR är det mest kända och bästa exemplet för en komplett agent arkitektur och struktur. En av de absolut viktigaste miljöerna för en intelligent agent är internet. AI-system har blivit väldigt vanliga i webbaserade applikationer och AI teknologi ligger bakom många av de internetverktyg som finns idag. Exempelvis sökmotorer, rekommendation funktioner m.m.

En konsekvens av att försöka skapa intelligenta agenter är att tidigare isolerade delområden i AI behöver omorganiseras när resultaten ska knytas samman. För att illustrera vad som menas skriver Russell &

Norvig (2016) att det är allmänt känt att sensoriska system, till exempel röstigenkänning, inte kan leverera 100% träffsäker och pålitlig information om omgivningen. Därav måste planering och resonemangssystemen kunna hantera osäkerheter. En annan stor konsekvens av agent perspektivet är att AI har dragits allt närmre andra områden som reglerteknik och ekonomi. Senaste framstegen vad gäller självkörande bilar har framkommit ur en blandning av olika strategier, till skillnad från tidigare då man endast följde en. Det är alltså ur denna period som den rationella data-agent strategin växte fram och kom att bli nästa stora del inom artificiell intelligens

Trots framgångarna uttryckte några av de inflytelserika grundarna av AI sitt missnöje med AI:ns utveckling. De menar att AI borde lägga mindre vikt vid att skapa förbättrade versioner av applikationer som är bra på en specifik uppgift, som exempelvis spela schack eller köra bilar. De menar att AI:n borde återvända till sina rötter och sträva efter att skapa maskiner som kan tänka, lära och skapa. Detta kallar de för “human-level AI. Denna typ av insats kräver väldigt stora och breda kunskapsbaser.

(23)

17

4.3. Artificiell Intelligens idag och dess generella uppfattning

Den artificiella intelligensens utveckling under de senaste generationerna framstår som väldigt fascinerande och har fått allt större betydelse för varje decennium som gått. Det är ingen tvekan om att det idag och i framtiden får ett större inflytande inom innovation samtidigt som det skapar nya möjligheter, både för individen och entreprenöriella företag. Fast & Horvitz (2016) förklarar att experterna förutspår att smart maskiner i framtiden kommer att handleda studenter, bistå kirurger samt köra bilar med säkerhet. Däremot har forskare en ökad oro kring datorer, röstigenkänning och robotik på grund av den hastiga farten den teknologiska utvecklingen rör sig i. De fruktar att den artificiella intelligensens teknologi kommer att ersätta mänskliga arbetare, robotisera krigföring och enklare utveckla hänsynslös övervakningsteknik (även känt för Orwellian surveillance).

De två visionerna kring AI är utdrag som har publicerats på den amerikanska dagstidningen New York Times och har framställts som optimistiska och pessimistiska synvinklar. Dessa synvinklar har däremot ändrats med jämna mellanrum sedan den artificiella intelligensens uppkomst. “AI inom vården” och

“bristande kontroll över AI” är mer förekommande ämnen idag än vad det var förr, medans “AI gör inte tillräckligt med framsteg” eller “AI kommer ha en positiv påverkan på våra jobb” talades mycket mer om förr i tiden än vad det gör idag.

Fast & Horvitz (2016) har i sin artikel tagit fram olika mått i både hur engagerade människor är kring AI (hur omdiskuterat det är och hur intresserade folket är kring ämnet) och ifall de ser AI ur en optimistisk eller pessimistisk synvinkel. Författarna gjorde dessutom en lista över typiska förväntningar och otrygghetskänslor som människor har på AI vilket presenteras nedan.

Förväntningar:

- Påverkan på jobb

- AI underlättar människors arbete eller till och med emanciperar oss från att jobba överhuvudtaget, genom att exempelvis hantera våra scheman, automatiserar varierande sysslor med hjälp av robotar med mera.

- Utbildning

- AI optimerar studenters inlärningsprocess, genom exempelvis automatiserad handledning och betygsättning, eller tillför andra former av personliga analyser.

- Transport

- AI möjliggör nya transportmedel, som exempelvis självkörande bilar eller avancerade rymdfärder.

- Sjukvård

- AI optimerar människors hälsa och välmående, genom att exempelvis bistå med diagnoser, upptäcka nya läkemedel eller möjliggöra personlig medicin.

- Beslutsfattande

- AI eller expertsystem hjälper oss att fatta bättre beslut, genom att exempelvis planera ett möte eller underlättar ett fallbaserat resonemang för företagsledare.

- Underhållning

- AI tillför glädje genom underhållning, exempelvis genom smartare fiender i TV-spel.

- Singularitet

- En potentiell singularitet medför positiva fördelar till mänskligheten, exempelvis genom odödlighet.

- Förenandet av människor och AI

(24)

18

- Människor förenas med AI genom exempelvis robotiserade lemmar för de med funktionshindrade eller positiva diskussioner gällande en potentiell uppkomst av transhumanism.

Otrygghetskänslor:

- Brist på kontroll

- Människor förlorar kontrollen över mäktiga AI system, som exempelvis Skynet eller

“Ex Machina” scenarion.

- Påverkan på jobb

- AI ersätter människors jobb, som exempelvis leder till en storskalig arbetslöshet hos den vanliga arbetaren.

- Militära applikationer

- AI dödar människor eller leder till instabilitet och krigföring genom militära applikationer, exempelvis via robotiserade soldater, mördar drönare m.m.

- Brist på lämplig etik

- AI saknar etiskt resonemang vilket leder till negativa utfall, som exempelvis förlust av människoliv.

- Brist på framsteg

- AI:ns utveckling är långsammare än vad man förväntat och har därför lett till exempelvis ej uppnådda förväntningar likt det som ledde till “AI vintern” (vilket var en period av reducerad finansiering och ett minskat intresse av forskningen kring artificiell intelligens).

- Singularitet

- Singulariteten är sårbart för människan, då människor exempelvis kan bli ersatta eller dödade.

- Förenandet av människor och AI

- Människor förenas med AI på ett negativt sätt, genom exempelvis cyborg soldater.

När det kommer till människors engagemang kring AI förklarar Fast & Horvitz att de genomförde en undersökning för att se hur många publicerade artiklar på New York Times som berörde AI-området de senaste 30 år. Mellan 1985–1995 fick ämnet en betydlig mindre relevans, vilket säkerligen beror på AI vintern som förekom år 1987 och antalet artiklar gällande AI publicerade av New York Times under denna period reduceras drastiskt. Däremot, cirka 15 år senare (2009), ökade antalet AI-artiklar dramatiskt, varav anledningen till detta är oklart men förekom samtidigt som en renässans i användningen av neurala nätverk inom naturligt språk och perceptuella applikationer. Under denna period ökade människors intresse kring AI, samtidigt som både optimismen och pessimismen esklareda.

Så som det är enkelt att visa uppskattning för AI teknologins utveckling då det blir allt vanligare, kan folket likaväl visa oro för förändringar de inte kan kontrollera. Artiklarna som publicerats på New York Times under de senaste 30 åren visar däremot en betydligt större optimism än pessimism gällande AI, nästan två till tre gånger större. Det är en mellanskillnad som varierat flitigt för varje år som gått, men optimismen har däremot alltid legat på en högre nivå och har under senaste tid kommit undan pessimismen allt mer (se figur 1).

References

Related documents

En ny metod att spåra upp och behandla diabetiker med ögon- komplikationer beräknas till ca 35 milj kr för hela landet.. Det skall sättas i relation till de ca 155 milj

Artificial Neural Network, Convolutional Neural Network, Hyperparameter tuning, Single Shot Detection, Embedded Machine Learning, Python, Grid search, Random search,

En leverans från projektet Strategi och grund för övervakning av anläggning är rapporten Big Data och kvalificerad analys/AI i tillgångsförvaltningen (1) där detta dokument är en

International Journal of Early Years Education 2007 International journal of philosophical studies 2006 International Journal of Science Education 2006. Journal of Applied

We understood that the main barrier keeping AI neglected is the technical expertise needed in computer science and statistics to fully work with the technology.. This makes

We run our training data through different machine learning algorithms: Random Forest, K-Nearest Neighbor, Naive Bayes, Multilayer Perception (MLP), Gradient Boosting Trees,

The goal of the design process was to design the feature according to the guidelines, and to test it with users of Pipedrive to see whether they can understand, trust and

Jag kan i min studie som handlar om att analysera hur AI diskuteras i fackpressen, se att majoriteten av artiklar som publiceras och diskuteras på computersweden.idg.se är