• No results found

AI - ett framtida verktyg för terrorism och organiserad brottslighet?: En framtidsstudie

N/A
N/A
Protected

Academic year: 2022

Share "AI - ett framtida verktyg för terrorism och organiserad brottslighet?: En framtidsstudie"

Copied!
55
0
0

Loading.... (view fulltext now)

Full text

(1)

IT-forensik och informationssäkerhet 180 hp

AI - ett framtida verktyg för terrorism och organiserad brottslighet?

En framtidsstudie

Digital forensik 15 hp

Halmstad 2021-06-09

Gustav Lindström och Ludvig Lerbom

(2)

AI - ett framtida verktyg för terrorism och organiserad brottslighet?

En framtidsstudie

Författare: Gustav Lindström och Ludvig Lerbom Handledare: Urban Bilstrup

Examinator: Eric Järpe

Högskolan i Halmstad Juni 2020

(3)

i

Abstract

This paper explores the future of Artificial Intelligence (AI) and how it can be used by organised crime or terrorist organisations. It explores the fundamentals of AI, its history and how its use is affecting the way police operate. The paper shows how the development rate of AI is increasing and predicts how it will continue to evolve based on different parameters. A study of different types of AI shows the different uses these systems have, and their potential misuse in the near future. By using the six pillars approach, a prediction concerning AI and the development of Artificial General Intelligence (AGI) is explored, and its ramifications to our society. The results show that in a world with AGI, AI-enabled crime as we know it would cease to exist, but up until that point, the use of AI in crime will continue to impact our daily lives and security.

Denna uppsats undersöker framtiden för AI och hur den kan användas av organiserad brottslighet eller terroristorganisationer. Den utforskar grunderna för AI, dess historia och hur dess användning påverkar polisens verksamhet. Uppsatsen visar hur utvecklingshastigheten för AI ökar och förutsäger hur den kommer att fortsätta utvecklas baserat på olika parametrar. En studie av olika typer av AI visar de olika användningsområdena dessa system har och deras potentiella missbruk inom en snar framtid. Genom att använda metoden sex pelare undersöks en förutsägelse om AI och utvecklingen av Artificiell Generell intelligens (AGI) och dess konsekvenser för vårt samhälle. Resultaten visar att i en värld med AGI kommer AI-aktiverad brottslighet som vi vet att den skulle upphöra att existera, men fram till den tiden kommer användningen av AI i brottslighet att fortsätta att påverka vårt dagliga liv och säkerhet.

(4)

ii

Nyckelord

AI Artificial intelligence

AGI Artificial general intelligence HLMI Human-level machine intelligence ANI Artificial narrow intelligence SAI Super artificial intelligence ML Machine learning

DL Deep learning

Spamfilter Mjukvara för att filtrera bort exempelvis oönskade mejl.

(5)

iii

Innehåll

1 Introduktion/Bakgrund ... 1

1.1 Definitioner av AI ... 2

1.2 Syfte ... 4

1.3 Relaterad forskning ... 4

1.4 Frågeställning ... 5

1.5 Positionering ... 5

1.6 Problematisering av frågeställning ... 6

1.7 Avgränsning ... 6

2 Metod ... 7

2.1 Positionering av metod ... 8

2.2 Alternativ metod ... 8

2.3 Problematisering av metod ... 9

3 Teori ... 10

3.1 Organiserad brottslighet ... 10

3.2 Terrorism ... 11

3.3 Olika typer av AI och dess användningsområden ... 13

3.3.1 Snäv AI (ANI) ... 13

3.3.2 Maskininlärning ... 14

3.3.3 Djupinlärning ... 14

3.3.4 Artificiell generell intelligens och Superintelligens ... 15

4 Resultat ... 17

4.1 AI genom historien ... 17

4.2 Aktuell användning av AI... 20

4.2.1 Snäv AI ... 20

4.2.2 Maskininlärning ... 21

4.2.3 Djupinlärning ... 22

4.2.4 Svagheter med AI inom utredningar ... 22

4.2.5 Brottsliga handlingar med AI ... 24

4.3 AI i framtiden ... 25

4.3.1 Allmän utveckling av AI ... 25

4.3.2 Utvecklingen avstannar ... 26

4.3.3 Moores lag ... 27

4.3.4 Oändligt utvecklande AI ... 30

4.3.5 Projektion för när AGI blir verklighet ... 31

4.4 Projektion för framtida brott som använder snäv-AI ... 32

(6)

iv

4.4.1 Deep fakes i realtid ... 32

4.4.2 Autonoma bilar som vapen ... 34

4.4.3 Störa AI drivna system ... 34

4.4.4 Militära robotar ... 35

4.4.5 Lura och undvika detektion av AI system ... 35

5 Diskussion ... 36

5.1 Etiska aspekter ... 37

6 Slutsats ... 38

Referenser ... 41

(7)

v

Tabellförteckning

Tabell 1: Historiska definitioner av AI ... 3 Tabell 2: Historiska milstolpar inom AI ... 19

(8)

1

1 Introduktion/Bakgrund

Artificiell intelligens eller AI, används i allt större utsträckning i det moderna samhället och tillämpningarna av tekniken är lika varierade som definitionen själv. Denna teknik finns överallt omkring oss, och även om det inte är uppenbart, kommer de flesta i kontakt med AI dagligen. Eftersom tekniken är vidsträckt och dess användningsområden avsevärt allsidig, blir frågan vad AI är, en inte alltid enkel sak att definiera. Gränsen för när en vanlig dator slutar och ett artificiellt intelligent system börjar är oklar i många fall. En indikation på detta är en efterfrågan av en definition för vad AI är och var denna gräns går från den amerikanska kongressen. Försvarsministern har ännu inte uppfyllt denna förfrågan [1].

AI har använts i många år i militära sammanhang [1], men denna teknik som tidigare varit reserverad till företag och organisationer med tillgång till omfattande resurser, har börjat leta sig ner till en mer allmäntillgänglig punkt. Tekniken används i till exempel nyare bilar och smarta apparater som mobiltelefoner [2]. Denna vidspridda tillgång på intelligenta system som i vissa fall är självutvecklande, har bidragit till stora förbättringar i levnadsstandard för de som använder tekniken. Forskning som görs i ämnet väljer ofta att lyfta positiva aspekter med AI och dess användning, och med all rätt. Det är ett fantastiskt och allsidigt verktyg för samhället som underlättar, och förenklar många svåra eller tidigare omöjliga uppgifter. I samband med att tekniken blir enklare att använda och dess tillgänglighet ökar, och inte längre är limiterad till stora organisationer, blir även möjligheten att använda tekniken för att begå brott större.

Att kartlägga en individs beteendemönster kräver idag mycket resurser och noggrann kartläggning av individens rutiner. Med hjälp av AI, kan denna typ av undersökning bli markant enklare att utföra. Program som analyserar den data vi, ofta omedvetet, delar med oss av när vi använder våra smarta produkter och internet existerar redan. Riktad reklam är en simpel form av detta. Genom att undersöka och analysera vilka hemsidor användaren besöker och vilka typer av bilder eller länkar individen är mest trolig att trycka på, skräddarsys reklamen för att skapa så stort engagemang hos användaren som möjligt. Om denna teknik blir tillräckligt sofistikerad så att den går att användas av enskilda individer, kan det potentiellt får stora konsekvenser för hur AI används [3].

Denna uppsats ämnar undersöka och försöka förutspå hur AI kan användas i framtiden. Målet är att utforska potentiella risker och konsekvenser med att organiserad brottslighet och terroristorganisationer anammar och använder AI, för att i framtiden begå nya typer av brott.

(9)

2

1.1 Definitioner av AI

Det är svårt att definiera artificiell intelligens på ett enkelt och robust vis, Wolfgang Ertel [4]

menar att de associationer människan har med orden ”intelligens” och ”artificiell” bidrar till detta. Han gör i sin bok ”Introdcution to Artificial Intelligence”, ett försök genom att läsa och analysera historiska definitioner av AI. Den första definitionen lyder i breda termer:

”The goal of AI is to develop machines that behave as though they were intelligent”

Enligt denna definition är alltså målet med AI att skapa maskiner som beter sig som om de vore intelligenta, och det finns en smula sanning i detta. Problemet uppstår dock om man tänker sig en robot eller maskin, som exempelvis är programmerad att undvika att krocka med en vägg.

Maskinen ser ut att bete sig intelligent, men följer bara enkla, förprogrammerade parametrar för att skapa illusionen av intelligens. Alan Turing skapade 1950 ett test som kom att kallas

”Turing testet”, det är praktiskt test för datorintelligens. Experimentet är utformat för att undersöka om en maskin kan bete sig som en människa eller inte. I testet intervjuas en person och en dator av en förhörsledare, som ska försöka avgöra om subjekten är mänskliga eller inte.

För att imitera intelligens på ett trovärdigt vis måste ett AI system därför kunna klara av Turing testet [5]. Denna definition av AI är därför något bred, och omfattar system och maskiner som endast härmar intelligent beteende. En annan definition Wolfgang Ertel [4] väljer att undersöka i samma kapitel är skriven av Elaine Rich, och lyder:

”Artificiall Intelligence is the study of how to make computers do things at which, at the moment, people are better”

Ertel menar att detta är precis vad forskare kring ämnet har försökt göra dom senaste 50 åren, och att denna definition kommer vara aktuell även långt in i framtiden. Denna definition fångar definitivt vad AI försöker göra och uppnå. Den gör dock inte mycket för att skapa klarhet kring AI och vad det är eller kanske borde vara. Om man istället ser till framtiden och tänker sig det ultimata AI systemet, så är det inte bara något som härmar intelligens eller beter sig som om det vore intelligent. Istället är systemet nog avancerat att simulera ett medvetande, känslor och självmedvetenhet. Ett argument kan göras för att när simulationen uppnått dessa milstenar, att systemet slutar bli en simulation styrt av ett system, och istället skulle kunna klassas som ett liv. Spekulationer kring var denna gräns går, och vad det skulle kunna få för konsekvenser, är väl utforskade i science fiction-böcker och andra publikationer, och faller utanför vad denna uppsats har valt att undersöka. Istället utforskas definitionen ur ett historiskt perspektiv för att skapa insikt i hur AI kan definieras och vad det faktiskt är.

(10)

3 Definitioner av AI

System som tänker som människor

”The automation of activities that we associate with human thinking, activites such as decision making, problem solving and learning.”

---Bellman, 1978

System som beter sig som människor

”The art of creating machines that preform functions that require intelligence when preformed by people”

---Kurzweil, 1990 System som tänker rationellt

”The study of computations that make possible to percieve, reason and act”

---Winston, 1992

System som beter sig rationellt

”The branch of computer science that is concerned with the automation of intelligent behavior.”

---Luger and Stubbfield 1993 Källa: [1]

Tabell 1: Historiska definitioner av AI

I tabell 1 nämns fyra definitioner som har olika förutsättningar och olika resultat när man pratar om AI. Även om inga av dessa är oanvändbara, saknas en definition som omfattar all typ av AI, och fortfarande är aktuella när vissa system enbart uppvisar tecken på intelligens och borde därför inte klassas som intelligenta, eller kallas AI.

Den amerikanska regeringen har gjort ett försök till att ge en allmän definition av AI som presenteras i Sektion 238 av ”FY2019 National Defense Authorization Act”, (NDAA), och lyder [1]:

1. Any artificial system that performs tasks under varying and unpredictable circumstances without significant human oversight, or that can learn from experience and improve

performance when exposed to data sets.

2. An artificial system developed in computer software, physical hardware, or other context that solves tasks requiring human-like perception, cognition, planning, learning,

communication, or physical action.

Tidigare nämnda definitioner förefaller sig användbara i olika situationer med olika förutsättningar, och för att definiera AI krävs det en analys av det specifika systemet och användningsområdet. Det är värt att nämna att det inte finns en universell accepterad definition för vad AI är och hur den distinktionen ska göras. Ett problem som uppstår när en definition ska göras, är den konstanta utvecklingen av lösningar med hjälp av AI och hur föränderlig

(11)

4 tekniken är. Ett exempel på detta är de algoritmer som används för att analysera stora mängder data och system. Uppfattningen av vad som är AI och inte, skiftar under denna process. Ett problem som kräver en ny lösning refereras ofta till att använda AI för att utveckla en ny algoritm eller lösning. Men när problemet är löst och implementerat blir det en del av den vanliga datahanteringsprocessen. Systemet anses alltså vara ”AI” innan problemet är löst, men behåller inte termen efter implementering [1].

1.2 Syfte

Som nämnts i introduktionen är det inte längre endast stora företag och statliga organisationer som har möjligheten till att använda AI. De senaste åren har AI blivit allt mer tillgänglig för individer och mindre företag. Det som håller på att ske är alltså en demokratisering av AI. Med detta i åtanke finns det dock en risk att tekniken kan användas för att inte endast utreda och förutse brott, utan även för att underlätta till att begå brott. Syftet med detta arbete är därför att utreda hur AI kan användas av brottsbekämpande myndigheter, samt hur AI kan användas av organiserad brottslighet och terroristorganisationer i framtiden.

1.3 Relaterad forskning

Caldwell et al. diskuterar i rapporten ”AI-enabled future crime” hur AI kan användas för att begå flera olika sorters brott i framtiden [3]. Författarna till denna rapport utför en workshop där deltagarna får diskutera och rangordna riskerna och hoten som specifika AI-baserade brott kan utgöra. McKendrick skriver i sin rapport ”Artificial Intelligence Prediction and Counterterrorism” om hur AI kan tillämpas på olika sätt för att förutspå och förhindra terrorism, och de möjligheter och risker som medföljer [6]. Vidare nämner Ganor i sin artikel

”Artificial or Human: A new Era of Counterterrorism Intelligence?” för- och nackdelarna samt rekommendationer om hur AI ska tillämpas inom terrorismbekämpning [7]. Den amerikanska myndigheten Congressional Research Service (CRS) har publicerat rapporten ”Artificial Intelligence and National Security” där författarna går igenom hur AI kan vara till hjälp för amerikanska intressen samt den nationella säkerheten [2].

Det finns flera forskare som försöker att diskutera och utforska hur AI kan påverka samhället i framtiden. En av dessa forskare är Max Tegemark som utforskar i sin bok ”Life 3.0: Being Human in the Age of Artificial Intelligence”, historien bakom AI och hur samhället ska förhålla sig till denna teknik, samt säkerheten kring ämnet i både en nära och avlägsen framtid. Genom att ta fram olika framtidsscenarion vill han uppmana till diskussion och uppmana läsaren till att bilda en egen uppfattning om vilken framtid den vill leva i [8]. I samma stil försöker forskaren Nick Bostrom i sin bok ”Superintelligence: Paths, Dangers, Strategies” utforska hur

(12)

5 den teknologiska utvecklingen av AI kan leda till superintelligens. Han utforskar, likt Tegemark, olika framtidsscenarion när AI-tekniken har uppnått superintelligens. Med termen superintelligens menar Bostrom att tekniken har möjlighet till att överskrida det mänskliga intellektet. Han listar tre undertyper av superintelligens där tekniken övergår till att bli snabbare, effektivare och möjligheten till ett större informationsutbyte i jämförelse med människan [9].1

1.4 Frågeställning

Detta arbete kommer att utgå från två grundfrågeställningar som kommer att utforskas och även en huvudsaklig frågeställning. De två första grundfrågeställningarna är till för att få en grundlig förståelse för AI och vilka möjligheter och hinder denna teknik kan ha inom detta område. De två grundfrågeställningarna lyder:

1 Hur används AI för att motarbeta organiserad brottslighet och terrorism?

2 Vilka för och nackdelar finns det med att använda AI för att bekämpa organiserad brottslighet och terrorism?

För att bidra till det aktuella forskningsläget har vi valt huvudfrågeställningen som detta arbete ska besvara:

Hur kan AI användas i framtiden som ett verktyg av organiserad brottslighet och terrorism?

1.5 Positionering

Detta arbete kommer att utforska hur AI i framtiden kan användas i praktiken för både brottsbekämpande myndigheter samt kriminella. Det som skiljer denna uppsats gentemot de andra inom detta forskningsområde, är att detta arbete kommer att undersöka de specifika brottsgrenarna organiserad brottslighet och terrorism. Den relaterade forskningen inom detta ämne, exempelvis Caldwell et al. [3], tar upp enskilda specifika brott som AI i framtiden kan ligga till grund för. Något som sällan undersökts är hur AI kan användas som ett verktyg av kriminella grupper. I relation till de stora framtidsstudierna om AI, exempelvis Tegemarks Life 3.0 och Bostroms Superintelligence, och dess framtida roll i samhället, kommer detta arbete att utforska ett smalare användningsområde för AI.

(13)

6

1.6 Problematisering av frågeställning

Brott som begås av terroristorganisationer och i många fall organiserad brottslighet är på grund av sin natur, känsliga ämnen. Detta för att den typ av brott som karaktäriserar dessa två grenar, ofta innefattar exempelvis mord och trafficking. Även kartläggningen av grupper eller personer som utför dessa brott måste hanteras på ett varsamt vis. Det kan leda till att information i vissa fall är begränsad i detalj för att skydda pågående brottsutredningar eller ouppklarade fall. Den etiska aspekten är också viktig att ta i beaktning då känsliga personuppgifter, så som religion och politisk ideologi. Vidare kan detta innebära att brottsbekämpande myndigheter inte vill avslöja hur eller om de använder AI för att bekämpa denna typ av brott. Detta kan leda till att det blir svårare att försöka besvara de två grundfrågeställningarna. Den huvudsakliga frågeställningen som detta arbete ska besvara är inte menat för att vara behjälplig för kriminella att utföra brott. Istället är frågan ställd för att uppmana till diskussion när AI faktiskt blir alltmer demokratiserad och tillgängligt för allmänheten. Frågeställningen är något bred, och kan leda till att arbetet försvåras då litteraturstudien kan bli allt för omfattande. Det medför att identifiering av relevant data också blir en mer tidskrävande uppgift.

1.7 Avgränsning

Artificiell intelligens är ett brett område vilket lätt kan bli väldigt tekniskt invecklat. Därför krävs det tydliga avgränsningar för detta arbete. För att undvika att arbetet inte går in på alla de tekniska detaljer gällande AI, kommer endast en övergripande undersökning göras av de tekniker där AI används för brottsbekämpning och potentiella brott. Studien kommer fokusera på AI-systemens olika användningsområden samt resultat i specifika fall. Dessa fall kommer användas som exempel på den tekniska utvecklingen kring AI. Detta ger en klar och tydlig avgränsning som undviker avancerade och tekniska detaljer, men tillhandhåller fortfarande en god översikt av ämnet. Därmed kommer inte heller kvantdatorn och dess potentiella effekt gällande AI att utforskas. Detta för att materialet som existerar kring ämnet är teoretiskt komplext och spekulativt. Arbetet avser att utforska framtida användningar av system som existerar idag, för att skapa en robust grund för framtidsstudien. Eftersom kvantdatorn och dess framtida utveckling är oviss, valdes denna del av AI utvecklingen bort.

(14)

7

2 Metod

För att besvara den uppsatta frågeställningen kommer detta arbete utföras som en framtidsstudie. Framtidsstudien tillåter också en analys och implementation den information som finns tillgänglig. I syfte att besvara frågor som ”Hur ser framtiden ut” eller ”Hur kan AI användas i framtiden…” kommer en litteraturstudie att utföras för att sedan appliceras på framtidsstudien. Målet blir att identifiera och analysera trender för att öka vår förståelse och skapa ett robustare resultat. En analys kommer också göras för att få insikt i förändringsmekanismer och förändringsdrivande krafter. Detta ämnar ge en godare insikt i utvecklingen av AI över tid, för att på ett vetenskapligt sätt, kunna förutspå framtida användningar av AI.

Framtidsstudien kommer att inspireras och grunda sig i ramverket ”The Six Pillars approach”

skapat av Sohail Inayatullah. Denna typ av framtidsstudie är uppbyggt på en process som tillåter att framtiden ifrågasätts på ett strukturerat tillvägagångssätt. Inayatullah har i sin artikel

”Futures Studies: Theories and Methods” sammanfattat dessa sex pelare i frågeform [10].

Dessa frågor kan vara ett stöd för att försöka ge svar på framtiden hos ett visst problem.

Frågorna lyder:

1. Hur ser problemets historia ut? Vägen till den nutida situationen.

2. Hur kan framtiden se ut om nutida trender inom området fortsätter?

3. Vilka gömda antaganden finns för den förutsagda framtiden?

4. Finns det andra alternativ till förutsagda framtiden? Vad kan hända med andra antaganden?

5. Vilken framtid är att föredra?

6. Vilka steg har tagits för att ta reda på nutidsläget?

7. Finns det någon berättelse som kan ge stöd åt en önskad framtid?

De ovanstående frågorna ska vara tänkta att ge inspiration för att kunna genomföra framtidsstudien, samt agera som ett ramverk för att besvara de frågeställningarna rörande framtiden i detta arbete.

(15)

8

2.1 Positionering av metod

Detta arbete kommer att ha sin utgångspunkt i publicerade vetenskapliga artiklar och introducerande böcker inom ämnet AI. Till skillnad från de flesta arbeten och studier som hittills har tagits del av, kommer en del av denna uppsats fokusera på konsekvenserna kring användandet av AI inom brottsutredande syften. Uppsatsen kommer också göra ett försök att förutspå, och identifiera hur AI kan användas för att bryta lagen eller undgå detektering av AI- system. Istället för endast en litteraturstudie blir det då mer relevant att göra en framtidsstudie som komplement, eftersom AI till vår kännedom inte använts i detta syfte ännu. Med hjälp av den metod som valts och den aktuella frågeställningen, skapas en unik position på arbetet som kan bidra till ett nytt perspektiv samt forskningsvärde.

De stora framtidstänkarna inom AI, exempelvis Tegemark och Bostrom, använder liknande metoder för att utforska och spekulera i framtiden. I boken ”Life 3.0: Being Human in the Age of Arificial Intelligence” tar Tegemark avstamp i livets början, till nutid och utforskar flera tusen till miljarder år i framtiden. Under dessa tidsepoker ställer han underfrågor liknande de i

”The Six Pillars Approach” och bygger upp scenarios för att få olika svar på hur framtiden med AI kan komma att se ut. Då detta arbete har för avsikt att utforska kriminella handlingar med hjälp av AI inom organiserad brottslighet och terrorism blir tidsintervallet som undersöks kortare. Istället för flera tusen och miljarder år i framtiden kommer högst ett par hundra år i framtiden att utforskas i denna framtidsstudie.

2.2 Alternativ metod

Metoder såsom experiment hade kunnat utforskas för denna uppsats. Experiment inom AI kan dock vara både tids- och kunskapskrävande. Det kan även vara svårt att undersöka flera olika typer av AI med endast ett experiment. I sådana fall hade flera experiment varit fördelaktigt, vilket landar i det första dilemmat med tid och kunskap. Till ett eventuellt experiment kan det även vara svårt att få tillgång till sofistikerad AI-mjukvara. I flera fall krävs det även tillgång till en stor mängd data för att ge ett godtyckligt resultat. Därför valdes denna typ av experimentmetod bort.

Det finns flera sätt att utföra framtidsstudier. En känd metod där framtiden kan utforskas är den så kallade Delfimetoden. Denna metod går ut på att iterativt ställa frågor anonymt till experter, för att sedan sammanställa svaren och därefter ställa nya följdfrågor. Målet med metoden är att nå konsensus bland gruppen av experter, detta för att få en likvärdig syn på ett visst framtida problem, där inga givna svar finns [11]. Problemet med denna metod, för detta arbete, är att

(16)

9 det inte finns tillgång till en expertpanel att iterativt ställa frågor till. Därför valdes inte Delfimetoden till detta arbete.

2.3 Problematisering av metod

Att på ett vetenskapligt sätt analysera historiska dokument och nutida undersökningar, för att förutspå framtida användningsområden eller utveckling av nya typer av system, är konceptuellt svårt. Det medför att analysen som görs måste kontrolleras, och analyseras rigoröst för att inte övergå i fantasi. Vidare blir då identifiering av trender och förändringsdrivande krafter central för att undersökningen ska lyckas. Undersökningen måste göras utan att dra slutsatser som inte har någon vetenskaplig grund. Med detta sagt, så är en framtidsstudie i sin natur ett moment som är svårt att göra helt vetenskapligt, då det innefattar saker som inte ännu har hänt. För att undvika att hypotesen som skapas faller utanför acceptabla parametrar måste dessa gränser definieras och testas. En avvägning måste göras vid varje steg i formaliseringen av framtidshypotesen. Detta för att slut1resultatet av studien inte faller utanför ramarna för vad analysen av tidigare nämnda trender visar.

(17)

10

3 Teori

3.1 Organiserad brottslighet

Organiserad brottslighet är inget nytt fenomen och har haft sin plats i samhällen världen över under historiens gång. En tidig typ av organiserad brottslighet i Sverige uppkom under första världskriget när ransoner infördes för att reglera alkohol. I detta fall skapade kriminella grupperingar möjligheten till att smuggla och sälja alkohol trots statens förbud [12]. Den organiserade brottslighetens historia slutar inte där, utan har fortsatt utvecklats jämsides med den tekniska utvecklingen. Idag finns det kriminella grupper som enbart använder sig av internet för att utföra brott i ett vinstdrivande syfte. Detta har fått benämningen internet organised crime. Varje år presenterar Europol i sin rapport internet organised crime threat assessment, IOCTA, hur denna typ av organiserad brottslighet ser ut i nutid inom den Europeiska unionen. Ett vanligt exempel på organiserad brottslighet, som är beroende av internet, kan vara grupper som använder sig av verktyg som ransomware eller liknande virus för att i vinstdrivande syfte utpressa sina offer på pengar [13].

2010 gav Brottsförebyggande rådet, BRÅ, tillsammans med Sveriges kommuner och landsting, SKL, ut en handbok för att motverka den organiserade brottsligheten på lokal nivå och som ett försök att sammanfatta den organiserade brottsligheten [14]. Enligt denna handbok är organiserad brottslighet uppbyggt av flera olika sorters brott som utförs av en kriminell grupp i vinstdrivande syfte. Den Europeiska unionen, EU, har ett tydligt fokus på organiserad brottslighet och ser detta som en reell risk för EU:s medlemsländer och medborgare [15]. EU:s definition av en kriminell organisation är publicerat i ett rambeslut från 2008. En kriminell organisation är beskrivet som en grupp, med minst två personer, som tillsammans på ett strukturerat sätt verkar för att begå brott för ekonomisk och/eller materiell vinning [16]. Vidare behöver vissa kriterier uppfyllas för att det ska i sin tur gälla organiserad brottslighet. Dessa kriterier består av 11 punkter, där minst sex av kriterierna måste uppfyllas och fyra av dem är obligatoriska (punkt 1,3,5 och 11) [17].

Lista med kriterier för organiserad brottslighet:

1. Fler än två personer som samarbetar

2. Individuellt utdelade uppgifter åt medlemmar 3. Långsiktigt förhållande

4. Disciplin och kontroll

5. Misstänkt allvarlig kriminalitet

6. Gränsöverskridande/internationell verksamhet 7. Hot genom metoder som våld

(18)

11 8. Har affärsmässiga strukturer

9. Begår penningtvätt

10. Påverkan på myndigheter, media, politik och ekonomi 11. Strävan efter vinst och makt

Det finns flera typer av brott som organiserad brottslighet kan sysselsätta sig med. I Europols senaste rapport ”Serious and Organised Crime Threat Assessment” från 2017 finns det beskrivet vilka slags brott som begås av organiserade brottslingar inom EU idag. Dessa brott utgör allt från förfalskning av valuta, internetbrott, korruption, människohandel och smuggling av narkotika samt vapen [18]. Enligt BRÅ:s handbok kan även brott så som förfalskade kasinospel utgöra en del av den organiserade brottsligheten [14].

I Sverige finns det ett myndighetsöverskridande samarbete mot organiserad brottslighet. Ett skäl till detta är på grund av den varierande typen av olika brott som ingår under organiserad brottslighet. De myndigheter som ingår i detta samarbete är Polismyndigheten, Arbetsförmedlingen, Ekobrottsmyndigheten, Försäkringskassan, Kriminalvården, Kronofogden, Kustbevakningen, Migrationsverket, Skatteverket, Säkerhetspolisen, Tullverket och Åklagarmyndigheten [19].

SOM-institutet utför varje år en undersökning för att kartlägga trender hos det svenska folket.

Flera av deras frågor som ställs handlar om vad svenskar oroar sig för, och därmed bland annat oron för organiserad brottslighet och terrorism. I den senaste undersökningen kunde de se att det finns en ökad oro hos det svenska folket för den organiserade brottsligheten. 55 procent av de tillfrågade har svarat att de är mycket oroade över den organiserade brottsligheten år 2019.

Oron kring detta har succesivt ökat varje år sedan 2015 [20].

3.2 Terrorism

Sedan terrorattentatet mot World Trade Center i USA trappades kriget mot terrorism upp under mitten utav 2000-talet. Dessvärre har även antalet terrorrelaterade dödsfall ökat därefter under denna tidsperiod och till mitten utav 2010-talet. Enligt rapporten Global Terrorism Index, som mäter effekten av terrorism världen över, toppade antalet offer för terrorism 2014 med 33 438.

Sedan dess har antalet gått ner och mängden offer var 2019 uppmätt till 13 826 [21].

Precis som för organiserad brottslighet finns det flera olika definitioner av terrorism beroende på var i världen du befinner dig. Inom EU har det fastställts en gemensam definition på vad som ska räknas som terrorbrott. För att det ska räknas som ett terrorbrott inom EU behöver någon av dessa punkter uppfyllas [22]:

(19)

12

• Sätta skräck i en befolkning.

• Försök till att stoppa ett lands regering eller internationella organisationer från att utföra sitt arbete.

• Förstöra eller destabilisera politiska, grundlagsläggande, ekonomiska eller sociala strukturer i ett land eller internationella organisationer.

Enligt detta rambeslut är det även upp till varje EU-medlemsstat att ta bort eller blockera åtkomst till elektroniskt innehåll, exempelvis terroristpropaganda, som finns lagrat i landet. I Sverige är det Säkerhetspolisen, SÄPO, som har ansvaret att driva det nationella samarbetet mellan svenska myndigheter för att förhindra och förebygga terrorism.

Terroristpropaganda är förekommande i stora delar av internet och på populära sociala medier.

Det finns därför krav på dessa plattformar att ta bort innehåll tillhörande terrorister för att stoppa eventuell rekrytering eller spridning av material. Det europeiska parlamentet vill att större sociala medier skall ta bort denna typ av innehåll inom en timme efter uppmaning av relevanta myndigheter. Det är dock upp till varje plattform att övervaka eller filtrera sådant innehåll, men om det förekommer måste spridning stoppas [23]. Vidare har detta kunnat vara en anledning till att stora sociala medier-plattformar så som Facebook, Youtube och Twitter använder sig till större del av AI för att identifiera olika typer av olämpligt innehåll [24, 25, 26]. Det finns även ett större samarbete mellan dessa plattformar för att minska spridningen av innehåll som härleder till terrorism [27].

Terrorism uppkommer och drivs i egenskap av flera olika anledningar. Några av de största orsakerna till dagens terrorism är på grund av extrema ideologier inom olika politiska och religiösa grupperingar. Ett exempel på detta är den idag krympande terrororganisationen Islamiska staten (IS eller ISIS) som har en extremistisk religiös bakgrund med rötter i mellanöstern. ISIS har därefter spridit sig till andra delar av världen exempelvis Afrika. Den dödligaste terrorgruppen i nutid är, enligt Global Terrorism Index, talibanerna som finns utspridda i mellanöstern [21]. Den senare tiden har även så kallade ”ensamvarg” attacker utförts på olika håll i världen. Det finns flera nutida händelser med ensamvargar där en enskild person begår ett terrorattentat. Oftast drivs dessa personer av en extremistisk ideologi där de agerar på eget bevåg. Denna typ av terrorister har blivit klassat som ett av de största inhemska terrorhoten i USA under 2010-talet [28]. Terrorattentatet i Oslo, Norge, 2011 är ett typexempel på en ensamvargsattack. Ett annat exempel på en sådan attack var terroristattacken i Christchurch, Nya Zeeland, 2019 när en vitmaktextremist attackerade en moské i staden.

(20)

13 Sedan 1980-talet har uttrycket ”cyberterrorism” myntats som ett reellt hot mot det öppna och fria samhället. Med hjälp av internet och den allt mer tillgängliga teknologin kan så kallade

”cyberterrorister” utföra stor skada genom att slå ut samhällsviktiga elektroniska system. Det kan dock vara svårt att särskilja cyberterrorism och de mer vanliga cyberbrotten som exempelvis Denial-of-Service-attacker. Enligt författarna till boken Cyber Crime and Cyber Terrorism Investigator’s Handbook hade det inte skett några tydliga och konkreta cyberterroristbrott med hjälp av internet fram till dess att boken släpptes 2014. Istället fick flera cyberattacker benämningen cyberterrorism av massmedia under 2000-talet [29]. Det finns även en pågående diskussion mellan forskare ifall det ska räknas som cyberterrorism när någon använder internet som ett hjälpmedel eller som ett informations- eller propagandaverktyg. Ett exempel är om teknologi används som ett verktyg till att kommunicera eller hitta instruktioner för att utföra terrordåd [30].

3.3 Olika typer av AI och dess användningsområden

I detta avsnitt ges en ytlig förklaring av några av de vanligaste typerna av AI och dess användning. Varje sektion är medvetet skrivet som en kortfattad samfattning, samt gör breda generaliseringar för att i mån av tid kunna genomföra arbetet.

3.3.1 Snäv AI (ANI)

Stora framsteg har gjorts inom fältet ”Narrow AI” eller ”Artificial Narrrow Intelligence”

(ANI), i översättning ”snäv AI”. Denna typ av AI har en väldigt limiterad kapacitet för det vi skulle kalla för intelligens, och uppvisar endast sådana tendenser inom ett specifikt område.

Exempel på detta är AI inom strategidatorspel, språköversättning, självkörande bilar och bildigenkänning [31]. Systemet är skapat för att klara en specifik uppgift, och behöver därför inte ta i aktning okända variabler eller oförutsedda förändringar i samma mån som ett mer generellt AI system. Detta bidrar till en relativt enkel utvecklingsprocess av systemet och användningsområdena är många. I militära syften används snäv AI bland annat för att styra smarta missiler, eller system i flygplan. Det underlättar en mäng olika moment för piloter, genom att assistera med start och landning, samt målsökning och hundratals andra små detaljer som gör det möjligt för en enskild människa att flyga ett avancerat stridsplan [32].

(21)

14 3.3.2 Maskininlärning

Maskininlärning är ett brett ämne med god möjlighet till fördjupning för den som är intresserad och kan enkelt utgöra innehållet i en hel rapport. Nedan presenteras endast en väldigt ytlig förklaring vad ämnet innebär, och tar inte i akt de olika metoder och system som tillämpas inom området och dess delfält.

Maskininlärning är en typ av AI som med hjälp av stora databanker och matematiska formler skapar lösningar på specifika problem inom givna parametrar. Detta är en teknik som hjälper företag och organisationer att skapa lösningar som tar i akt många fler parametrar än vad en människa skulle klara av. Typen av problem och data som används påverkar vilken typ av lösning som systemet skapar [31,33], vilket gör systemet användbart men något limiterat.

Fördelen med denna typ av system är att antalet parametrar som används för att skapa lösningen kan uppgå i över hundratals miljoner, något som skulle vara omöjligt för en människa att använda för att fatta ett beslut. Detta är väldigt användbart i bland annat system som försöker upptäcka falska inloggningsförsök på websidor eller andra beteenden som anses vara skadliga för organisationen. Det uppstår dock problem med dessa system när man letar efter en bra förklaring varför den lösning som presenteras är en effektiv sådan [31]. Eftersom parametrarna ofta är många så är nödvändigtvis inte lösningen som presenteras den enklaste eller bästa. I maskininlärning är alla beslut som tas grundade i matematiska formler, vilket kan skapa problem om informationen som är tillgänglig är allt för omfattande [33].

3.3.3 Djupinlärning

Djupinlärning (DL) är ett delfält av maskininlärning men är så pass omfattande att den kräver sin egen rubrik. Det är nämligen här det har gjorts de mest imponerande framstegen de senaste åren [31,34]. Djupinlärning eller ”Deep learning” är ett system som i sin grund är inspirerad av hur den mänskliga hjärnan fungerar. Med hjälp av enheter eller ”neuroner” skapas lager för att identifiera eller lösa specifika problem. Ett lager kan exempel användas för att läsa den råa, oarbetade data i en bildfil, för att känna igen enkla mönster. Detta skickas sedan vidare till nästa lager av enheter som vidareutvecklar den framtagna data, denna process upprepas många gånger. Dessa nätverk av enheter kan bestå av många hundra lager som alla genererar nya data som skickas vidare i systemet, och kan i slutändan användas för att känna igen väldigt avancerade mönster. Enligt John P. Holdren och Megan Smith [2], kom framgången med dessa typ av system som en överraskning hos många forskare, och det är på grund av dessa framgångar som djupinlärning har blivit ett aktuellt ämne inom forskning kring AI. Tekniken

(22)

15 för ansiktsigenkänning använder sig nämligen av djupinlärning för att identifiera mönster i en persons ansikte och matcha mot befintliga databaser.

3.3.4 Artificiell generell intelligens och Superintelligens

Till skillnad från snäv intelligens (ANI) som nämnts tidigare, är generell intelligens och superintelligens två mer utvecklade och avancerade system. De förenämnda systemen är fortfarande hypotetiska och existerar bara i teorin. Artificiell generell intelligens (AGI) är ett hypotetiskt system som uppvisar människo-lik intelligens, det innebär att en AGI klarar av att utföra samma intellektuella uppgifter som en människa, helt oberoende av att parametrar eller att programkod måste ändras [35]. Förespråkarna för denna typ av AI menar att det går att återskapa intelligens och ett medvetande med hjälp av programkod [36]. Det råder delade meningar hos experter inom området om och när denna teknik kan komma att uppfinnas [37].

Ray Kurzweil förutspår att AGI inträffar 2029 medan andra forskare tror 2030 [37],2040 [37]

och vissa 2050 [37]. John McCarthy anser att det är osannolikt att det inträffar innan 2036 [31].

En Superintelligens (SAI) är det andra hypotetiska systemet som nämnts tidigare. Ett SAI system skiljer sig från AGI, då systemet inte längre endast uppvisar samma intelligens som en människa, utan istället överträffar den [38]. Detta skulle då hypotetiskt medföra möjlighet för en SAI att inte längre endast simulera känslor, utan faktiskt kunna ”känna” och resonera som en människa [35,38]. Ett SAI system skulle alltså inte bara överträffa människor i intelligens, men även i andra ämnen som kreativitet, allmän visdom och sociala färdigheter [38].

Svaret på hur AI kommer att se ut i framtiden är inte enkelt. Det finns ett stort forskningsvärde i att kunna ta reda på när AI kommer vara tillräckligt intelligent för att överskrida den mänskliga intelligensen. Ovan nämns ett par av de eventuella framtida AI-teknikerna: AGI och superintelligens (SAI). AGI kan även vara benämnt ”high-level machine intelligence” och förkortat HLMI. Alltså när AI uppnår en standard för att kunna utföra mänskliga arbeten bättre och billigare än människor. Det finns flera studier som försöker ta reda på när HLMI kan vara uppnått. Exempelvis har Bostrom och Müller utfört en tidigare refererad studie där fyra olika expertgrupper fick svara på när HLMI kommer att uppnås [37]. En annan utförd enkätstudie, från 2018, som har försökt att få svar på detta är ”When Will AI Exceeed Human Perfornmance? Evidence from AI Experts”. Forskarna till denna artikel har tillfrågat experter inom AI om när vissa vardagliga och professionella sysslor är helt automatiserade, samt när alla typer av jobb kan utföras med hjälp av AI. Resultatet från denna studie belyser att det finns en tro bland de tillfrågade forskarna att total automatisering av alla jobb med hjälp av HLMI kommer att uppnås med en sannolikhet på 90%, inom en tidsperiod på 200 år från 2016, där

(23)

16 medelvärdet ligger på runt 125 år [39]. Resultatet av studien ger ett ungefärligt svar på när vissa händelser inom denna typ av AI kommer att ske. Med händelserna menas specifika genombrott, exempelvis när en AI kan skriva ett skönlitterärt verk. Författarna till undersökningen har inte spekulerat i när AI kan användas för att lösa eller begå brott. Men med hjälp av de andra listade milstolparna kan det gå att spekulera i ungefär när vissa händelser kan ske inom AI och dess påverkan på brott.

Ett återkommande uttryck bland framtidsforskare inom AI är ”singularity” eller ”intelligence explosion”. Definitionen för dessa uttryck är när AI har nått möjligheten till att förstärka och förbättra sig själv utan hjälp av en mänsklig intelligens. Detta är något som enligt forskare kan ske efter att AGI har uppnåtts och är en del av vägen till en framtida superintelligens. När väl detta har skett menar forskare, som Tegemark [8] och Bostrom [9], att det inte finns någon återvändo till hur den normala tekniska utvecklingen såg ut innan. När denna singularitet kommer att inträffa och hur utvecklingskurvan kommer att se ut efter att AGI har uppnåtts är en pågående diskussion bland forskare.

(24)

17

4 Resultat

4.1 AI genom historien

Konceptet AI eller autonoma verktyg och kreationer är en idé som har funnits i människans medvetande under längre tid. Tidigaste exempel på detta är antikens Grekland, där som en del av den tidens mytologi, hittar man idén om en intelligent robot som har namnet Talos och artificiellt skapade väsen som Galatea och Pandora [40]. Trots att idén om en artificiellt skapad intelligens är uråldrig, är det först de senaste 100 åren som den teknologiska utvecklingen har nått en punkt där dessa idéer övergår från fantasi och drömmar, till något vi konceptuellt kan komma att genomföra inom en relativt snar framtid. Trots en rik historia med mer eller mindre vilda fantasier hur dessa autonoma maskiner skulle kunna fungera eller vilken form de skulle ta, har AI som vetenskap endast existerat sedan mitten av 1900 talet. Nedan följer en tabell med viktiga milstenar inom ämnet AI.

1931 Den österrikiska forskaren Kurt Gödel visar att i uträkningar av första ordningens logik, så är alla sanna påståenden härledningsbara. I högre order av logik, existerar det sanna påståenden som är omöjliga att bevisa. Gödel visar att logiken som utökas med axiom av aritmetik är ofullständig.[41]

1937 Allan Turing visar att det finns limitationer för vad en intelligent maskin kan klara av, han visade detta med “stopproblemet” eller “haltproblemet”. [42]

1943 McCulloch och Pitts gör en modell för neurala nätvärk,och visar sambandet till förslagslogik.

1950 Alan Turing definierar maskinintelligens med hjälp av Turing testet, och skriver om självlärande maskiner och genetiska algoritmer. [43]

1951 Marvin Minsky utvecklar en maskin som använder neurala nätverk, med hjälp av 3000 vakuumtuber simulerar han 40 neuroner.

1955 Arthur Samuel (IBM) bygger en maskin som kan spela dam bättre än sin skapare.[44]

1956 Newell och Simon från universitetet Carnegie Mellon (CMU) presenterar Logic Theorist, det första datorprogrammet som kan avläsa symboler. [45]

Uttrycket AI myntades under Dartmouth konferensen och blev startskottet för AI som forskningsområde. [46]

1958 McCarthy uppfinner det första programmet som kan självmodifiera sig. [47]

Frank Rosenblatts modell för neurala nätverk (perceptrons) publiceras [48] och lägger grunden till dagens djupinlärning.

(25)

18 1961 Newell och Simon har skapat programmet General Problem Solver (gps), som

imiterar mänskliga tankar.[49]

1966 Programmet Eliza skapat av Weizenbaum håller en dialog i vanligt språk med ett antal personer. [50]

1986 Den så kallade AI våren startar, programmet Nettalk lär sig att läsa högt utifrån en text. [51]

1990 Sannolikhetslära blir en del av AI forskningen med hjälp av Bayesian networks. [52]

1992 Tesauros TD-Gammon program visar fördelarna med Reinforcement Learning.

1993 Robocup håller en internationell tävling där deltagarna skapar självstyrande robotar som kan spela fotboll. [53]

1997 Företaget IBM´s schackdator Deep Blue, besegrar världsmästare Gary Kasparov [54]

2003 Robotarna i RoboCup demonstrerar vad AI tillsammans med robotteknik är kapabelt till.

2006 Assistansrobotar blir en stor del i forskningen kring AI.

2009 Den första självkörande bilen från Google kör på Californias motorväg.

2010 Autonoma robotar blir självlärande och börjar förbättra sitt beteende.

2011 IBM´s program “Watson” vinner över två mänskliga spelare i TV programmet

“Jeopardy!”. Watsen förstår tal och skrift, och kan svara på svåra frågor på kort tid.

[55]

2015 Daimler har premiär för sin självkörande lastbil på Autobahn

Google´s självkörande bilar har färdats över 1.6 millioner kilometer och är aktiva i många städer.

Djupinlärning blir användbart för att identifiera bilder

Målningar gjorda i stilen av “old masters” går med hjälp av AI att generera fram.

AI blir kreativ!

2016 Programmet Alpha Go skapat av Google DeepMind besegrar den europeiska mästaren 5-0, och en av världens bästa spelare, koreanen Lee Sedol 4-1. Detta tack vare Djupinlärning. [56]

2017 Spelmotorn Unity tillåter utvecklare att enkelt skapa intelligenta aktörer i datorspel som använder sig av maskinlärning. [57]

2018 Google´s program BERT kan läsa och förstå text i kontext till vad som skrivs, samt svara på frågor på ett dynamiskt vis som efterliknar hur en människa skulle utföra uppgiften. [58]

(26)

19 2019 Problemet kallat “Three-body problem” som framförallt används vid beräkningar av himlakroppars position när mer än två kroppar verkar på varandra, löstes med hjälp av djupinlärning 100 millioner gånger snabbare än tidigare lösningar.[59]

2020 En AI som är en avgrening från Google´s Deep mind, har lyckats förutspå hur ett protein kommer att se ut genom att undersöka aminosyrans sekvens, detta kommer göra kartläggningen av cellens byggstenar och lättare kunna framställa läkemedel.

[60]

Tabell 2: Historiska milstolpar inom AI

Milstolparna presenterade i tabellen ovan ger en inblick i hur utvecklingen av AI har sett ut, och ger underlag för hur utvecklingen kommer se ut i framtiden. Framförallt de senare åren (2012 och framåt) är extra intressanta och relevanta. Under denna period blir problemen som AI kan lösa markant mer komplexa, och genombrotten mer tekniska och specifika. Med hjälp av AI hittas lösningar på problem och komplexa teorier som tidigare gäckat forskare inom diverse ämnen. Det är alltså inte bara inom IT som AI gör framsteg, utan även i kommunikation och mer oväntade genombrott inom exempelvis astronomi och biologi. Detta ger en inblick i hur mångsidig AI är, och gränsen för vad dessa avancerade system kan användas till flyttas allt raskare framåt [3,37,57]. De problem som man nu använder AI för att försöka lösa, blir allt mer komplexa, och kräver därför mer datakraft för att genomföra beräkningarna. En annan bidragande orsak till att lösningarna blir mer komplexa, är en viss osäkerhet, eller brist på förutsedda ändringar under beräkningens gång. Ett bra exempel på detta är spelet DOTA2, där det finns mängder med variabler som är i konstant förändring, och varje val leder till nya möjligheter och problem. Vidare skapas djupare komplexitet då spelet utspelar sig som ett lagspel, där 5 spelare måste samarbete och koordinera sig under spelets gång. För att sätta detta i kontext, så har en AI som spelar schack 35 möjliga beslut att beräkna varje gång det är programmets tur, i spelet Go, 250. I spelet Dota2 finns det uppskattningsvis 1000 olika

“actions” eller beslut, programmet kan göra vid varje “tick”, i översättning 30 gånger per sekund [61]. En simplifierad version av spelet användes för att undersöka framgångarna hos

“OpenAI Five” som är namnet på den samling AI som spelar spelet tillsammans. Enligt OpenAI lyckades denna AI, för första gången, besegra ett lag bestående av människor i en match där 5 mot 5 spelades, något som tidigare inte varit möjligt. I augusti i år (2021) ska ett nytt test genomföras med den senaste iterationen av denna AI för att mäta sig mot mänskliga spelare.

Enligt OpenAI som utvecklar systemet, så spelar ”OpenAI Five” matcher som motsvarar 180år

(27)

20 av lärande, varje dag mot sig själv. Detta kräver rapporterat, 256 grafikprocessorer och 128,000 beräkningsprocessorer [61]. Tack vare denna utveckling där AI används för att lösa allt mer komplexa problem, medföljer också kravet på resurser för att kunna utföra dessa beräkningar. Fram tills år 2012 följde denna ökning Moores lag, som säger att; inom en viss tidsram fördubblas antalet resistorer som får plats i en mikroprocessor. OpenAI har själva gjort en undersökning där organisationen har kartlagt hur mycket processorkraft som krävs för att lära dessa system att utföra de allt mer komplexa uppgifterna [61]. Efter 2012 händer det dock något intressant, kurvan skiftar och ser ut att öka exponentiellt, och fram tills idag verkar den inte avstanna heller, frågan blir då, när, eller om kurvan avstannar över huvud taget och vad detta betyder för framtiden.

4.2 Aktuell användning av AI

Polisen har den senaste tiden börjat implementera och använda AI som ett verktyg för att hjälpa till i utredningar. Som tidigare diskuterats är AI ett brett ämne, och likaså är dess användning. I denna del presenteras de typer av AI som används av olika polismyndigheter och brottsbekämpande organisationer, samt slutsatser kring hur användandet har fungerat och dess limitationer. Det är värt att notera att dessa slutsatser och analyser är skriva i samband med dessa studier och artiklar, och deras resultat reflekterar inte nödvändigtvis denna uppsats slutsatser som presenteras i ett senare kapitel. Vidare är det värt att poängtera att denna uppsats i mån av tid och omfång inte har möjlighet att utforska eller nämna alla typer av AI som används i dagens samhälle.

4.2.1 Snäv AI

Trots att denna typ av AI har benämningen snäv, så är användningsområdena många. Som tidigare undersökts in kapitlet ovan, så är en snäv AI ett program som har som uppgift att utföra en specifik uppgift. Detta medför att programmeringen som krävs för att systemet ska klara av den bestämda uppgiften, blir mycket simplare än exempelvis ett system som använder sig av maskininlärning eller djupinlärning. Ett bra exempel på detta är det som kallas “LAWS” eller Leathal Autonomous Weapon Systems. LAWS är ett samlingsnamn på en speciell klass av vapensystem som använder sig av sensorer och algoritmer som kan, oberoende av mänsklig kontroll, identifiera ett mål samt utföra attacker med stor precision [1]. Dessa system är ännu inte vidspridda i dess användning, men de skulle kunna möjliggöra utförandet av operationer i områden där det tidigare har varit omöjligt med hjälp av mer traditionella system. Denna teknik förutspås bli allt mer vanlig, och dokumentet DOD Directive 3000.09, “Autonomy in Weapon Systems” ger en översikt av policys för dess användning [62]. En av de centrala punkterna i

(28)

21 policy-dokumentet är att alla autonoma system som används, måste utvärderas och undersökas innan de får tas i bruk. När ändringar sker i systemet eller uppdateringar utfärdas, måste vapensystemet i fråga undergå samma utvärderingsprocess igen. Andra typer av snäv-AI som finns i bruk är bland annat, självkörande bilar, drönare, spamfilter och många fler.

4.2.2 Maskininlärning

En rapport publicerad av”The Royal United Services Institute for Defence and Security Studies” titulerad ”Data Analytics and Algorithms in Policing in England and Wales – Towards A new Police Framework”, nämner det arbete som pågår i England som involverar AI[63]. Denna rapport fokuserar specifikt på algoritmer som används i databashantering inom polisen, alltså en typ av Maskininlärning (ML). Trots nerskärningar den senaste perioden har den engelska polisen fått speciellt tilldelat kapital för att implementera och utöka användningen av AI som ett verktyg för att förenkla utredningsarbetet. En av de drivande krafterna för implementering av AI, som nämns i rapporten är det ständigt ökade informationsflödet som polisen måste hantera i sina utredningar, det beskrivs som ”Information overload”.

Informationen som finns tillgänglig för en utredare, som samlas upp genom att undersöka mobiltelefoner, email och datorer är massiv och ostrukturerad, informationen är också spridd mellan olika datasystem vilket ytterligare försvårar arbetet [63]. Med hjälp av ML kan då en utredare få hjälp att identifiera vilken information som är intressant för fallet i fråga, eller rör individen som är under utredning. Det är värt att poängtera att rapporten menar att den typ av ML som har fungerat bäst, inte är en självgående algoritm som producerar färdiga bevisunderlag utan i stället pekar utredaren i rätt riktning. En typ av AI-Människa partnerskap, se 1.1.1 och 1.1.2 för ”Snäv-AI” och ”Maskinlärning”. Med hjälp av ML används också en teknik som kallas ”Predictive Mapping”, där en algoritm med hjälp av statistiska data och en metod som kallas statistisk förutsägelse, skapar en överskådlig bild över geografiska platser. I dessa platser finns, enligt detta system, större sannolikhet att ett brott kommer begås inom en snar framtid. Denna teknik har funnits i användning sedan 2004[64], och enligt en rapport finns det data som visar att 12 av 43 polisorganisationer i England och Wales använder eller har använt tekniken de senaste åren [65]. Summeringsvis används alltså tekniken för att polisen ska ha större möjlighet att vara på rätt plats vid rätt tid, då brott och brottslighet inte är uniformt utspritt över geografiska ytor så som städer, utan tenderar att vara i högre koncentration kring vissa områden. Det finns studier som visar på att slumpmässig patrullering av poliser inte är effektiva på grund av detta [64]. Jämförelsevis har riktade resurser på specifika brottsbenägna

(29)

22 områden lett till större andel ingripanden och en nettominskning i begångna brott för området, alltså en nettoreduktion av antal brott [64].

4.2.3 Djupinlärning

Ansiktsigenkänning eller ”Facial Recognition” är ett system som bygger på AI typen Djupinlärning. Tekniken används framför allt för att söka igenom befintliga databaser som innehåller redan tagna förbrytarfoton ”mugshots”, och ett foto eller video tagen från en brottsplats i ett försök att identifiera förövaren. Dessa databaser innehåller ofta tusentals bilder, denna teknik kallas därför för ”one-to-many analysis” eftersom en enstaka bild används för att försöka identifiera förövaren mot en databas [66,67]. Analystypen som används för att hitta individens identitet och kallas vanligtvis för ”Discovery”. En annan typ av vanligt förekommande implementering av samma teknik kallas för ”one-to-one analysis” och används exempelvis då en individs identitet ska stärkas, som vid passkontroll eller andra officiella dokument där personens ansikte syns [66,67]. I detta fall handlar det om att identifiera eller stärka en individs identitet, och kallas därmed ”Identify”. Tekniken för ansiktsigenkänning var till en början tänkt användas endast för att minska antalet misstänkta och peka en utredare i rätt riktning. Utöver detta började tekniken snabbt användas för att fria falskt anklagade individer, identifiera mentalt sjuka, återförena bortsprungna barn med deras föräldrar och för att identifiera avlidna personer. Detta är endast några få exempel på hur tekniken används av innovativa utredare [67]. Enligt rapporten ”Law Enformenent Facial Recognition Use Case Catalog” kunde skribenterna identifiera 19 sätt som polismyndigheter använder tekniken på [67]. Rapporten påvisar flexibiliteten i systemet och gör bevisligen stora delar av brottsförebyggande organisationers arbete markant enklare.

4.2.4 Svagheter med AI inom utredningar

Trots alla fördelar som AI kan ge inom det brottsbekämpande och brottsförebyggande arbetet finns det flera instanser där tekniken bevisligen har tillfört risker och rättsliga brister i arbetet.

Experter och forskare inom AI-området menar att dessa risker och svagheter måste tas i beaktning när AI används i utredningar. McKendrick har utforskat detta i samband med sin forskning kring hur dagens AI kan användas för att förutspå terrorism [6]. Hon menar att det finns två huvudsakliga typer av problem som kan uppstå vid användning av AI-teknik. Dessa två huvudproblem McKendrick går igenom är risken för kränkning av mänskliga rättigheter samt nutida praktiska problem vid användning. Kränkningen av mänskliga rättigheter härleds till den data som samlas in om människor för att AI ska fungera. Exempelvis behöver förutspående AI mängder med olika sorters data, från alla typer av människor, för att kunna

(30)

23 göra godtagbara förutspående analyser. Denna data kan vara känslig i sin natur. McKendrick menar att detta bildar en oproportionerlig insamling av personlig information, alltså att en hel befolkning blir en del av utredningsarbetet. Insamlingen av denna data kan då bryta mot uppsatta lagar, så som GDPR inom EU. Vidare kan i sin tur liknande skyddande lagar leda till direkta praktiska problem för användandet av AI för att förutspå terrorism, då data behövs för att det ska fungera. Det blir alltså en fråga kring hur den personliga integriteten värdesätts i kontrast till allmännyttan för denna typ av brott.

Nyligen i april 2021 släppte den europeiska kommissionen ett förslag för hur utvecklingen av AI ska styras inom EU med hjälp av en riskbaserad metod. Enligt förslaget skall AI klassificeras i fyra olika risknivåer: Oacceptabel risk, hög risk, limiterad risk och minimal risk.

De AI-system som tenderar att falla under oacceptabel-nivån skall bannlysas. Detta kan vara system som på något sätt är ett hot mot liv och mänskliga rättigheter. AI-system som anses som

”hög risk” kan vara system som på något sätt är inblandat i exempelvis kritiska infrastrukturer, utbildning/träning, säkerhet, sysselsättning, migration/gränskontroller eller polisiärt arbete.

Dessa högrisk-system skall följa strikta regler och ha noggranna skyldigheter innan de sjösätts på den öppna marknaden. Exempel på sådana skyldigheter i ett högrisksystem kan vara att använda högkvalitativa dataset som ej tillåter diskriminerande utfall och ett fortskridande riskanalysarbete för systemet. Det ska även finnas tillgängliga loggar, en detaljerad dokumentation av systemet, detaljerad information till slutanvändare, robust säkerhet och alltid ha en människas överseende för att minska eventuella risker. De AI-system som i synnerhet ska klassas som högrisk enligt förslaget, är där biometriska data behandlas på distans.

Exempelvis nämner förslaget att brottsbekämpande myndigheter inte ska ha tillåtelse att använda sådana system i realtid där människor rör sig i offentliga miljöer. Det ska dock finnas tydliga och reglerade undantag till detta om det handlar om att stoppa eller förebygga terrorism eller annan grov brottslighet. Undantaget ska dock vara understött av ett juridiskt beslut där det framgår var systemet används, hur länge och vilka databaser som används vid en sådan händelse. AI-system vilka räknas som en limiterad risk för människor och samhället skall följa riktlinjerna att vara transparanta. En användare ska veta om att den interagerar med en AI och avgöra själv om den vill fortsätta. Den sista klassifikationen är en AI som utgör minimal risk.

Det är alltså ett system som inte utgör någon risk för människor eller samhället i övrigt, som bland annat AI-drivna datorspel eller spam-filter [68]. Den europeiska kommissionen är inte ensam om att argumentera för att framtida AI-system måste hålla en hög standard inom öppenhet, säkerhet och kunna fungera i förhållande till mänskliga rättigheter. Exempelvis är

(31)

24 AI-säkerhet, genom öppenhet och dokumenterad förståelse, en slutsats som även det amerikanska kabinettrådet National Science and Technology Council har kommit fram till [31].

Det finns flera händelser där bristande AI-algoritmer, inom ansiktsigenkänning har blivit beskyllda för att ha lett till gripandet av fel personer. Bland annat blev företaget Apple stämt av en privatperson på grund av detta efter en händelse 2019 [69]. Personens namn hade kopplats till en annan person som begått stölder i Apple-butiker. Detta är inte en enskild händelse. År 2020 blev en annan man misstänkt och gripen för att ha begått stölder i en annan butik [70].

Även här hade systemet kopplat personens namn till någon annans ansikte. Buolamwini och Gebru har bedrivit forskning kring diskriminerande ansiktsigenkänning. De utförde flera tester där både kön och hudfärg låg i fokus. Dessa tester utfördes på tre olika AI-system som är tillgängliga på den öppna marknaden [71]. Resultaten i artikeln visar att systemen är bättre på att känna igen män och har en högre felfrekvens på kvinnor. Systemen har även en högre felfrekvens att känna igen mörkhyade ansikten jämfört med ljushyade. Den största felmarginalen i dessa system sker på mörkhyade kvinnor. Buolamwini och Gebru menar att datasetten och algoritmerna som används i systemen behöver förbättras genom ordentlig benchmarking innan de används.

Under den pågående utvecklingen av AI har uttrycket ”black-box” diskuterats som ett växande problem när AI blir allt mer avancerad, speciellt inom djupinlärning. Uttrycket ”black-box”

har tillkommit tack vare den ovisshet om vad som faktiskt händer inuti ett AI-system och varför en viss inmatning i systemet får ett visst utslag. Problemet kring denna typ av AI-modell har diskuterats av bland annat forskaren Cynthia Rudin [72]. Enligt henne kan en ”black-box” bero på två olika anledningar. Antingen att de funktionerna i AI-systemet är för svåra för människor att förstå eller att funktionerna är skyddade av utvecklarna till systemet. Hon menar att AI- system där modellen är försluten i en ”black-box” kan potentiellt orsaka stor skada på samhället. Speciellt där AI används för viktiga beslut inom samhällskritiska verksamheter.

Rudin påpekar därför att modeller som bygger på black-box ska undvikas och istället ska transparenta samt mer överskådliga modeller användas inom AI.

4.2.5 Brottsliga handlingar med AI

De implementerade AI-teknikerna inom det brottsförebyggande arbetet är utbrett och har i grunden ett gott syfte. De senaste årens utveckling av AI har möjliggjort att flera olika AI- tekniker börjat användas för att, i motsats till brottsförebyggande arbete, begå eller möjliggöra kriminella handlingar. Det har alltså tillkommit nya metoder för att begå brott, vilket har medfört att det finns fler nya potentiella bevis att ta i beaktning i det utredande arbetet. I artikeln

References

Related documents

Further, the authors want to investigate how four different factors, namely external trigger cues, internal factors, normative evaluation, and impulse buying tendency, affect

Subject D, for example, spends most of the time (54%) reading with both index fingers in parallel, 24% reading with the left index finger only, and 11% with the right

Här finns, menar vi, en intressant möjlighet att på försök prova en länsvis utlokalisering av delar av Allmänna arvsfondens verksamhet; rådgivning inför ansökningar,. mottagning

 Receptorn fungerar som ett kinas som katalyserar reaktionen ATP + IRS  IRS-P + ADP  IRS-P känns igen av bl a enzymet PI-3K som mha ATP fosforylerar PIP 2 till PIP 3  PIP 3

Låt oss därför för stunden bortse från bostadspriser och andra ekonomiska variabler som inkomster, räntor och andra kostnader för att bo och en- bart se till

Uppsiktsansvaret innebär att Boverket ska skaffa sig överblick över hur kommunerna och länsstyrelserna arbetar med och tar sitt ansvar för planering, tillståndsgivning och tillsyn

Domstolsverket har bedömt att utredningen inte innehåller något förslag som i någon större mån påverkar Sveriges Domstolar på ett sådant sätt. Domstolsverket har därför

▪ Vidare anser Västra Götalandsregionen att tydligheten i kopplingen till avfallshierarkin är ytterst viktig som framkommer både i 18§ punkt 5 samt i