• No results found

Projektion för framtida brott som använder snäv-AI

4 Resultat

4.4 Projektion för framtida brott som använder snäv-AI

Nedan presenteras hur, enligt denna uppsats, AI kan användas av organiserad brottslighet och terrorism i framtiden. Denna exploatering utgår ifrån ett av de tre scenarier som presenterades ovan, det är värt att nämna att en framtid med AGI och hur användningen av AI kommer se ut i framtid med AGI är högst spekulativ. Eftersom AGI skulle medföra stora förändringar i samhället som helhet, samt ha stor påverkan på brott och dylikt, gjordes valet att inte spekulera kring denna framtid. Det första kapitlet kommer därför handla om brott som genomför med AI som är en mer avancerad version av den AI vi har idag, alltså ANI (snäv AI).

4.4.1 Deep fakes i realtid

AI används redan idag av brottslingar, och många användningsområden har undersökts och utvecklats tidigare i denna uppsats, och dessa kommer att ligga som grund för framtidsprognosen kring utvecklandet av nya tekniker för att begå brott med hjälp av AI. Det första, och enligt vår uppskattning, den teknik som kommer stå för stora delar av de hot och gärningar som utförs med AI inom en snar framtid är deep fakes. Inom 30 år kommer AI vara allt mer tillgängligt för allmänheten och därmed också organiserad brottslighet. Detta är något som utforskas i tidigare kapitel. I scenariot där utvecklingen av AI avstannar och inte längre har möjligheten till att uppnå AGI, är brott med hjälp av snäv AI och djupinlärning fortfarande kan vara ett realistisk framtidshot. I det tidigare kapitlet Brottsliga handlingar med AI (4.2.5) nämns några utav de brott som i framtiden kan ske med hjälp av AI. Ett av de farligaste verktygen för detta är när AI används till att skapa så kallade ”deep fakes” eller andra ljud och bildimitationer. Hur skulle deep fakes kunna se ut och användas av terrorister och organiserad brottslighet i framtiden? Det är mycket möjligt att inom en snar framtid att deep fakes når en

33 sådan nivå att det inte går att se någon som helst skillnad om videon eller ett ljudklipp är skapat av en AI. Denna nya typ av deep fakes kräver inte att man förbehandlar en bild eller video för att uppnå ett resultat, istället kan man med så lite som en enstaka bild på personen man söker att imitera, samt en inspelning av individens röst, kunna skapa en deep fake i realtid. Det innebär att samtal kan hållas mellan två parter där en av personerna använder sig av en automatiskt genererad bild och röst. Denna typ av deep fake gör också konversationen mer trovärdig, eftersom man inte behöver förlita sig på att en AI för att generera svar och frågor som passar in i en konversation, något som AI historiskt sett har haft svårt att klara av. Istället sköter en mänsklig agent detta direkt, då elimineras många av de svagheter med deep fakes, och kan göra det otroligt svårt att se skillnad på en verklig person och en skapad av en AI.

Troligtvis blir det än mer svårupptäckt då den bild och det ljud som presenteras för användaren ofta är av låg kvalitet när videosamtal används. Ett scenario skulle kunna vara att tekniken bakom deep fakes används till att manipulera direktsändningar. När detta inträffar finns det möjlighet för terrorister och organiserad brottslighet att utnyttja detta på flera olika sätt. Bland annat skulle terrorister kunna använda denna teknik till att sprida falsk information i syfte att sätta skräck i en befolkning eller destabilisera ett samhälle. Falska direktsända intervjuer med kända politiker skulle kunna vara tillräckligt för att få en befolkning förvirrade och leda till att en terrororganisation uppnår målet att destabilisera politiska strukturer. Det är inte helt omöjligt att fejkade filmer på mord i syfte att sprida skräck hos en befolkning kan bli en del av terroristers framtida tillvägagångssätt.

När det kommer till den organiserade brottsligheten finns det också stora möjligheter för att utnyttja denna typ av AI-verktyg i framtiden. Brottslighet och kriminella handlingar så som utpressning samt bedrägerier kan utgöra en del av den. Hur skulle då en utpressning med hjälp av AI kunna se ut? Exempelvis skulle en kriminell liga kunna skapa fejkade film- och ljudklipp där de anspelar på att en släkting till ett visst offer är skyldig pengar som måste betalas, annars kommer filmklipp på släktingen i delikata situationer att spridas på internet för alla att se. Offret i fråga får dessa film- och ljudklipp skickade till sig och tror att släktingen faktiskt är i nöd.

Pengarna betalas till förövarna och den kriminella gruppen tar sig an nästa offer.

Hur skulle ett bedrägeriscenario kunna se ut med hjälp av AI? Det skulle kunna likna det tidigare utpressningsscenariot med släktingen. Den kriminella gruppen samlar in en stor mängd ljudfiler av typen bankkundtjänstsamtal. Dessa ljudfiler kan sedan, med hjälp av AI, användas till att bygga upp meningar såsom frågor och uppmaningar under ett pågående telefonsamtal.

När sedan förövaren ringer upp ett, eller flera, offer sköter AI:n kommunikationen automatiskt.

34 Offret ger svar på de frågor som ställs gällande bankuppgifter och personuppgifter som sedan sparas. Därefter är bedrägeriet fullbordat och offrets uppgifter kan utnyttjas av den kriminella ligan genom stöld av pengar eller till fortsatta bedrägerier.

4.4.2 Autonoma bilar som vapen

AI-drivna självkörande bilar är något som finns idag och kommer bli allt vanligare inom en snar framtid. De autonoma fordonen har möjlighet att navigera sig fram på vägar genom att läsa av den omkringliggande miljön såsom vägmärken, andra fordon och människor. Dessa fordon är inte tänkta att användas på andra sätt än att automatiskt framföras säkert. Hur skulle ett framtida scenario kunna se ut om självkörande fordon används som ett vapen? Det finns flera exempel på när terrorister har använt sig av fordon för att köra in i folkmassor i syfte till att orsaka skada och förödelse, även här i Sverige. Visserligen är det tänkt att säkerhetsmekanismer i självkörande fordon ska hindra att köra på andra objekt. Ifall det går att programmera om dessa system eller hacka dem och ta bort dessa säkerhetsmekanismer finns det en möjlighet att istället göra fordonet till ett automatiserat vapen. När det inte finns någon förare blir det svårare för polisen att identifiera och stoppa denna typ av brott. Bomber placerade i fordon är också något som kan vara en möjlig risk i ett terroristscenario. Exempelvis att en bomb placeras i en självkörande bil som åker till ett specifikt mål för att detoneras. Vidare kan organiserad brottslighet använda självkörande fordon till att frakta allt från droger till människor. Detta är en del av den framtiden där AI i fordon måste tas i beaktning.

4.4.3 Störa AI drivna system

Ökad utveckling av AI kommer leda till att fler system ersätts med flexibla och skräddarsydda AI system som kommer bidra till snabbar och effektivare lösningar. Men ett ökat beroende på dessa system medför också risker som tidigare inte varit aktuella. I ett scenario där nästan alla delar av samhället styrs helt eller delvis av ett AI system, finns det en möjlighet för aktörer som söker störa ordningen eller orsaka skada att attackera dessa system. Man kan tänka sig så enkla saker som att störa energiförsörjningen, där det tidigare varit möjligt att försätta arbetet i limiterad kapacitet eftersom det fanns människor tillgängliga, kommer denna typ av störning att tvinga fram ett totalt stop. Det blir också otroligt viktigt att övervaka dessa system, och att den övervakningen sker av välutbildad personal för att kunna se om något ändras i programmets kod. Det kan få stora konsekvenser om ett AI system blir infiltrerat av ondsint kod som påverkar hur systemet fungerar. Här finns det möjligheter för både organiserad brottslighet och terrorism. Man kan tänka sig attacker på börsrobotar för att destabilisera marknaden, attacker mot de program som ser över patienter på sjukhus, vattenreningsverk mm.

35 Många av de risker som är väl kända idag och som klassas som samhällskritisk infrastruktur, löper risk att bli mål för denna nya typ av attack om AI kommer att ersätta de system som finns idag.

4.4.4 Militära robotar

AI styrda maskiner som utkämpar krig är ett troligt nästa steg i utvecklingen av AI och kommer troligtvis vara verklighet i många länder inom en snar framtid. Inom 10 år förutspår vi att upp 35% av stormakternas marktrupper kommer bestå av autonoma maskiner eller maskiner som styrs av förare från en säker plats. Dessa maskiner kommer sakta ändra på hur vi ser på krig och krigsföring, och kommer leda till en ännu hårdare vinst/förlust mentalitet, eftersom maskinens ”liv” inte är viktigt, endast dess kostnad. Detta kan leda till katastrofala konsekvenser för de länder som inte har den teknologiska eller finansiella möjligheteten att utveckla eller köpa denna typ av vapen. Deras resurs kommer fortfarande vara människoliv och kan komma att leda till kollaps hos de länder som inte har allierade som kan bidra med adekvat försvar. När denna typ av maskin styrs helt av en AI istället för en mänsklig pilot, finns det risk för att det blir fel i dessa system. Detta fel kan vara oförutsett och underliggande i den programkod som installeras eller så kan det vara kända svagheter som exploateras eller skapas av terrorister.

4.4.5 Lura och undvika detektion av AI system

Med en större förståelse för hur dessa verktyg fungerar och hur identifiering av personer går till, kan det bli så att sätten man kan undvika detektion också blir mer allmänt kända. Tidigare i detta arbete har vi refererat till en undersökning där man med hjälp av några bitar tejp förvandlade en STOP-skylt till en hastighetsskylt. Denna typ av manipulering av hur AI avläser mönster och hanterar data kan komma att bli en av de stora utmaningarna med att skapa en säker framtid med AI.

36

Related documents