• No results found

Kvantdatorn kan potentiellt medföra stora konsekvenser gällande framtiden för AI och hur utvecklingen kommer att ske. Det kan därför vara intressant att i framtida arbeten, för den med större förståelse för ämnet, att inkludera denna variabel i framtidsstudien. Med det sagt, har denna del av AI utvecklingen en högre tröskel av akademisk kunskap för att förstå, och är därför inte en del av slutsatsen.

Gällande de etiska problem kring AI, kan denna uppsats agera som teknisk grund för en undersökning som ämnar göra en mer samhällsinriktad studie där konsekvenserna av AI undersöks. Med hjälp av de formulerade potentiella framtiderna kan gruppers och individers fysiska och psykiska konsekvenser utforskas mer utförligt.

Studien presenterar data som visar hur utvecklingen med AI har sett ut, med en överskådlig och lättläst tabell. Slutsatserna i detta arbete har tagits fram med hjälp av en klar frågeställning, som gav möjlighet att först fördjupa sig i ämnet för att sedan kunna besvara de mer krävande frågorna. Då ämnet AI är brett och komplext används första frågan för detta ändamål.

• Hur används AI för att motarbeta organiserad brottslighet och terrorism?

Denna fråga gav god möjlighet att utforska området AI och dess användning utan att vara för limiterande.

Under projektets gång har flera användningsområden för AI påträffats. Resultatet av studien visar på att AI-tekniken för att motarbeta organiserad brottslighet och terrorism, består huvudsakligen av tre olika identifierade användningsområden: Ansiktsigenkänning med hjälp av AI, förutspående AI och Data/Informationssållande AI. Resultatet belyser att ansiktsigenkänning med hjälp av AI är en välanvänd del av det polisiära arbetet. Mycket pekar på att ansiktsigenkänning kommer fortsätta vara en central del i framtiden. De rapporter och artiklar som presenterats i resultatet påvisar att ansiktsigenkänning används i en stor utsträckning för att identifiera inte endast brottslingar, utan även offer och försvunna personer.

Det andra identifierade användningsområdet, förutspående AI, visade sig vara en central del i brottsbekämpning och brottsförebyggande. Förutspående AI har lett till att resurser kan tillsättas på rätt plats vid rätt tillfälle, samt kartläggning av suspekta individer. Det tredje och sista identifierade användningsområdet, Data/ informationssållande AI, har lett till att sociala medier kan stoppa spridning av exempelvis terroristpropaganda. Resultatet av litteraturstudien visar att AI används på flera olika fronter, med olika målbilder. Antingen används AI i ett förebyggande syfte, reaktivt syfte eller ett klargörande syfte.

39

• Vilka för och nackdelar finns det med att använda AI för att bekämpa organiserad brottslighet och terrorism?

Det finns flera fördelar och nackdelar med AI-tekniker inom det brottsbekämpande arbetet vilket presentas i resultatdelen. Ett exempel där AI har blivit ett viktigt verktyg, är det informationssållande som krävs vid brottsutredningar. På grund av att informationsmängden som finns tillgänglig ofta är stor, har de algoritmer som sorterar och sållar i denna data blivit ett ovärderligt verktyg för utredare. Arbetsuppgifter som tidigare krävde stor tidsinvestering blir istället automatiserade. Detta bidrar till effektivitet, och gör att utredare kan fokusera mer på traditionellt polisarbete.

Det finns dock en rad nackdelar med AI. Resultatet från litteraturstudien har pekat på händelser där exempelvis personer blir gripna på falska grunder. Mycket visar på att det saknas kunskap kring hur AI-systemen fungerar och vad som bidrar till ett visst resultat. Problemet försvåras ytterligare när felaktiga eller ofullständiga dataset används i dessa system. Detta leder till att förtroendet för AI försämras och skapar fler problem då denna typ av AI-genererad information ska användas som bevismaterial. Kompetensen kring AI måste därför förbättras, för att AI inte ska ses som diskriminerande eller opålitlig.

• Hur kan AI användas i framtiden som ett verktyg av organiserad brottslighet och terrorism?

Detta var frågan som arbetet grundades på, och blev den svåraste frågan att besvara på ett robust vis. Genom att göra en framtidsstudie kunde tidigare publicerat material och den empiri som tillkommit under arbetets gång, bidra till att skapa en grund. Då kunde med viss säkerhet, de framtida användningsområdena för AI förutspås. Med hjälp av ”six pillars” processen som beskrevs i metodkapitlet fördes en detaljerad och extensiv litteraturstudie kring AI. Redan publicerade framtidsstudier användes för att stärka dom teser och idéer som presenterades.

Resultatet som presenteras kring snäv AI ger exempel på hur de tekniker som existerar idag kan komma att utvecklas och användas. Mest intressant och skrämmande inom denna del av AI anses vara deepfakes i realtid. Brottslingar är idag limiterade av resurser i form av individer som kan utföra social ingenjörskonst. När AI blir mer avancerat men också mer tillgängligt, kan denna brist på kompetenta individer komma att inte längre vara en limiterande faktor.

Samma gäller även för terroristorganisationer för skapandet av propaganda som sedan sprids på nätet. Istället kan man tänka sig att AI används som ett verktyg för att simplifiera och

40 facilitera processen, vilket skulle leda till fler incidenter och bredare spridning av materialet.

Nästa steg är en självgående AI som kräver väldigt lite i form av kontroll av en människa.

Denna AI kan istället utföra brott och komponera, samt skapa önskar material på egen hand.

Detta skulle potentiellt få katastrofala konsekvenser för samhället då antalet, exempelvis falska telefonsamtal, skulle kunna utföras i markant högre frekvens. Utvecklandet av AI kommer skapa stora utmaningar för samhället i form av verifiering och utredning av dessa brott och organisationer. Vidare är det värt att notera att mångfalden kring snäv-AI och de olika användningsområden tekniken har, kan göra det komplicerat att skapa lagar och regleringar.

AGI är per sin natur, ett system som kommer ha stor påverkar på hur vårt samhälle kommer att se ut. Det gör det svårt att tänka sig hur AGI skulle kunna användas som verktyg för att begå brott. Det är mer troligt, att brott med AI som vi känner till det idag, kommer sluta existera.

Istället ses två olika scenarios som troliga. Antingen blir en AGI vår enväldiga förmyndare, och eliminerar på så vis denna typ av brott. Det andra scenariot har istället två AGI system som utkämpar en strid sinsemellan, där det förslagsvis skulle kunna finnas något som liknar brott eller terroristattacker med AI. Det är dock troligt att människor inte kommer vara involverade i detta, utan att allt sköts av den tidigare nämnda AI systemet och dess motståndare. Resultatet kring snäv-AI besvarar avslutningsvis frågan bra, och de fall som presenteras är väl underbyggda. Det medför en djupare insikt i hur AI kan användas som verktyg av organiserad brottlighet och terrorism, och förhoppningen är att denna uppsats kan ligga som grund till liknande och mer extensiva studier i ämnet.

41

Referenser

[1] Sayler, Kelley M. 2020. Artificial Intelligence and National Security. Washington, DC:

Congressional Research Service.

[2] Poola, Indrasen. (2017). How Artificial Intelligence in Impacting Real Life Every day.

International Journal for Advance Research and Development. 2. 96-100.

[3] Caldwell, M., Andrews, J.T.A., Tanay, T. et al. AI-enabled future crime. Crime Sci 9, 14 (2020).

https://www.researchgate.net/publication/343458962_AI-enabled_future_crime

[4] Wolfgang, Ertel. 2017. Introduction to Artificial Intelligence. Second Edition. Springer International Publishing

[5] Oppy, Graham and David Dowe. "The Turing Test". The Stanford Encyclopedia of Philosophy (Winter 2020 Edition). Edward N. Zalta (ed.)

https://plato.stanford.edu/archives/win2020/entries/turing-test/ (Hämtad 2021-06-04) [6] McKendrick, Kathleen. 2019. Artificial Intelligence Prediction and Counterterrorism.

London: Royal Institute of International Affairs.

https://www.chathamhouse.org/sites/default/files/2019-08-07-AICounterterrorism.pdf (Hämtad 2021-01-29)

[7] Boaz Ganor (2019) Artificial or Human: A New Era of Counterterrorism Intelligence?, Studies in Conflict & Terrorism, DOI: 10.1080/1057610X.2019.1568815

[8] Tegemark, Max. 2017. Life 3.0: Being Human in the Age of Artificial Intelligence. New York: Alfred A. Knopf.

[9] Bostrom, Nick. 2014. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press.

[10] Inayatullah, Sohail. Future Studies: Theories and Methods.

https://www.bbvaopenmind.com/en/articles/futures-studies-theories-and-methods/ (Hämtad 2021-04-08)

[11]Davidson, Phil. University of Phoenix. Delphi Method.

https://research.phoenix.edu/content/research-methodology-group/delphi-method (Hämtad 2021-05-03)

[12] Korsell, Lars; Verterhav, Daniel. 2012. Framväxten av och kännetecken hos den

organiserade brottsligheten i Sverige. I Hagsted, Johanna. Brottsutvecklingen i Sverige 2008–

2011.

https://www.bra.se/download/18.22a7170813a0d141d21800052658/1371914741967/15+Fra

42 mv%C3%A4xten+av+och+k%C3%A4nnetecken+hos+den+organiserade+brottsligheten+i+S verige.pdf (Hämtad 2021-03-29)

[13] Europol. 2020. Internet Organised Crime Threat Assessment (IOCTA),

https://www.europol.europa.eu/activities-services/main-reports/internet-organised-crime-threat-assessment-iocta-2020 (Hämtad 2021-04-26)

[14] BRÅ. 2010. Lokal Organiserad Brottslighet – en handbok om motåtgärder. Stockholm:

BRÅ.

https://bra.se/download/18.744c0a913040e4033180005977/1371914719040/2010_lokal_orga niserad_brottslighet.pdf (Hämtad 2021-03-30)

[15] European Commission. Organised Crime & Human Trafficking.

https://ec.europa.eu/home-affairs/what-we-do/policies/organized-crime-and-human-trafficking_en (Hämtad 2021-03-30)

[16] Europaparlamentets och rådets direktiv 2008/841/RIF av den 24 oktober 2008 om kampen mot organiserad brottslighet.

https://eur-lex.europa.eu/legal-content/SV/TXT/HTML/?uri=CELEX:32008F0841&from=EN#d1e152-42-1(Hämtad 2021-03-30)

[17] Ds 2008:6. Sveriges antagande av rambeslut om kampen mot organiserad brottslighet.

https://www.regeringen.se/49bb60/contentassets/9b2333cbaad245bea840f09ea3688207/sveri ges-antagande-av-rambeslut-om-kampen-mot-organiserad-brottslighet-ds-20086 (Hämtad 2021-03-31)

[18] Europol. 2017. Serious and Organised Crime Threat Assessment.

https://www.europol.europa.eu/socta/2017/defining-serious-and-organised-crime.html (Hämtad 2021-03-30)

[19] Polisen. Organiserad brottslighet – polisens arbete. https://polisen.se/om-polisen/polisens-arbete/organiserad-brottslighet/ (Hämtad 2021-03-31)

[20] SOM-Institutet. 2020. Svenska Trender 1986-2019. Göteborgs Universitet.

https://www.gu.se/sites/default/files/2020-04/6.%20Svenska%20Trender%20%281986-2019%29.pdf (Hämtad 2021-04-01)

[21] Institute for Economics & Peace. Global Terrorism Index 2020: Measuring the Impact of Terrorism. Sydney, November 2020.

https://www.visionofhumanity.org/wp-content/uploads/2020/11/GTI-2020-web-1.pdf (Hämtad 2021-04-01)

[22] Summering av Europaparlamentets och rådets direktiv 2017/541 om bekämpande av terrorism. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=LEGISSUM%3A4322328 (Hämtad 2021-04-01)

[23] European Parliament. 2021. Civil Liberties Committee endorses deal with the Council to prevent terrorist content online. 12 januari.

https://www.europarl.europa.eu/news/en/press-43 room/20210111IPR95316/civil-liberties-endorses-regulation-addressing-terrorist-content-online (Hämtad 2021-04-11)

[24] Nieva, Richard. 2017. How Facebook uses artificial intelligence to fight terrorism. Cnet.

15 juni. https://www.cnet.com/news/how-facebook-uses-artificial-intelligence-to-fight-terrorism/ (Hämtad 2021-02-01)

[25] Youtube Official Blog. 2020. Using technology to more consistently apply age restrictions. 22 September. https://blog.youtube/news-and-events/using-technology-more-consistently-apply-age-restrictions/ (Hämtad 2021-04-12)

[26] Agrawal, Parag. 2019. Twitter acquires Fabula AI to strengthen its machine learning expertise. Twitter blog. 3 June. https://blog.twitter.com/en_us/topics/company/2019/Twitter-acquires-Fabula-AI.html (Hämtad 2021-04-12)

[27] Twitter blog. 2016. Partnering to help curb the spread of terrorist content online.

Twitter blog. 5 December. https://blog.twitter.com/official/en_us/a/2016/partnering-to-help-curb-the-spread-of-terrorist-content-online.html (Hämtad 2021-04-12)

[28] Blacklock, James. 2015. Lone Wolf Terrorism: Leaderless Resistance. 5 October.

https://www.phc.edu/intelligencer/lone-wolf (Hämtad 2021-04-13)

[29] Akhgar, B., Staniforth, A., & Bosco, F. (Eds.). 2014. Cyber crime and cyber terrorism investigator's handbook. ProQuest Ebook Central

https://ebookcentral-proquest-com.ezproxy.bib.hh.se

[30] Blakemore, B. 2012. Policing cyber hate, cyber threats and cyber terrorism. ProQuest Ebook Central https://ebookcentral-proquest-com.ezproxy.bib.hh.se

[31] The National Science and Technology Council. 2016. Preparing for the future of Artificial Intelligence.

https://web.archive.org/web/20161013141538/https://www.whitehouse.gov/sites/default/files/

whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf

[32] European Union Aviation Safety Agency, EASA. 2020. Artificial Intelligence Roadmap – A human-centric approach to AI in aviation.

https://www.easa.europa.eu/sites/default/files/dfu/EASA-AI-Roadmap-v1.0.pdf

[33] Mitchell, Tom M. 1997. Machine Learning. McGraw-Hill Science/Engineering/Math http://pattern-recognition.weebly.com/uploads/4/0/1/0/40109209/machine_learning-mitchell_ch3_.pdf

44 [34] LeCun, Yann & Bengio, Y. & Hinton, Geoffrey. (2015). Deep Learning. Nature. 521.

436-44. 10.1038/nature14539.

https://www.researchgate.net/publication/277411157_Deep_Learning

[35] Penn, D., Holyoak, K., & Povinelli, D. (2008). Darwin's mistake: Explaining the discontinuity between human and nonhuman minds. Behavioral and Brain Sciences, 31(2), 109-130. doi:10.1017/S0140525X08003543

[36] Deutsch, David. 2012. How close are we to creating artificial intelligence?. Aeon. 3 October. https://aeon.co/essays/how-close-are-we-to-creating-artificial-intelligence (Hämtad 2021-04-16)

[37] Vincent C. Müller & Nickman Bostrom. (2014). Future in Artificial Intelligence: A Survey of Expert Opinion. https://www.nickbostrom.com/papers/survey.pdf

[38] Modis, Theodore. (2006). The singularity is near: When humans transcend biology - Discussions. Technological Forecasting and Social Change. 73. 104-112.

10.1016/j.techfore.2005.12.004.

[39] Grace, K; Salvatier, J; Dafoe, A; Zhang, B; Evans, O. 2018. When Will AI Exceed Human Performance? Evidence from AI Experts. https://arxiv.org/abs/1705.08807v3 (Hämtad 2021-04-19)

[40] McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd., ISBN 978-1-56881-205-2. pp. 4-5

[41] K. Gödel, Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. Monatsheft für Mathematik und Physik 38(1), 173–198 (1931) [42] A.M. Turing. On computable numbers, with an application to the

Entscheidungsproblem. Proceedings of the London Mathemat. Society, 42(2), 1937 [43] A.M. Turing, Computing Machinery and Intelligence. Mind 59, 433–460 (1950) [44] A.L. Samuel, Some Studies in Machine Learning Using the Game of Checkers. IBM Journal 1(3), 210–229 (1959)

[45] A. Newell, J. C. Shaw, and H. A. Simon. Empirical explorations with the logic theory machine: A case study in heuristics. In J. Siekmann and G. Wrightson, editors, Automation of Reasoning 1: Classical Papers on Computational Logic 1957-1966, pages 49–73. Springer, Berlin, Heidelberg, 1983. Erstpublikation: 1957

[46] Official Dartmouth website. https://250.dartmouth.edu/highlights/artificial-intelligence-ai-coined-dartmouth (Hämtad 2021-06-04)

45 [47] Edwin D. Reilly (2003). Milestones in computer science and information technology.

Greenwood Publishing Group. pp. 156–157. ISBN 978-1-57356-521-9.

[48] F. Rosenblatt. 1958. The Perceptron: A Probabilistic Model For Information Storage and Organization In The Brain. Cornell Aeronautical Laboratory.

https://www.ling.upenn.edu/courses/cogs501/Rosenblatt1958.pdf

[49] A. Newell, H.A. Simon, Gps, a program that simulates human thought, in Lernende Automaten, ed. by H. Billing (Oldenbourg, München, 1961), pp. 109–124

[50] J. Weizenbaum, ELIZA–A Computer Program For the Study of Natural Language Communication Between Man and Machine. Communications of the ACM 9(1), 36–45 (1966)

[51] T.J. Sejnowski and C.R. Rosenberg. NETtalk: a parallel network that learns to read aloud. Technical Report JHU/EECS-86/01, The John Hopkins University Electrical Engineering and Computer Science Technical Report, 1986. Wiederabdruck in [AR88] S.

661–672

[52] Cooper GF (1990). "The Computational Complexity of Probabilistic Inference Using Bayesian Belief Networks" (PDF). Artificial Intelligence. 42 (2–3): 393–405.

doi:10.1016/0004-3702(90)90060-d.

[53] Robocup official site. http://www.robocup.org (Hämtad 2021-04-22)

[54] IBM offical site. https://www.ibm.com/ibm/history/ibm100/us/en/icons/deepblue/

(Hämtad 2021-04-22)

[55] Ferrucci, David & Levas, Anthony & Bagchi, Sugato & Gondek, David & Mueller, Erik. (2013). Watson: Beyond Jeopardy!. Artificial Intelligence.

[56] D. Silver, A. Huang, C.J. Maddison, A. Guez, L. Sifre, G. van den Driessche, J.

Schrittwieser, I. Antonoglou, V. Panneershelvam, M. Lanctot et al., Mastering the game of go with deep neural networks and tree search. Nature 529(7587), 484–489 (2016)

[57] Juliani, Arthur. 2017. Introducing: Unity Machine Learning Agents Toolkit. Unity blog.

19 September. https://blogs.unity3d.com/2017/09/19/introducing-unity-machine-learning-agents/ (Hämtad 2021-04-22)

46 [58] Devlin, J; Chang, M-W; Lee, K; Toutanova, K. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding.

https://arxiv.org/pdf/1810.04805.pdf (Hämtad 2021-04-22)

[59] Breen, Philip G. et al. “Newton vs the machine: solving the chaotic three-body problem using deep neural networks.” ArXiv abs/1910.07291 (2019): n. pag.

[60] Callaway, Ewan. 2020. ‘It will change everything’: DeepMind’s AI makes gigantic leap in solving protein structures. Nature. 30 November. https://www.nature.com/articles/d41586-020-03348-4 (Hämtad 2021-04-23)

[61] OpenAI. 2018. OpenAI Five. 25 June. https://openai.com/blog/openai-five/ (Hämtad 2021-04-23)

[62] CRS In Focus IF11150, Defense Primer: U.S. Policy on Lethal Autonomous Weapon Systems, by Kelley M. Sayler.

[63] Babuta, A; Oswald, M. 2020. Data Analytics and Algorithms in Policing in England and Wales – Towards A New Policy Framework. Royal United Services Institute.

https://rusi.org/sites/default/files/rusi_pub_165_2020_01_algorithmic_policing_babuta_final _web_copy.pdf

[64] Kate J Bowers, Shane D Johnson and Ken Pease, ‘Prospective Hot-Spotting: The Future of Crime Mapping?’, British Journal of Criminology (Vol. 44, No. 5, 2004), pp. 641–58;

Shane D Johnson et al., ‘Prospective Crime Mapping in Operational Context: Final Report’, Home Office, Online Report 19/07, 2007.

[65] Couchman, H. 2019. Policing by Machine. https://www.libertyhumanrights.org.uk/wp-content/uploads/2020/02/LIB-11-Predictive-Policing-Report-WEB.pdf

[66] Lu, Xiaoguang. 2008. Image Analysis for Face Recognition. https://www.face-rec.org/interesting-papers/General/ImAna4FacRcg_lu.pdf

[67] IJIS Institute and IACP Law Enforcement Imaging Techology Task Force. 2019. Law Enforcement Facial Recognition Use Case Catalog.

https://www.theiacp.org/sites/default/files/2019-10/IJIS_IACP%20WP_LEITTF_Facial%20Recognition%20UseCasesRpt_20190322.pdf [68] European Commision. 2021. Regulatory framework proposal on Artificial Intelligence.

21 April. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (Hämtad 2021-05-12)

[69] BBC News. 2019. Apple AI accused of leading to man’s wrongful arrest. 23 April.

https://www.bbc.com/news/technology-48022890(Hämtad 2021-05-12)

47 [70] Hill, Kashmir. 2020. Wrongfully accused by an algorithm. The Denver Post. 20 Juli.

https://www.pressreader.com/usa/the-denver-post/20200720/281990379835542 (Hämtad 2021-05-12)

[71] Buolamwini, Joy; Gebru, Timnit. 2018. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.

http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf (Hämtad 2021-05-13)

[72] Rudin, Cynthia. 2019. Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use Interpretable Models Instead. 22 September.

https://arxiv.org/pdf/1811.10154.pdf (Hämtad 2021-05-13)

[73] Baum, Seth D; Goertzel, Ben; Goertzel, Ted G. 2011. How long Until Human-Level AI?

Results from an Expert Assessment. https://sethbaum.com/ac/2011_AI-Experts.pdf

Besöksadress: Kristian IV:s väg 3 Postadress: Box 823, 301 18 Halmstad Telefon: 035-16 71 00

E-mail: registrator@hh.se www.hh.se

Ludvig Lerbom

Related documents