• No results found

Rå och trolltyg i informationsskogen : En kvalitativ studie om hur statliga aktörer kan motverka påverkansoperationer på social media

N/A
N/A
Protected

Academic year: 2021

Share "Rå och trolltyg i informationsskogen : En kvalitativ studie om hur statliga aktörer kan motverka påverkansoperationer på social media"

Copied!
41
0
0

Loading.... (view fulltext now)

Full text

(1)

HT2019

Informatik med systemvetenskaplig inriktning, kandidatkurs, 15hp Ämne: Informatik

Handelshögskolan vid Örebro Universitet Handledare: Ann-Sofie Hellberg

Examinator: Annika Andersson

Rå och trolltyg i informationsskogen

- En kvalitativ studie om hur statliga aktörer kan motverka

påverkansoperationer på social media.

Författare: Filip Lundborg, Samuel Lindkvist och Oskar Ågren

(2)

Abstract

Influence operations are not by any means a new phenomenon. For a long time, states have been trying to gain influence over each other in different ways. But in this day and age, social media poses new opportunities and challenges regarding the impact of influence operations.

The purpose of this paper is to compile relevant research and present a clear image of techniques that can be used to combat influence operations on social media. In this paper we also examine social media as a tool to counter information operations.

This paper consists of one systematic literature review and one minor case study conducted on the Swedish Civil Contingencies Agency (MSB). MSB is the government agency responsible for advising all other Swedish authorities and agencies on the subject of influence operations. The study shows that several methods to counter influence operations have been presented in previous research. Both technical and administrative approaches. MSB focuses on administrative methods but is open to the idea of using technical solutions to help counter influence operations. Furthermore, social media can be used as a tool to counter influence operation based on certain characteristics.

(3)

Innehållsförteckning

Innehåll

1. Introduktion... 1

1.1 Bakgrund ... 1

1.2 Problemformulering ... 2

1.3 Syfte och frågeställning ... 3

1.4 Avgränsning ... 4 2. Tidigare forskning ... 5 3. Metod ... 11 3.1 Val av metod ... 11 3.1.1 Val av fall 11 3.2 Litteraturstudie ... 12 3.2.1 Analysmetod litteraturstudie 15 3.3 Fallstudie ... 15 3.3.1 Analysmetod fallstudie 17 3.4 Källkritik ... 18 4. Resultat ... 19

4.1 Tidigare föreslagna angreppssätt inom forskningen ... 19

4.2 Myndigheten för samhällsskydd och beredskap ... 21

5. Diskussion ... 27 5.1 Resultatdiskussion ... 27 5.2 Metoddiskussion... 28 5.2.1 Litteraturstudie 29 5.2.2 Fallstudie 29 5.2.3 Intervju 29 5.3 Etisk diskussion ... 30 6. Slutsats ... 31 Referenser ... 33 Bilagor... 36 Bilaga 1 ... 36

(4)

Begreppslista

Påverkansoperation/påverkansaktivitet - något som genomförs “av statsaktörer som ett sätt att försöka uppnå inflytande över andra länders säkerhetspolitik. Målsättningen är att påverka beslut, uppfattningar eller beteenden hos statsledningen, befolkningen eller särskilt utvalda målgrupper som ett sätt för en stat att främja sina egna säkerhetspolitiska mål. Detta sker exempelvis genom spridning av vilseledande eller oriktig information för att skapa förvirring, misstro eller missnöje” (Regeringskansliet, 2018).

Troll - Personer som medvetet skriver kränkande kommentarer och/eller sprider felaktig information på sociala medier.

Bottar - Automatiserade användare.

Social media - Webbaserade plattformar där användare själva skapar innehåll och direkt kan kommunicera med varandra genom text, bild eller rörligt material.

Desinformation – Medveten spridning av felaktig information. Misinformation - Omedveten spridning av felaktig information.

Falska nyheter - påhittad nyhet som sprids som en sanning för att vilseleda människor. Statlig aktör - Statlig organisation som utför någon typ av handling.

Tekniskt angreppssätt - Tekniska sätt definieras i denna uppsats som angreppssätt där informationsteknologi (IT) står i fokus. Det kan exempelvis innefatta implementering av programvara, data- och nätverksanalys, digital märkning av information, implementerade matematiska lösningar samt lösningar som innefattar artificiell intelligens (AI).

Administrativt angreppssätt - Administrativa är de angreppssätt där människan står i fokus. Exempelvis kan det vara lagförslag, ändringar av organisationella strukturer, olika typer av ramverk samt olika typer av utbildningsinsatser, samarbetsmöjligheter och liknande.

Artificiell intelligens (AI) / Machine learning / deep neural network - konstgjord intelligens i form av datorsystem som försöker replikera den mänskliga hjärnan.

Deepfake - Media, rörlig eller stilla som manipulerats genom artificiella neurala nätverk för att likna någonting annat. Exempelvis byta ut ett ansikte mot ett annat i ett videoklipp.

Cyberforensik - vetenskaplig process för att autentisera, identifiera, dokumentera och analysera digitala bevis.

Filterbubbla - Uppstår när internetanvändare isoleras från information som går emot en åsikt. Kognitiv psykologi - Del av psykologin som studerar hur människor behandlar information.

(5)

1

1. Introduktion

I detta inledande avsnitt ges en bakgrund till det ämnesområde som ska undersökas. Problematik inom ämnesområdet diskuteras och frågeställning, syfte samt avgränsning presenteras.

1.1 Bakgrund

År 1588 e.Kr utkämpades ett sjöslag mellan Spanien och England strax utanför Azorerna. Den spanska armadan led ett kolossalt nederlag och för att täcka sina förluster förmedlades falska, förtalande broschyrer och brev till den egna befolkningen och andra stormakter i Europa. Detta till britternas stora förtvivlan och irritation (American Historical Association, u.å).

I svenska sammanhang kallas ovan nämnda typ av agerande för en påverkansoperation. Den svenska militära underrättelse- och säkerhetstjänsten (MUST) definierar

påverkansoperationer som något som genomförs “av statsaktörer som ett sätt att försöka uppnå inflytande över andra länders säkerhetspolitik. Målsättningen är att påverka beslut, uppfattningar eller beteenden hos statsledningen, befolkningen eller särskilt utvalda målgrupper som ett sätt för en stat att främja sina egna säkerhetspolitiska mål. Detta sker exempelvis genom spridning av vilseledande eller oriktig information för att skapa förvirring, misstro eller missnöje”

(Regeringskansliet, 2018).

Ett annat exempel går att hitta under den amerikanska revolutionen. Benjamin Franklin

förfalskade tidningsartiklar som han förmedlade till brittiska nyhetsredaktörer. Han hoppades att artiklarna skulle publiceras i brittiska tidningar och således läsas av ett stort antal brittiska invånare. En av artiklarna beskrev hur de nordamerikanska urinvånarna, på befallning av britterna, begått grymheter mot resten av den amerikanska befolkningen (Harrington, 2014). Social media har fått ett stort genomslag både inom Sverige och internationellt och under 2020 beräknas tre miljarder människor använda social media regelbundet (Statista, 2019).

Introduktionen av social media och det stora användarantalet för med sig nya möjligheter för länder att försöka påverka varandra. Social media kännetecknas av webbaserade plattformar där användare själva skapar innehåll och direkt kan kommunicera med varandra genom text, bild eller rörligt material som exempelvis Facebook, Snapchat, YouTube, Instagram och Twitter (Weibull & Eriksson, u.å).

(6)

2

Till skillnad från traditionella medietekniker som tryck, television och radio har social media en helt annan struktur. Denna struktur innebär att innehåll kan distribueras utan faktagranskning eller redaktionellt omdöme. Trots detta kan, i vissa enskilda fall, en nyhet publicerad på social media nå lika många läsare som CNN, Fox News eller The New York Times (Allcott, 2017). Ett konkret exempel på hur social media använts vid en påverkansoperation kommer från det amerikanska valet 2016 där den ryska Internet Research Agency (IRA) försökte underminera förtroendet för den amerikanska demokratiska processen, genom användandet av social media som plattform. Cirka 126 miljoner amerikaner nåddes av riktad rysk propaganda under

presidentvalet. (Jensen, Valeriano och Maness, 2019).

Fenomenet med social media som plattform för påverkansoperationer är något som den svenska staten tar på allvar. Myndigheten för samhällsskydd och beredskap (MSB) har publicerat en rapport (Myndigheten för samhällsskydd och beredskap [MSB], 2018) som behandlar hur social media är en stor tillgång i det politiska samtalet men också ett potentiellt problem. I rapporten lyfter MSB flera olika typer av förhållningssätt och strategier som kan tillämpas för att förebygga och identifiera en påverkansoperation.

1.2 Problemformulering

Som beskrivits ovan har social media en helt annan struktur än traditionella medieplattformar. Enligt Roy, Deb, Aral och Sinan (2018) underlättar den moderna sociala teknologin snabb informationsdelning och storskaliga informationsflöden vilket medför stora risker att denna funktionalitet utnyttjas av illasinnade aktörer. Det är även en låg tröskel för att kunna sprida ett budskap på social media. Det är kostnadsfritt att bli medlem och det är möjligt att vara anonym (personlig kommunikation, 4 december 2019).

Ytterligare problematik med social media som tillför till fenomenets komplexitet är att dess struktur kan utnyttjas genom både tekniska och sociala ansatser. Tekniska ansatser är att

plattformar som Facebook och Twitter låter användare rikta inlägg till de som är extra mottagliga för ett budskap baserat på profilegenskaper, som intresse, adress och vänner (Myndigheten för Samhällsskydd och Beredskap, 2018). Automatiserade användare, så kallade bottar, kan sedan

(7)

3

interagera med inlägg och således förstärka budskapens räckvidd och trovärdighet (Woolley & Calo, 2018).

Till de sociala angreppssätten hör falska användare med syfte att manipulera, s.k troll. Dessa producerar och publicerar inlägg, kommenterar och debatterar innehåll i syfte att stärka sin avsikt (Dawson, 2019). Ett annat bekymmer är att det finns både organisationer och individer som specialiserat sig på att utnyttja ovan nämnda tekniker. Dessa tjänster är tillgängliga och kan köpas av vem som helst (NATO StratCom, 2018). Vad som gör situationen än mer kritisk är förmågan att göra falska budskap trovärdigare genom artificiell intelligens. Röster och bilder kan replikeras och förvanskas och således kan vem som helst säga vad som helst i ett förfalskat ljud- eller videoklipp, s.k deepfake (Oltmann, 2018).

Det finns strategier presenterade för hur spridning av desinformation och påverkansoperationer kan motverkas. Däremot finns ingen konsensus bland forskare om hur påverkansoperationer ska bemötas och endast begränsad forskning finns för hur statliga aktörer i verkligheten förhåller sig till problemet (se avsnitt 2. Tidigare Forskning). Denna studie bidrar till att fylla detta

kunskapsbehov genom att sammanställa de angreppssätt som undersökts i vetenskapliga studier samt genom att undersöka hur påverkansoperationer hanteras i en svensk kontext.

1.3 Syfte och frågeställning

Denna studie har två primära syften. Det ena syftet är att kartlägga de angreppssätt som sedan tidigare finns och således bidra med en samlad beskrivning över hur påverkansoperationer kan bemötas.

Det andra syftet är att beskriva hur social media kan tillämpas i arbetet med att motverka påverkansoperationer.

För att tillgodose dessa syften ska följande frågeställningar besvaras.

1. Vilka administrativa och tekniska angreppssätt finns för att hantera påverkansoperationer som genomförs över social media?

2. Vilka möjligheter ger social media statliga aktörer i arbetet med att motverka påverkansoperationer?

(8)

4

1.4 Avgränsning

Administrativa och tekniska angreppssätt definieras i uppsatsen enligt följande. Administrativa är de angreppssätt där människan står i fokus. Exempelvis kan det vara lagförslag, ändringar av organisatoriska strukturer, olika typer av ramverk samt olika typer av utbildningsinsatser, samarbetsmöjligheter och liknande.

Tekniska sätt är istället tillvägagångssätt där informationsteknologi (IT) står i fokus. Det kan exempelvis innefatta implementering av programvara, data- och nätverksanalys, digital märkning av information, implementerade matematiska lösningar samt lösningar som innefattar artificiell intelligens (AI).

Studien är avgränsad till att beskriva strategier för att motverka påverkansoperationer och hur social media kan användas som ett motmedel. Att använda social media som ett motmedel innebär att plattformens funktionalitet används som ett verktyg eller att plattformens öppna gränssnitt utnyttjas för att utvinna data.

Arbetet kommer inte att beröra påverkansoperationer i andra mediekanaler som ex. TV, radio och tryck.

(9)

5

2. Tidigare forskning

I avsnittet presenteras de angreppssätt som finns tillgängliga i tidigare forskning på området.

Vid genomförande av litteratursökning framgår flera olika typer av föreslagna angreppssätt. Walker (2019) argumenterar för att desinformation är ett integritetsproblem som ska hanteras av säkerhetsexperter och hänvisar till informationssäkerhetskonceptet i att upprätthålla

konfidentialitet (confidentiality), integritet (integrity) och tillgänglighet (availability), den så kallade AIC-triangeln.

Ett första steg mot ett bra försvar mot påverkansoperationer är att identifiera de hot som finns och de attacker som används. Att identifiera dessa komponenter ger en bra överblick av hotbilden som kan leda till att nya hot kan identifieras. Likaså underlättas fördelning av resurser och val av strategi. I studien utvecklas ett ramverk, som är baserat på existerande

informationssäkerhetsprinciper, för att skapa förståelse för påverkansoperationer. Det ramverk som presenteras benämns som “The ATT&CK Tactics, Techniques and Procedures” och beskriver mönster av aktiviteter som utförs av en aktör. Vidare förespråkar författaren mer formella och rigorösa angreppssätt för att identifiera och försvara påverkansoperationer. Detta då författaren anser att verktyg inte har något värde i sig själv och i samband med att bättre verktyg för identifiering utvecklas så anpassas även de taktiker och tekniker som används av förövaren (Walker, 2019).

Även forskarna Zhang, Gupta, Kauten, Deokar och Qin (2019) har tagit fram ett ramverk. Dock med syftet att kunna urskilja falska nyhetsartiklar mot sanna. Ramverket, som författarna döpt till “FEND” bygger på lingvistisk analys. FEND består av två lager där det första lagret hittar vad författarna kallar för “falska ämnen” (false topics), medan det andra lagret hittar vad författarna kallar “falska händelser” (fake events). Ramverket ska då användas för att kontrollera

nyhetsartiklar och deras fakta.

Matematiska lösningar för att spåra mönster i hur människor interagerar med information på webbaserade plattformar har tagits fram. Ett exempel är Azhmuhamedov (2018) som tagit fram en algoritm i syfte att kartlägga hur information sprids över social media i extremistiska kretsar. Baserat på resultaten från sin algoritm menar Azhmuhamedov att för att motverka spridningen av “illasinnad information” (malicious information) så ska man agera enligt följande.

(10)

6

1. Misskreditera källan. I syfte att minska dess trovärdighet.

2. Använda sig av egna kanaler för att snabbt avleda eventuella mottagare av destruktiv information med annan information, och därmed minska den destruktiva informationens relevans, samt antalet individer som är benägna att sprida den.

Gilchrist (2018) menar att med tanke på den enorma mängd information som finns tillgänglig för människor genom sökmotorer och sociala nätverk, så behöver medvetandegraden hos

befolkningen höjas angående denna typ av fenomen. Författaren menar att

informationskompetens (information literacy) behöver höjas hos samtliga som värnar om demokratiska värderingar och tar del av information i dagens samhälle.

Liknande argument diskuteras av Oltmann (2018) som anser att resistans mot falsk information byggs genom ökad informationskunskap och bättre undervisning. Författaren anser vidare att reducerad tillgänglighet och censur av information inte är en effektiv lösning.

Kumar och Geethakumari (2014) menar att man kan motverka spridning av desinformation på social media genom att använda kognitiv psykologi. De förklarar att om man väljer att tro på exempelvis en falsk nyhet beror på vad man som individ tror på och har åsikter om idag. Om artikeln bekräftar det du sedan tidigare tror har du lättare att acceptera det, även om det egentligen är osant. När en person läst en falsk nyhet som bekräftar dennes tro och åsikter och sedan får information om att denna var just falsk är det svårt att få denna person att tro på att den var falsk. Det kan till och med förstärka tron på den falska artikeln hos läsaren.

Faktorer som ökar informationens trovärdighet hos läsaren är följande:

1. Konsekvens i informationen: Om informationen stämmer överens med läsarens tro och värderingar.

2. Informationens sammanhållning: Om informationen i sig, exempelvis artikeln, har bra sammanhållning och inte säger emot sig själv.

3. Källans trovärdighet: Om informationen kommer från en trovärdig källa. 4. Generell acceptans: Om andra människor tror på denna information.

Dessa faktorer är grunden till det förslag som författarna presenterar. De har utvecklat en algoritm som analyserar tweets. Syftet med denna är att presentera källans trovärdighet och till

(11)

7

vilken grad andra människor tror på informationen i tweeten. Utifrån detta ska användaren se en figur som visar hur trovärdig informationen i tweeten bör uppfattas vara. Användaren kan sedan ta ett beslut om den vill läsa informationen trots att den potentiellt inte ska betraktas som

trovärdig.

Rubin (2019) tar ett annat perspektiv på fenomenet och förklarar desinformation som en epidemi. På detta sätt förklarar författaren användare som mottagliga för att smittas och bärare av denna sjukdom. Falsk information såsom falska nyheter ses som själva bakterien och social media är omgivningen där dessa bakterier frodas och kan spridas till användare.

I artikeln läggs tre olika sätt fram att motverka desinformation för de tre komponenterna i denna epidemi. För att motverka den falska informationen (bakterien) anser hon att det bästa sättet är att upptäcka exempelvis falska nyheter automatiskt. Detta görs genom maskininlärning som

analyserar texten i en artikel och kan avgöra om den innehåller sann eller falsk information (Rubin, 2019).

För användare (mottagare för bakterierna) föreslås ett mer administrativt sätt för att motverka mottagligheten. I detta fall är utbildning i källkritik en viktig del för att öka användarens förmåga att kunna upptäcka falska nyheter. Detta är speciellt viktigt bland unga men även bland äldre med mindre datorvana. Låg-, mellan-, och högstadieskolor runt om i USA har börjat introducera källkritik i läroplanen just av denna anledning (Rubin, 2019).

Den tredje komponenten i epidemin, social media (omgivningen), bör istället regleras med hjälp av lagstiftning. Ett steg mot detta har Tyskland tagit som 2018 införde en lag mot social media. Om hatpropaganda som publiceras på deras plattform inte tas bort kan företaget dömas att betala upp till 50 miljoner Euro i böter. EU vill jobba fram en plan för att motverka spridningen av falsk information på social media genom reglering men inget konkret tillvägagångssätt har införts ännu (Rubin, 2019).

Likt Rubin (2019) lägger även Leonova (2018) vikt vid att användare av social media ska utbildas i källkritik och främst vid tidig ålder. Användare är själva ansvariga för hur de

konsumerar information och för att vända sig till en annan, mer trovärdig, källa än social media för att läsa nyheter.

Vidare förespråkar författaren mer tekniska alternativ för att motverka desinformation. Förslaget är att märka falsk information med en unik etikett. I och med detta ska det inte behövas att falsk information eller falska nyheter blockeras. Istället kan användare själva bestämma om de vill

(12)

8

lägga tid på att läsa något som de vet inte är sant. Detta är bättre än att blockera eller censurera information vilket kan vara ett brott mot yttrandefriheten (Leonova, 2018).

Annan forskning visar på hur det jobbas på olika sätt i olika delar av världen för att motverka desinformation och påverkansoperationer. I USA jobbar Facebook själva tillsammans med flera olika faktagranskade organisationer. Dessa organisationer får potentiell desinformation skickade till sig från Facebook som de har i uppdrag att granska. De kan ha tusentals artiklar och objekt samtidigt som väntar på att granskas (Stray, 2019).

Utöver samarbetet med faktagranskade organisationer jobbar Facebook på egen hand mot desinformation och falska nyheter. Sedan december 2016 kan Facebookanvändare rapportera en artikel som visats i deras nyhetsflöde som en falsk nyhet. Dessutom arbetar Facebook aktivt med att identifiera och ta bort konton, person- samt företagssidor som involverar falska identiteter eller vilseledande aktiviteter (Stray, 2019).

Ehrenfeld och Barton (2019) beskriver i en del av sin rapport ett problem med social media, och använder Facebook som exempel. Författarna skriver att även om Facebook till viss del hanterar inlägg ämnade att orsaka “riktig skada” genom att ta bort dessa, så är plattformarna i grunden konstruerade på ett ofördelaktigt sätt. Ehrenfeld och Barton förklarar vidare att Facebook är konstruerat så att användare är menade att interagera med innehåll som ska engagera dem. Vilket då menas är en grogrund för att sprida misinformation och desinformation och att Facebooks egna algoritmer amplifierar denna des-/ misinformation.

I Kina finns istället ett annat tillvägagångssätt för att kontrollera information i landet. Alla webbsidor och social media måste vara licensierade av staten och plattformarna är själva ansvariga för vad deras användare publicerar. En lag bestämmer också att alla användare på respektive plattform måste registrera sig med sitt riktiga namn om de väljer att bli medlemmar där. Om exempelvis ett inlägg på en social media bedöms vara olagligt kan den som publicerade innehållet dömas till upp till tre år i fängelse. Enligt en rapport från 2014 deltar två miljoner människor uppdelade i 800 organisationer i att övervaka plattformar och försöker hitta olagliga inlägg. Det finns dessutom ett nätverk av människor som kallas “50c party” som sprider

regeringens budskap på social media i syfte att kontrollera informationsflödet. De sprider dock inte desinformation i sig utan engagerar sig istället i politiska frågor som de flesta politiker och medborgare delar samma åsikt om för att lyfta fram det positiva i dessa (Stray, 2019).

(13)

9

NATO (North Atlantic Treaty Organisation)-medarbetarna Brangetto och Venendaal (2016), som i sin konferensartikel diskuterar cyberoperationer i stort (där påverkansoperationer ingår), lyfter även dom fram vikten av att ha en medveten befolkning för att motverka påverkansoperationer. Författarna menar att nyckeln för att öka medvetandegraden är en ökad transparens från stater om fenomenet. Media måste få ta del av sanningsenlig och verifierbar information för att kunna förmedla en tydlig lägesbild till befolkningen, i nuläget menar författarna att effekten av cyberoperationer av olika slag ofta överdrivs på grund av hemlighetsmakeri från stater.

Dalton (2017) hävdar att cyberforensik ska användas för att skapa förståelse för organisationerna bakom påverkansoperationer och de aktiviteter som utförs. I studien presenteras ett verktyg som analyserar användarnamn med tillhörande URL från Twitter. Utifrån de parametrarna kan IP-adress och plats tillhörande ett konto utvinnas. Enligt författaren är förståelse för

påverkansoperation ett steg mot en säkrare omgivning (Dalton, 2017).

Liknande tillvägagångssätt används av Bevensee (2019) som försöker utveckla djupare förståelse för riktade desinformationskampanjer och hur information sprids genom att analysera data från Twitter, med fokus på Alt-Right rörelsen. Författaren hävdar att kunskap om hur rörelserna har lyckats är nödvändigt för att på bästa sätt kunna förhindra framtida liknande angrepp (Bevensee, 2019).

Ett flertal studier finns inriktade på automatisk detektering av desinformation, stötande innehåll, troll och bottar.

Viviani (2017) säger att människan har en begränsad kognitiv kapacitet som förhindrar en effektiv bedömning av information. Av den anledningen hävdar författaren att det finns ett stort behov av att utveckla gränssnitt och applikationer som automatiskt kan hjälpa användare att bedöma informationens trovärdighet. Enligt studien finns två olika tillvägagångssätt för att automatiskt bedöma trovärdigheten på social media. Den ena metoden undersöker innehåll och rubrik i ett meddelande samt vem som har skapat inlägget och dennes vänner. Den andra

metoden, som visat sig vara mer träffsäker, utforskar hur ett meddelande distribuerats och bygger på ett antagande om att falsk information ofta härstammar från en eller få relaterade individer i motsats till sann information som har sitt ursprung i flera orelaterade individer (Viviani, 2017). En annan strategi för identifiering av desinformation framförs av Yu (2019). Genom machine

learning och mer specifikt deep neural network (DNN) kan stora mängder data analyseras i

(14)

10

en möjlig lösning på problemet är att tidigt detektera en påverkansoperation för att sedan lansera en riktad motkampanj (Yu, 2019).

DNN används även av Zhang (2019) som i sin studie kommer fram till att metoden är effektiv för att identifiera stötande innehåll på Twitter. Författaren resonerar liknande Yu (2019) att

identifiering är det första steget för att kunna utveckla motåtgärder.

Verktyg som identifierar troll kräver en manuell injustering över vilka parametrar som ska uppmärksammas (Paavola, 2017). För att underlätta den manuella injusteringen grupperar författaren troll i olika arketyper. Dessa arketyper är kategoriserade efter vilka signaler de avger när de kommunicerar, ex. politiska eller stötande. Genom denna kunskap hoppas författaren att automatiska algoritmer kan bli än mer träffsäkra i att identifiera troll (Paavola, 2017).

P. Chew (2018) har tagit fram ett system för detektering av ryska nätverk med automatiserade användare, s.k botnätverk, på Twitter. Systemet bygger på att känna igen viss identifierad karaktäristik som bottar visat sig besitta. Tekniken bakom är att bryta ner tweets i mindre

beståndsdelar. Närmare bestämt varje enskilt ord. Chew tar resultaten av funktionen för att bland annat jämföra metadata som URL:er, tid och datum som inlägget publicerats. Författaren menar vidare att bottar ofta följer varandra i saker som ordval och tonalitet, vilket gör denna typ av verktyg väldigt effektivt. Eftersom att tweets går att korrelera med varandra även om

meningsuppbyggnaden inte är helt identisk. (Chew, 2018).

(15)

11

3. Metod

I avsnittet beskrivs tillvägagångssätt för datainsamling och analysmetod. Valen av insamlingsmetod och analysmetod motiveras även här.

3.1 Val av metod

Målet med uppsatsen är att kartlägga och beskriva de angreppssätt som finns för att motverka påverkansoperationer. Därför föll valet på att göra en kvalitativ studie som verkställs genom en strukturerad litteraturstudie i kombination med en mindre fallstudie. Detta bidrar till att ge svar på forskningsfrågorna ur både ett internationellt och svenskt perspektiv.

Litteraturstudier är lämpligt för kartläggning av det nuvarande forskningsläget och lämpar sig väl till att identifiera existerande teorier, metoder och algoritmer för att använda i sin egen forskning (Oates, 2016).

Bryman (2018) menar att fallstudier är bra för att producera en ingående och detaljerad bild av en händelse eller organisation. I vårt fall är det Myndigheten för Samhällsskydd och Beredskaps resonemang och råd gällande motverkan av påverkansoperationer.

Kombinationen av dessa två insamlingsmetoder bidrar till en bred bild av forskningsläget och hur berörda myndigheter arbetar med frågan.

3.1.1 Val av fall

Valet att studera MSBs riktlinjer och rekommendationer gällande motverkande av påverkansoperationer hänvisas till MSBs regeringsuppdrag;

“11 a § Myndigheten ska stödja och samordna arbetet med samhällets informationssäkerhet samt analysera och bedöma omvärldsutvecklingen inom området. I detta ingår att lämna råd och stöd i fråga om förebyggande arbete till andra statliga myndigheter, kommuner och landsting samt företag och organisationer.” (SFS 2008:1002).

Det är MSB som är ansvariga för att lämna råd till civilsamhället om företeelser som

(16)

12

3.2 Litteraturstudie

Litteraturstudien genomfördes enligt Oates (2006) exempel med att dela in material utefter vissa fördefinierade koncept. Vi började med att formulera en sökfras som definierade det ämne vi är intresserade av att hitta litteratur inom. Sökfrasen som vi utgick ifrån var “defence against

influence operations on social media” vilket täcker de områden som ska behandlas. Utifrån denna fras valdes tre relevanta koncept ut som skulle finnas i de artiklar som hittades. De tre koncepten var “influence operation”, “social media” och “defence”. Detta innebär att litteraturen vi hittar ska behandla påverkansoperationer, social media och någon form av försvar eller ett sätt att motverka påverkansoperationer på social media. Helst ska alla koncepten behandlas i en och samma artikel.

För var och ett av dessa koncept formulerade vi synonymer som breddar sökningarna och gav oss fler resultat som behandlade samma ämne (se figur 1).

Koncept 1 Koncept 2 Koncept 3

Influence operation Social Media Defence

Influence campaign Facebook Risk Management

Disinformation Campaign Twitter Risk Mitigation

Disinformation Operation Risk strategy

Fake news Risk

Information Warfare Counter Measures

Misinformation Controls

Incident Response Prevent

Information security

Figur 1: Samtliga synonymer till de koncept som identifierats

Databasen Scopus användes som sökmotor för denna litteraturstudie då majoriteten av artiklarna som finns där är vetenskapligt granskade. Efter att ha provat att söka i andra databaser (IEEE Explore och Web of Science) upplevde vi att många av artiklarna i dessa även fanns tillgängliga i

(17)

13

Scopus. På grund av detta samt att det i Scopus fanns ytterligare artiklar som inte gick att hitta i de andra två valdes Scopus som sökmotor.

Sökningarna gjordes genom att använda koncepten och kombinera dem på olika sätt för att hitta så många relevanta artiklar som möjligt. Då vi använt oss av en elektronisk sökmotor kunde vi utnyttja booleanska uttryck för att filtrera sökresultaten bättre. Koncept som består av två ord som “influence operation” skrevs inom citationstecken i sökfraserna för att säkerställa att resultaten innehöll just denna fras istället för att ordet “influence” finns på en plats i artikeln och

“operation” någon helt annanstans. Vid ett fåtal sökningar skrevs en asterisk till i slutet av ett av våra koncept. Tack vare detta hittades resultat som innehöll en annan böjning av det ord som vi valt att söka på. Exempelvis “prevent*” ger oss resultat som innehåller “prevention” (Oates, 2006).

I de fall när antalet sökresultat blev för högt för att kunna hantera och flera inte var inom vårt ämne filtrerade vi sökresultaten på kategorin “Computer Science” som är den mest relevanta kategorin för oss som Scopus erbjuder. Av samma anledning (att sökresultaten var för många) filtrerade vi även vid ett tillfälle sökresultaten på publiceringsår. Vi valde att filtrera på resultat från i år eller de senaste åren. Orsaken till detta är att fenomenet vi studerar hela tiden utvecklas i samband med att tekniken går framåt (Oltmann, 2018).

När vi fått fram ett sökresultat läste vi igenom artiklarnas sammanfattningar, enligt Oates

beskrivning, för att se om och i vilken utsträckning våra koncept förekom i texten (Oates, 2006). Sökfraserna tillsammans med antal sökträffar samt hur många av dessa som valdes ut till

litteraturstudien dokumenterades för att kunna göra en så strukturerad datainsamling som möjligt (se figur 2).

Sökord

Antal

träffar Utvalda

( "influence operation" AND "social media" ) 12 4 ( "influence operation" AND "risk management" ) 2 0 ( "influence operation" AND "risk" ) 7 1

(18)

14 ( "social media" AND "risk management" ) AND ( LIMIT-TO ( PUBYEAR , 2019 ) OR

LIMIT-TO ( PUBYEAR , 2018 ) ) AND ( LIMIT-TO ( SUBJAREA , "COMP" ) ) AND (

EXCLUDE ( PUBYEAR , 2018 ) ) 25 0

( "influence operation" AND "prevent" ) 6 1 ( "disinformation campaign" AND "social media" ) AND ( LIMIT-TO ( SUBJAREA ,

"COMP" ) ) 7 3

( "social media" AND "Risk Mitigation" ) AND ( LIMIT-TO ( SUBJAREA , "COMP" ) ) 7 1 ( "disinformation campaign" AND prevent* ) 4 0 ( "Disinformation campaign" AND "counter*" ) AND ( LIMIT-TO ( SUBJAREA , "COMP"

) ) 2 0

( "social media" AND "Counter Measures" ) AND ( LIMIT-TO ( SUBJAREA , "COMP" ) ) 8 1 ( "Information Warfare" AND "social media" ) AND ( LIMIT-TO ( SUBJAREA , "COMP" )

) 26 3

( "Fake news" AND "counter measures" ) AND ( LIMIT-TO ( SUBJAREA , "COMP" ) ) 1 0 ( "Fake news" AND "risk" AND "social media" ) AND ( LIMIT-TO ( SUBJAREA ,

"COMP" ) ) 12 3

( "influence operation" AND "risk strategy" ) 0 0 ( "social media" AND "influence campaign" ) AND ( LIMIT-TO ( SUBJAREA , "COMP" ) ) 8 2 TITLE-ABS-KEY ( ( "information campaign" OR "influence operation" OR "influence

campaign" ) AND ( "social media" OR "twitter" OR "Facebook" ) AND ( "prevent*" OR

"counter*" OR "defence" OR "risk" ) ) AND ( LIMIT-TO ( SUBJAREA , "COMP" ) ) 7 2 ( "social media" AND "incident response*" ) 9 0 ( "disinformation*" AND "counter*" ) AND ( LIMIT-TO ( SUBJAREA , "COMP" ) ) 29 3 ( "disinformation*" AND "prevent*" ) AND ( LIMIT-TO ( SUBJAREA , "COMP" ) ) 18 3 ( "disinformation*" AND "social media*" ) AND ( LIMIT-TO ( SUBJAREA , "COMP" ) ) 73 2 ( "disinformation*" AND "risk*" ) AND ( LIMIT-TO ( SUBJAREA , "COMP" ) ) 8 0 ("disinformation*" OR "misinformation*") AND "information security" AND "social media" 1 1

(19)

15

Figur 2: Sökfraser som använts vid insamling av litteratur inklusive antal träffar vid respektive sökning samt antal som valdes ut för att läsas i sin helhet.

Av de 30 artiklarna, som vid en första bedömning märktes som intressanta, var sex stycken ej tillgängliga i sin helhet via Scopus. Ytterligare sex stycken lästes i sin helhet men bedömdes ligga utanför vårt intresseområde. Vilket lämnade 18 källor som presenteras i den tidigare forskningen (se avsnitt 2).

3.2.1 Analysmetod litteraturstudie

Gällande litteraturstudien så analyserades samtliga utvalda artiklar utefter forskningsfrågorna och med avgränsningen i åtanke. De angreppssätt där informationsteknologi var centralt som ex. programvara och algoritmer kategoriserades som tekniskt. De angreppssätt där människan var i fokus som ex. statliga sanktioner, kognitiv psykologi och utbildning kategoriserades som administrativt. Exempel på detta som kunde hittas i litteraturen var bland annat Gilchrist (2018) som i sin studie beskriver hur ökad informationskunskap i sin tur kan leda till ökad medvetenhet kring påverkansoperationer och desinformation.

Resultatet till RQ2 analyserades efter angreppssätt som antingen använder social media som ett verktyg eller använder social medias öppna gränssnitt till ett eget verktyg. Om en studie

undersökt och föreslagit åtgärder som kräver implementation av social media själva har dessa utelämnats, som ex. Stray (2019). Detta för att en statlig aktör inte direkt kan tillämpa ett sådant angreppssätt som ett motmedel för en påverkansoperation.

Specifikt söktes det efter konkreta förslag som på något sätt relaterar till forskningsfrågorna. Både förslag om vad för angreppssätt som en artikel förespråkar och hur det angreppssättet ska utföras var av intresse och redovisas i studien.

Samtliga artiklar har lästs och analyserats i sin helhet. Artiklarna presenteras i studien sammanfattade till de delar som rör vårt syfte och frågeställning specifikt.

3.3 Fallstudie

En mindre fallstudie på Myndigheten för Samhällsskydd och Beredskap (MSB) har utförts. Fallstudien bedöms vara tillräcklig i sitt omfång för att få kunskap om hur påverkansoperationer hanteras i verkligheten från ett svenskt perspektiv.

(20)

16

2019 med en anonym medarbetare på MSB som arbetar med omvärldsfrågor.

Myndigheten har publicerat ett antal dokument utöver det som används i studien. Dessa

dokument är antingen en sammanfattning eller en utförligare beskrivning för hur ett angreppssätt ska implementeras (MSB, 2011; MSB, 2019). Då dessa dokument inte tillför något nytt till studien har de utelämnats.

Syftet med djupintervjun var att få en utökad bild av hur MSB resonerar i denna typ av frågor och att vidare diskutera en del begrepp som förekommer i MSBs rapport Countering Influence

Activities: The state of the Art. Ett ytterligare syfte var få kännedom om hur MSB hanterar

problemet i verkligheten.

Den semistrukturerade intervjun genomfördes utifrån en intervjuguide med vägledning från Brymans (2018) rekommendation för god intervjuteknik. Med en semistrukturerad intervju menas att teman och frågor som lyfts redan är fördefinierade, men ordningen kan ändras och nya frågor kan tillkomma beroende på samtalets gång Oates (2006).

Intervjupersonen fick på förhand tillgång till intervjuguiden för att kunna förbereda sig, tanken med detta var att minska risken för missförstånd och felformuleringar. En nackdel med att förbereda intervjupersonen på vilka frågor vi kommer ställa kan vara att vi inte får spontana svar från personen. Detta var dock inte av intresse för oss då syftet med intervjun i grunden var att ta reda på hur MSB jobbar mot påverkansoperationer. Vi var inte intresserade av att få felsägningar eller ofärdiga resonemang till svar.

Intervjun spelades in med hjälp av författarnas egen diktafon och materialet lagras på en extern hårddisk. Vi bedömer att längden på intervjun var tillräcklig baserat på det material som producerades. Detta då alla frågor diskuterades och besvarades utförligt vid intervjutillfället. Intervjun hade två teman som behandlades. Dessa två teman var direkt kopplade till varje forskningsfråga och bestod vidare av ett antal frågor kring varje tema (se Intervjuunderlag i Bilaga 1). Transkribering genomfördes av en av författarna och korrigerades av de andra två, i syfte att transkribera så korrekt som möjligt.

Det dokument (MSB, 2018) som undersökts innehåller instruktioner för hur påverkansoperationer ska bemötas men också definitioner över vilka tekniker som används vid ett angrepp.

Dokumentet är relevant för studien då den innehåller konkreta strategier för hur

(21)

17

problemet. De försvarsstrategier som presenteras i dokumentet är aktiviteter som MSB själva anser vara effektiva snarare än strategier som vetenskapligt är verifierade (MSB, 2018).

3.3.1 Analysmetod fallstudie

Analys av dokumentet Countering Influence Activitites: The state och the art (MSB, 2018) utfördes med samma analysmetod som litteraturstudien. Det vill säga utefter forskningsfrågorna och med uppsatsens avgränsning i åtanke. Endast de delar som behandlar aspekter som innefattar påverkansoperationer på social media och motmedel vid dessa har beaktats och analyserats. Samtliga strategier som innefattar social media och motmedel som presenteras av MSB återfinns också i denna uppsats, dock översatta från engelska till svenska för ökad läsbarhet.

Intervjun med vår intervjuperson på Myndigheten för Samhällsskydd och Beredskap,

analyserades efter transkribering med stöd av Oates (2006) beskrivning av tematisk analys, med ett deduktivt tillvägagångssätt. Undantag gjordes från Oates i att inte använda egna abstrakta nyckelord. Detta eftersom att det bara genomfördes en intervju och vi menar att det inte är nödvändigt med den typen av struktur för den lilla mängden data.

Tre kategorier formades som representerar centrala punkter för uppsatsen. ● Risker med Social media.

● Identifierade strategier. ● Social media som motmedel.

Sedan identifierades nyckelord utifrån ljudfilen samt transkriberingen, nyckelorden identifierades efter hur stor vikt författarna upplevde att intervjupersonen lade vid nyckelorden, samt i vilket sammanhang nyckelorden nämndes. Beslutet att använda ett deduktivt tillvägagångssätt är grundat i syftet med intervjun som är att utöka och konkretisera ämnen och tillvägagångssätt som MSB tar upp i sitt dokument. Oates (2006) menar att när man kopplar data till teorier eller

tidigare forskning så använder man ett deduktivt tillvägagångssätt.

Därför menar vi att detta är lämpligt för att på ett strukturerat sätt koppla intervjudata till forskningsfrågorna.

(22)

18

låg kostnad Målgruppsanpassning plattformar sanerar

Amplifiering kommunikation till stor grupp ev. EU-reglering

låg tröskel låg kostnad större media- och informationskunskap

kan göras hemifrån social media som alternativ kontaktväg Källkritik

målgruppsanpassning Kommunikation Kommunikationshygien

Anonymitet välinformerade medborgare situationsberoende

Upprepning föra dialog spåra källan

flöde ej neutralt Twitter: öppna API:er samhällskunskap

Filterbubbla inrapporteringssystem

svårt att ta till sig motstridig

information analysverktyg

falska twitterkonton lingvistisk analys

rycka ur kontext öka medvetenhet om ny teknik

vattenstämpel i media

kommentera felaktiga uppgifter välinformerade

Figur 3: Identifierade nyckelord utefter fördefinierade kategorier.

En del nyckelord återfinns i flera av kategorierna, exempelvis “låg kostnad”, detta eftersom att de då nämndes i flera olika sammanhang.

3.4 Källkritik

Källorna som använts i litteraturstudien har förhållandevis god trovärdighet. Detta då samtliga källor är vetenskapligt granskade, aktuella i tiden och för att flertalet av källorna är väl citerade. Då fenomenet är nytt och relativt outforskat bör viss varsamhet beaktas innan några direkta slutsatser kan dras.

En del källor behandlar ämnet ur ett annat perspektiv än vårt. Azhmuhamedov (2018) mål är exempelvis att försöka kartlägga och stoppa spridning av budskap från extremistiska kretsar på social media. Det överensstämmer inte med vårt syfte, däremot så återfinns många aspekter och möjliga tillämpningar i litteraturen som överensstämmer med vårt syfte. Att stoppa spridningen

(23)

19

av ett budskap är ett erkänt sätt att motverka påverkansoperationer (MSB, 2018). Detsamma gäller Zhang (2019) vars studie utreder hur stötande innehåll på social media kan identifieras. Denna artikel har ansetts relevant då denna typ av innehåll kan ingå i påverkansaktiviteter. En del kanske höjer ögonbrynen när man ser att ett flertal av källorna kommer från

konferensartiklar. Anledningen till att de källorna är med är kopplat till det Oates (2006) skriver om konferensartiklar. Oates menar att det är sannolikt att man får den mest relevanta och senaste informationen och resonemangen kring ett ämne genom att läsa konferensartiklar. Oates nämner dock också att man ska vara försiktig med konferensartiklar då de kan skifta i kvalité. Därför har vi extra noggrant undersökt ursprunget hos de konferensartiklar vi använt. Exempelvis är artiklar i The Web Conference (2019) vetenskapligt granskade av en kommitté där en studie bedöms baserat på relevans, säregenhet och kvalité. Samtliga artiklar från IOPScience (u.å) är

vetenskapligt granskade av arrangörerna själva. Även i IEEE Author Centre Conferences (u.å) är alla artiklar vetenskaplig granskade av en grupp experter inom samma område som artikeln.

4. Resultat

I detta avsnitt presenteras tekniska och administrativa angreppssätt mot påverkansoperationer som identifierats i tidigare forskning och fallstudie.

RQ1: Vilka administrativa och tekniska angreppssätt finns för att hantera

påverkansoperationer som genomförs över social media?

4.1 Tidigare föreslagna angreppssätt inom forskningen

Nedan redovisas resultaten från litteraturstudien. Artiklar kan tillhöra både de tekniska och administrativa kategorierna. Detta eftersom att deras föreslagna tillvägagångssätt inkorporerar flera olika element som faller inom våra definitioner för vad som är teknisk respektive

administrativt (se 1.4 för definition).

Författare Teknisk Administrativ Angreppssätt

(24)

20

Zhang, Gupta, Kauten, Deokar

och Qin (2019) ✔ Ramverk för identifiering av falska artiklar. Azhmuhamedov

(2018) ✔

Algoritm för kartläggning av informationsspridning på social media.

Gilchrist (2018) ✔

Öka medvetenhet genom förbättrad informationskunskap.

Oltmann (2018) ✔

Ökad resistans mot falska nyheter genom förbättrad informationskunskap.

Kumar & Geethakumari

(2014) ✔

Algoritm som baseras på kognitiv psykologi som analyserar tweets och presenterar trovärdighet för användare.

Rubin (2019) ✔ ✔

• Maskininlärning för analys av tweets. • Utbildning i källkritik hos användarna.

• Lagstiftning angående informationsspridning på social media för att motverka spridningen av falsk

information.

Stray (2019) ✔ ✔

• Organisationer som faktagranskar artiklar åt Facebook. • Möjlighet för Facebook användare att rapportera inlägg som falskt innehåll.

• Hårdare lagstiftning mot spridning av falsk information och licensiering av sociala medie-plattformar.

Leonova (2018) ✔ ✔

• Utbildas i källkritik i tidig ålder.

• Märka falsk information med etikett, istället för blockering.

Ehrenfeld och

Barton (2019) ✔

Sanering av skadliga inlägg som utförs av plattformarna själva.

Brangetto och

Venendaal (2016) ✔

Förstärka medvetenheten genom ökad transparens från statliga aktörer om problemet.

Dalton (2017) ✔

Användning av cyber forensik genom analys av

användarnamn och URL som kan utvinna kontots plats och IP-adress.

Bevensee (2019) ✔

Analys av data på social media i syfte att hitta hur påverkansoperationer lyckats och därmed kunna motverka dem.

(25)

21

Viviani (2017) ✔ Verktyg för automatisk bedömning av trovärdighet.

Yu (2019) ✔

Tidig identifiering av desinformation genom deep neural networks.

Zhang (2019) ✔

Identifiering av desinformation på tidigt stadie med hjälp av deep neural networks.

Paavola (2017) ✔

Karaktärisering av troll för att göra algoritmer mer träffsäkra.

Chew (2018) ✔

Upptäcker automatiserade användare genom analys av ord i tweets och kan upptäcka dessa användare då de använder liknande ordval.

Figur 4: Kategorisering av samtliga källor i litteraturstudien utefter om tillvägagångssätten är tekniska, administrativa alternativt båda.

4.2 Myndigheten för samhällsskydd och beredskap

Utan att rekommendera ett enskilt synsätt framför ett annat redovisar MSB (2018) några ideala och mer abstrakta synsätt för hur påverkansoperationer kan hanteras. Dessa sammanfattas nedan.

● Civil society approach

○ Det civila samhället har ett gemensamt ansvar att skapa resistens

○ Detta utförs genom att utbilda, identifiera och stödja ett pålitligt mediasystem ● Facts first approach

○ Faktagranskning och att avslöja desinformation är grundbulten i ett starkt försvar mot påverkansoperationer

● Collaborative approach

○ Ett internationellt nätverk ska tillsammans arbeta för att motverka påverkansoperationer

● Counter narrative approach

○ Alternativa och trovärdiga referensramar ska kommuniceras för att förebygga att fientliga narrativ får gehör

● Counter-propaganda approach

○ Taktiska och strategiska meddelandet ska kommuniceras av statliga institutioner för att knuffa bort desinformation

(26)

22

○ Att höja tröskeln innebär att regeringen ska ha laglig rätt att straffa gärningsmän bakom påverkansoperationer

○ Det innebär även att stärka invånarnas vaksamhet och vilja att motstå ● Ignoring approach

○ Genom att ignorera och inte interagera med påverkansoperationer kan effekten mildras

● Regulatory approach

○ Många av de aktiviteter som utförs i en påverkansoperation befinner sig i en gråzon av vad som är tillåtet eller inte

○ Ämnar till att reglera desinformation genom tydligare och striktare regler ● Hardliner approach

○ Bygger på att man ska sätta hårt mot hårt

○ Detta utförs genom att reglera och sätta press på social media företag, internetleverantörer och medier.

Den strategin som MSB (2018) rekommenderar är baserad på flera av ovan nämnda synsätt. Deras rekommendation innehåller tre relaterade steg som ska täcka alla delar av en

påverkansoperation, förberedelse, respons och erfarenhet. Myndigheten erkänner att få av dessa strategier är verifierade och testade i verkliga scenarion. Ytterligare betonar myndigheten vikten av att anpassa valet av angreppssätt efter vilken typ av teknik som förövaren användaren. Alla strategier är alltså inte effektiva mot alla typer av angrepp (MSB, 2018).

Utifrån de tre stadier av en påverkansoperation som MSB (2018) redogör för i sin rapport presenterar de ett antal sätt att motverka påverkansoperationer på. Bland dessa föreslår de följande administrativa angreppssätt under förberedelsefasen.

● Skapa långsiktig resistans genom tidig utbildning i informationskunskap.

● Öka medvetenheten om problemet genom att erkänna att det finns. Detta bör göras av formella ledare såsom politiker, offentliga sektorn samt sociala medie-plattformar. ● Statlig säkerhetspolicy som dikterar hur förberedelsen ska utföras.

● Ökad kunskap för beslutsfattare genom en risk- och sårbarhetsanalys. ● Analysera den målgrupp som är utsatt för påverkansoperationer.

● Varna målgruppen om hot och tekniker som används, istället för att attackera förövaren. ● Förbered generiska poster på social media för att kunna svara snabbt.

(27)

23

● Identifiera hashtags, samtalsämnen och länkar där desinformation florerar.

● Utveckla en strategi för när desinformation ska bemötas och vilken målgrupp som ska prioriteras på social media.

● Utveckla ett samarbete mellan forskare, politiker och media i frågan.

Från förberedelsefasen presenteras även ett tekniskt angreppssätt mot påverkansoperationer. Detta går ut på att samla in information från social media som tyder på nya hot eller nya svagheter (MSB, 2018).

Nästa fas som MSB (2018) beskriver är responsfasen, det vill säga hur en organisation kan reagera på en pågående påverkansoperation. Nedan visas de angreppssätt mot

påverkansoperationer som MSB (2018) identifierat i responsfasen. Samtliga av dessa är administrativa angreppssätt.

● Publicera ett officiellt pressmeddelande och utforma en "Frågor & Svar"-tabell som adresserar den falska informationen.

● Ta hjälp av självständiga aktörer och/eller opartiska källor som kan faktagranska desinformationen om din organisation.

● Förmedla mer inofficiell information till speciellt viktiga intressenter och journalister än vad man kan förmedla i ett officiellt pressmeddelande.

● För en dialog med allmänheten genom att till exempel svara på kommentarer på social media.

● Anordna en diskussion mellan politiker, akademiker och jurister om problemet.

● Använd social media för att få fram ett budskap. Antingen genom att använda hashtags eller delta i existerande och relevanta debatter.

● Ignorera desinformation.

● Rapportera påverkansförsök till Polis eller ansvarig för plattformen. ● Blockera en aktör som bryter mot plattformens uppförandekod.

● Eventuellt avslöja förövare bakom påverkansoperation, eller presentera den typ av påverkan som organisationen utsätts för utan att visa personuppgifter.

I den tredje och sista fasen bör man som organisation dra lärdom från en påverkansoperation efter att den har avslutats. Händelsen kan då utvärderas genom att dokumentera vilka hot som

(28)

24

påverkansoperationen som fungerade att använda sig av. Organisationen bör även fundera på vad som kunnat hända om man inte försökt motverka operationen samt vilken effekt sättet man motverkat påverkansoperationen på hade (MSB, 2018).

Flera av de föregående angreppssätten tog intervjupersonen (personlig kommunikation, 4

december 2019), upp som sätt att motverka en påverkansoperation. Under intervjun togs även nya angreppssätt upp varav några tekniska alternativ. Intervjupersonen lade ytterligare vikt vid att större medie- och informationskunskap hos individer är viktiga för att öka resistensen mot en påverkansoperation. Framförallt att ha en grundläggande kunskap i källkritik för att kunna avgöra om information du ser på social media är trovärdig. Om du är mer välinformerad kan du ta

välgrundade beslut i huruvida informationen du ser är trovärdig. Även grundläggande kunskap i samhällskunskap är bra som individ att ha för att exempelvis veta hur myndigheter fungerar eller hur en lag stiftas.

Att öka medvetenheten hos befolkningen togs också upp som en viktig faktor. Fokus lades på att öka medvetenheten kring ny teknik och hur man med ny teknik kan manipulera information så att vi tror på den. Exempelvis att kunna manipulera ljud och rörlig bild på ett trovärdigt sätt har gått att göra tidigare, men idag har tekniken kommit så långt att gemene man börjat kunna göra det. När fler kan manipulera ljud och rörlig bild bidrar det till att spridningen av falsk information blir större.

Det sista administrativa angreppssätt som är gemensamt för både rapporten (MSB, 2018) och intervjun är alternativet att som myndighet eller organisation offentligt kommentera felaktiga uppgifter som fått spridning på exempelvis social media.

Nya administrativa angreppssätt föreslogs också under intervjun. Social media jobbar idag till viss del med att ta bort användarkonton som visats vara falska, men på EU-nivå kan regleringar mot social media på sikt införas för att minska spridningen av falsk information och falska konton.

Intervjupersonen (personlig kommunikation, 4 december 2019) tillade även att det är svårt att svara på om det finns något universellt angreppssätt mot påverkansoperationer som alltid

kommer att fungera. Istället behöver man från fall till fall bedöma om man ska bemöta det och på vilket sätt man i så fall ska göra det.

(29)

25

Flera tekniska angreppssätt framkom också under intervjun som inte finns med i rapporten från MSB (2018). En form av analysverktyg som kan användas på social media är ett alternativ. Ett verktyg som kan analysera tweets och med hjälp av lingvistik kunna avgöra om användarkontot som skrivit dem är troll, bottar eller riktiga användare. Idag kan MSB rapportera till sociala medie-plattformarna om de upptäcker att det exempelvis startats ett konto som falskt uppger sig för att representera ett politiskt parti, men de har idag inget sätt att automatiskt göra detta på. Ett annat tekniskt alternativ för att minska spridningen av falsk information kan vara att källan som publicerar någon form av media har möjlighet att vattenstämpla mediet. Detta kan innebära att man kan spåra den riktiga källan om samma videoklipp publiceras på en nyhetssajt med falska nyheter i en falsk kontext (personlig kommunikation, 4 december 2019).

Som tidigare nämnts är det vanligt att motverka desinformation genom att faktagranska och presentera korrekt information (MSB, 2018). Myndigheten understryker att detta ofta kan vara problematiskt och hänvisar till att människans hjärna inte direkt kan skriva över gammal

information med ny. Om fakta presenteras på fel sätt kan det medföra att individen förstärker sin tro på desinformation. Vidare framhåller myndigheten att om en individ exponeras för samma information flera gånger är det mer sannolikt att individen börjar acceptera och tro på

informationen. När man ska motverka desinformation ska man därför tänka på att inte upprepa den felaktiga informationen. En annan viktig aspekt är att lättläst information är lättare att ta till sig. Långa och invecklade argument mot desinformationen som en läsare tagit till sig kan därför ha motsatt effekt (MSB, 2018).

Vidare betonar MSB (2018) att desinformation behöver betraktas som lagligt i en demokrati med yttrandefrihet där alla ska få kunna uttrycka sina åsikter. Trots att det inte är legitimt och kan skapa oreda i ett samhälle behöver det dock vara lagligt att uttrycka sina åsikter.

Avslutningsvis anser myndigheten att den nya tekniken med artificiell intelligens (AI) kan medföra än större utmaningar med påverkansoperationer i framtiden. Förövarna kan till skillnad från tidigare skapa falska konton på social media och skapa profilbilder med hjälp av deepfake. Att tekniken går framåt och hela tiden ger förövarna nya möjligheter att påverka innebär att de som försöker hindra spridningen av desinformation kommer sannolikt alltid att ligga ett steg efter spridarna, men det är viktigt att de bara är ett steg bakom och inte blir ifrånsprungna (MSB, 2018).

(30)

26

RQ2: Vilka möjligheter ger social media statliga aktörer i arbetet med att motverka

påverkansoperationer?

Den data som finns tillgänglig på social media möjliggör utveckling av verktyg som utvinner information om tillvägagångssätt, förövare och hur desinformation har spridits.

I litteraturstudien återfinns två konkreta exempel där tillgängliga data från Twitter används för att utvinna värdefull information.

● Dalton (2017) presenterar ett verktyg som analyserar användarnamn med tillhörande URL från Twitter. Utifrån de parametrarna kan IP-adress och plats tillhörande ett konto

utvinnas.

● Bevensee (2019) utvecklar djupare förståelse för riktade desinformationskampanjer och hur information sprids genom ett digitalt verktyg som analyserar data från Twitter. Myndigheten för samhällsskydd och beredskap (2018) bedömer att social media är ett effektivt verktyg för att motverka påverkansoperationer. Genom social media är det möjligt att förmedla korrekt information mot stora grupper till en låg kostnad. Förmågan att målgruppsanpassa inlägg gör att motmedel kan riktas mot de som är extra utsatta för en påverkansaktivitet.

Nedan följer konkreta tillvägagångssätt för hur social media kan tillämpas i arbetet med att motverka påverkansoperationer som identifierats i fallstudien.

● Förbered och publicera generiska poster på social media direkt vid ett angrepp. ● Identifiera hashtags, samtalsämnen och länkar där desinformation florerar. ● Använd social media för att samla in information om nya hot och svagheter.

● Kommunicera med allmänheten om påverkansaktiviteter genom att svara på kommentarer och vara aktiv på social media.

● Använd social media för att få fram rätt budskap. Antingen genom att använda sedan tidigare identifierade hashtags eller delta i existerande och relevanta debatter.

(31)

27

5. Diskussion

I detta avsnitt förs resonemang och diskussion kring resultat och metod.

5.1 Resultatdiskussion

Syftet med denna uppsats var att kartlägga de identifierade motmedel och strategier som finns för att motverka påverkansoperationer.

Det är intressant, men kanske inte särskilt förvånande, att mycket av det som presenteras i resultatet av litteraturstudien överensstämmer med det som MSB förespråkar. Exempel på det är vikten som läggs vid att varje individ bör ha en bra medie- och informationskunskap, vilket återfinns i både litteraturstudien och hos MSB. Däremot finns vissa tankesätt hos MSB som ej återfinns i litteraturstudien. Detta kan bero på det som MSB (2018) själva skriver angående att alla deras råd och strategier ej är vetenskapligt grundade utan kommer till viss del från

resonemang inom myndigheten.

Det kunde konstateras tidigt att det som gör social media till en så bra plattform för

påverkansoperationer är dess struktur. Med tanke på att det är gratis att använda, vem som helst kan skapa ett konto och det går att målgruppsanpassa budskap är det lätt att utnyttja dessa plattformar till denna typ av aktivitet. Enligt vad vi vet nu går det att argumentera för att samma faktorer som underlättar för aktörer att bedriva en påverkansoperation går även att använda för att försvara sig mot dessa. Organisationer kan enkelt skapa ett eget konto och argumentera för sig eller föra en dialog med individer som besöker och kommenterar på deras sida. Majoriteten av de individer som följer och/eller besöker organisationens sida bör ha någon form av intresse för dem. Vi tror därför att detta innebär att de budskap som organisationen förmedlar från denna kanal till viss del blir målgruppsanpassad direkt.

I tidigare studier har digitala verktyg utvecklats som, genom att analysera data från social media, kan kartlägga en påverkansoperation och identifiera förövaren (Dalton, 2017; Bevensee, 2019). Denna typ av redskap kan användas av statliga aktörer för att avslöja och konfrontera aktörer bakom ett angrepp. Ytterligare kan dessa verktyg ha en avskräckande effekt och således bidra till att höja tröskeln då en förövare inte längre är helt anonym.

En viktig aspekt att beakta innan en aktör avslöjas är att desinformation inte är olagligt i en demokrati och av den anledningen kan det istället vara bättre, med hänvisning till MSB (2018),

(32)

28

att utelämna personuppgifter när en aktör avslöjas och istället synliggöra de tekniker som använts under angreppet. Detta är också kraftfulla verktyg som kan missbrukas om det hamnar i fel händer.

Intressant är också att man kan tyda två separata ståndpunkter i litteraturen. De tydligaste skillnaderna manifesteras genom Viviani (2017) och Oltmann (2018). Viviani (2017) menar att människan inte har tillräcklig kognitiv förmåga för att själv avgöra vad som är falsk information. Kumar och Geethakumari (2014) håller med om att vår kognitiva förmåga är begränsad.

Samtidigt menar de att det går att utnyttja vår kognitiva förmåga för att minska spridningen av desinformation. De anser precis som MSB att en individ har lättare att tro på information som upprepas. Individer som befinner sig i en filterbubbla och matas med information, oavsett om den är sann eller inte, tenderar att tro på det. På samma sätt bör man genom att upprepa korrekt information kunna få individer att ta till sig detta. Att presentera korrekt information och spränga en filterbubbla är en komplicerad uppgift med många fallgropar. Om fakta presenteras på fel sätt kan det medföra att individen förstärker sin tro på desinformation (MSB, 2018). För att effektivt motverka desinformation är det viktigt att inte upprepa den felaktiga informationen. En annan viktig aspekt är att lättläst information är lättare att ta till sig och av den anledningen bör långa och invecklade argument mot desinformationen undvikas.

Nämnvärt är att MSB (2018) förespråkar att valet av angreppssätt ska anpassas till vilken typ av attack som en statlig aktör utsätts för. Detta innebär att ett angreppssätt inte är effektivt i alla situationer. Av den anledningen behöver en organisation både ha kännedom om vilka

försvarsstrategier som kan tillämpas vid en påverkansaktivitet och även i vilken situation som ett angreppssätt är effektivt.

5.2 Metoddiskussion

En alternativ metod för att genomföra studien skulle kunna vara att göra en intervjustudie. Vi tror att vi hade kunnat få likvärdiga resultat om vi utöver att intervjua en person på MSB även

intervjuat sakkunniga på området. Personer med kunskap om vilka angreppssätt som tidigare föreslagits samt kunskap i social medias struktur och hur den kan användas för att motverka påverkansoperationer. Denna typ av studie menar vi däremot inneha lägre trovärdighet än en litteraturstudie med vetenskapligt granskade artiklar. En intervjustudie med samma frågeställning kan medföra subjektiva resonemang från en respondent framför sådant som är vetenskapligt verifierat.

(33)

29

5.2.1 Litteraturstudie

Det går att ifrågasätta vårt val att sortera vårt sökresultat efter ämnet Computer Science i databasen Scopus. Det går även att ifrågasätta varför vi vid ett tillfälle valde att sortera vårt sökresultat efter utgivningsår, det gjordes för att vi ville kartlägga det nuvarande forskningsläget. Det går att föra argumentet att Computer Science inte tillräckligt ringar in vårt ämnesområde. Å andra sidan fungerar Scopus som så att en artikel inte är låst till ett ämnesområde utan kan tillhöra flera (Elsvier, 2017). Ett exempel på detta är Viviani (2017) som, enligt Scopus, faller inom både ämnesområdena psykologi och Computer Science. Scopus definition av computer science är också, enligt vår uppfattning, relativt bred. Detta menar vi gör att begränsningen till Computer Science, i vissa fall, inte är så drastiskt som den kan verka vid första anblick. Samtidigt menar vi att det är ett rimligt ämnesområde att utgå från, givet de ämnesområden som Scopus tillhandahåller.

5.2.2 Fallstudie

Fallstudien var av en mindre karaktär. Exempelvis innehåller den inte klassiska företeelser som observationer eller enkäter. Däremot menar vi att materialet är tillräckligt för att på ett

tillfredsställande sätt besvara våra frågeställningar, samtidigt som det ger ett bra komplement till vår litteraturstudie. Detta med grund i forskningsfrågan och syftet då vi bedömer att exempelvis observationer inte var nödvändigt för att besvara forskningsfrågorna.

Några dagar innan vi genomförde intervjun skickade vi våra frågor och teman till vår

intervjuperson. Detta gjorde vi med anledning av att intervjuperson skulle kunna förbereda sig och undersöka de frågor som hen eventuellt inte kunde svara på direkt. Att skicka frågorna till intervjupersonen i förväg möjliggjorde även att vi kunde omformulera våra frågor om det var något som hen uppfattade som otydligt.

5.2.3 Intervju

Som tidigare nämnts valde vi att ta en deduktiv ansats vid analys av intervjun (se avsnitt 3.3). Ett problem med att använda denna ansats kan vara att vi låser fast oss vid att hitta delar av intervjun som stämmer överens med de teorier vi hade sedan innan och bortser från delar som kan peka mot något annat. Alternativet hade varit att använda en induktiv ansats för att analysera intervjun. Detta går tvärtemot ut på att analysera materialet med ett öppet sinne och bara läsa det som står utan några förutfattade meningar eller egna tankar (Oates, 2006).

(34)

30

Då svaren från intervjupersonen var baserade på våra egna frågor och att vi hört svaren under intervjun kunde vi inte läsa transkriberingen av intervjun utan förutfattade meningar. Det är ytterligare en anledning till att en deduktiv ansats användes.

5.3 Etisk diskussion

Vi har under processens gång ständigt gjort etiska överväganden. En fråga är exempelvis ämnet i sig. Kunskapen som förmedlas i denna uppsats skulle, om man tillåter sig själv att spekulera, användas för att åstadkomma skada i världen. Om man vill sprida desinformation och lätt kan ta reda på hur forskning säger att man kan skydda sig går det att ta hänsyn till detta och veta hur man ska jobba för att inte bli upptäckt. I denna fråga har vi resonerat att informationen som tas fram inte är ny i sin natur utan går att hitta via öppna kanaler. Studien är en kartläggning som sammanställer information.

En del av lösningarna som presenteras i denna uppsats skulle kunna väcka en del etiska frågetecken. Att exempelvis lagstifta mot spridning av viss typ information är någonting som säkerligen kan debatteras ur ett etisk och moraliskt perspektiv.

På grund av intervjupersonens arbetsroll så valdes det att inte presenteras några identifierande uppgifter om hen. Det var inte heller av vikt för att veta något mer än att intervjupersonen representerar MSB i denna studie vilket är ytterligare en anledning till att inga personuppgifter presenteras. Intervjupersonen kommer att kontaktas när studien har publicerats för att själv ha möjlighet att kunna läsa och kontrollera att hens personuppgifter inte finns med i publikationen.

References

Related documents

In earlier iterations, interaction in social media relied heavily on text. However, increased ownership and use of smartphones with built-in advanced cameras

Viltanpassning av planskilda passager för småvägar och GC-vägar (gång- och cykelvägar) kan också vara en rutin- åtgärd vid nyanläggning, för att minska den allmänna

This study is based on online consumption of four traditional news media; morning paper, tabloid paper, TV- and radio news.. The method for the analysis is OLS regression and the

Företag kan inte längre enbart använda sig av hemsidan för att sprida information utan nu måste andra plattformar kopplas samman för att ge en tydlig bild över det företaget vill

Samtliga respondenter reflekterade också över hur synen på arbetet med sociala medier hade förändrats under tiden de hade arbetat med det och koncensus låg i att anställda inom deras

An early study into the factors that motivates employees to share knowledge with their peers and the nature of the barriers that prevent or reduce collaboration to using social media

Nedan presenteras data för att kunna besvara forskningsfråga ett, hur olika typer av kundklagomål riktade till stora svenska tjänsteföretag via sociala medier

As you watch a performance in the site specific that is social media public space, maybe you receive a text message, notification banner popping into the screen, into