• No results found

5 Insatser som bidrar till stärkt motståndskraft

5.5 Plattformsföretagen

Det senaste dryga decenniets digitala utveckling har inneburit att de arenor där en stor del av de demokratiska samtalen i dag sker kon- trolleras av några få globala plattformsföretag. Den innehållsmode- rering som sker på sociala medieplattformar får konsekvenser för det enskilda åsiktsuttrycket och därmed för den fria åsiktsbildningen som helhet. Därigenom har de stora plattformarnas funktionssätt en avgörande påverkan på förutsättningarna för det demokratiska sam- talet. Kritik har bl.a. riktats mot plattformarnas affärsmodeller och brist på ansvarstagande och transparens, vilket redogörs för i avsnitt 3.2. 5.5.1 Regleringen av plattformsföretagen

Eftersom plattformsföretagen är internationella och har en verk- samhet som är global finns det flera svårigheter med att på nationell nivå reglera deras verksamhet. Det har också funnits principiella in- vändningar mot att reglera de digitala mötesplatser som används för åsiktsutbyte. På senare tid har dock frågor om företagens ansvar när det gäller desinformation, propaganda och näthat liksom behovet av reglering diskuterats mer intensivt. I USA har några delstater infört reglering för att förebygga att vilseledande information sprids över sociala medier och på federal nivå hölls under 2020 flera förhör i kongressen med företrädare för de större plattformsföretagen gäl- lande bl.a. desinformation, propaganda och näthat.

För svenskt vidkommande är reglering som rör plattformsföre- tagens verksamhet en fråga som huvudsakligen hanteras på EU-nivå. Överlag saknas ett genomgripande och tydligt regelverk även om viss reglering har införts inom ett antal rättsområden som påverkar plattformarnas verksamhet. Det gäller t.ex. Dataskyddsförordningen (GDPR), EU:s terroristdirektiv och rätten för EU-medborgare att slippa synas i sökmotorernas resultat, dvs. rätten att bli glömd. EU:s e-handelsdirektiv ger som huvudregel tjänsteleverantörer såsom platt-

formsföretag ansvarsfrihet för information som läggs upp av använ- dare, men under förutsättning att de utan dröjsmål tar bort inlägg om de har fått kännedom om att de är olagliga. Reglerna har dock kritiserats för att vara otydliga och har lett till olika tillämpning i olika medlemsstater och i olika fall. Enligt ändringarna av det audio- visuella direktivet, som träder i kraft i december 2020, ska medlems- staterna säkerställa att videoplattformsleverantörer vidtar åtgärder för att bl.a. skydda allmänheten mot innehåll som uppmanar till våld eller hat (prop. 2019/20:168). Därutöver har ett antal konkurrens- rättsliga initiativ tagits för att begränsa bl.a. Googles och Microsofts marknadsdominans.

Företagen har däremot argumenterat för olika former av s.k. själv- reglering och de har samarbetat med EU för att exempelvis ta fram uppförandekoder. En uppförandekod togs fram 2016 av Facebook, Twitter, Microsoft och Google med stöd av EU-kommissionen i syfte att motverka olaglig hatpropaganda online. Enligt en utvärder- ing från 2019 granskar företagen 89 procent av allt flaggat innehåll inom 24 timmar, och 72 procent av det innehåll som anses utgöra olaglig hatpropaganda tas bort (EU-kommissionen 2019a).

Det finns sedan 2018 också en uppförandekod för att motverka desinformation som Twitter, Google och Facebook har underteck- nat. Det europeiska samarbetsorganet för nationella regleringsmyn- digheter (Erga), har i maj 2020 på uppdrag av EU-kommissionen publi- cerat en rapport om hur de som anslutit sig till uppförandekoden har levt upp till sina åtaganden. Av granskningen framgår att koden är ett viktigt verktyg för att motverka spridningen av desinformation på de granskade plattformarna samtidigt som det fortfarande finns många kvarstående utmaningar (Erga 2020).

Inom EU förs för närvarande en diskussion om att utveckla och införa en mer tydlig reglering. I EU-kommissionens ordförande Ursula von der Leyen politiska riktlinjer för 2019–2024 nämns exem- pelvis behovet av att skapa säkerhet och förtydliga ansvaret för digi- tala plattformar liksom att bemöta frågor som desinformation och näthat (EU-kommissionen 2019b). Som ett led i EU:s övergripande strategi när det gäller digitaliseringen kom kommissionen i februari 2020 med meddelandet Att forma EU:s digitala framtid, vilket inne- håller tre grundpelare med initiativ man kommer att fokusera på under de kommande fem åren. Den tredje pelaren omfattar insatser för ett öppet, demokratiskt och hållbart samhälle, däribland nya och

reviderade regler för de digitala plattformarnas ansvar och en översyn av e-handelsdirektivet. EU presenterade samtidigt en vitbok om arti- ficiell intelligens och en datastrategi. Den svenska regeringen har väl- komnat dessa initiativ, inklusive översynen av de digitala plattformar- nas ansvar (EU-kommissionen 2020; Regeringskansliet 2020). 5.5.2 Exempel på insatser från plattformsföretagen

Flera plattformsföretag bedriver ett arbete mot desinformation, pro- paganda och näthat. Plattformarnas stora räckvidd och starka genom- slagskraft innebär att de insatser som de gör för att motverka des- information, propaganda och näthat potentiellt kan ha stor betydelse. Kommittén har därför inhämtat information från några av de stora plattformsföretagen om deras insatser.

Facebook, som även äger Instagram och WhatsApp, uppger att det finns särskild personal och tekniska system som verkar för att upptäcka missbruk och regelbrott och att de vid upptäckt vidtar åt- gärder, som t.ex. att ta bort innehåll eller inaktivera konton. Före- taget vidtar också andra åtgärder för att motverka spridningen av desinformation, t.ex. flaggar de bilder och videor som genom extern faktagranskning bedömts vara felaktiga eller vilseledande. Användare som delar information som i faktagranskning flaggats får en åter- koppling från Facebook om detta med en hänvisning till alternativ information som tagits fram av faktagranskaren. Facebook inrättade också 2020 en slags tillsynsstyrelse, Oversight Board, som ska han- tera innehållsfrågor på företagets olika plattformar.

Även Twitter beskriver att de kontinuerligt försöker utveckla för- mågan att upptäcka, förstå och neutralisera manipulativa kampanjer så snabbt som möjligt. Fokus i deras arbete ligger på att proaktivt identifiera problematiska konton och beteenden med hjälp av maskin- inlärning. Twitter beslutade vidare i oktober 2019 att inte längre tillåta politisk annonsering på deras plattform för att motverka betalda och potentiellt vilseledande politiska meddelanden. I mars 2020 antog företaget utvidgade riktlinjer, vilka bl.a. innebär att vilseledande inlägg som har stor potential att orsaka skada kommer att flaggas eller tas bort. Riktlinjerna har lett till att inlägg från den amerikanske presi- denten flaggats som vilseledande.

Google, inklusive YouTube, beskriver att de i samband med en kris eller en nationell särskild händelse arbetar med att lyfta fram pålitliga källor i sökflödet så att användaren snabbt kan få tillgång till korrekt information.

Facebook, Twitter och Google har också samarbetat med myn- digheter, såsom Valmyndigheten och MSB, inför de allmänna valen i syfte att skydda integriteten och motverka risken för otillbörlig på- verkan. Ett samarbete har även skett med Folkhälsomyndigheten och andra myndigheter i samband med coronapandemin och andra särskilda händelser för att t.ex. säkerställa enkel tillgång till korrekt information från trovärdiga källor.

Därutöver finansierar flera av plattformsföretagen olika initiativ som motverkar desinformation, propaganda och näthat. Facebook ger finansiellt stöd och samarbetar exempelvis sedan våren 2020 med svenska Källkritikbyrån (se avsnitt 5.6), som fungerar som extern faktagranskare för Facebook i Sverige. Googles filantropiska stif- telse bidrar med finansiering av Wikipedia och till initiativet Mobile Stories (se avsnitt 5.6) för att även nå ut i resurssvagare områden. Företaget har också samarbetsavtal med lokal media och bidrar genom olika finansieringsmodeller. Twitter har i samarbete med Unesco tagit fram en handbok för lärare Undervisning och lärande med Twitter som fokuserar på förmågan att kritiskt analysera nyheter och information online och offline.

Utöver dessa företag finns flera andra stora plattformar i Sverige, såsom Tiktok och Snapchat, liksom flera spel, såsom Fortnite, som också används som sociala plattformar. Kommittén har inte haft för- utsättningar att följa deras arbete och därför är dessa plattformar och deras verksamhet inte beskrivna här.