• No results found

Sökmotoroptimering för en e-handelsplattform

N/A
N/A
Protected

Academic year: 2021

Share "Sökmotoroptimering för en e-handelsplattform"

Copied!
87
0
0

Loading.... (view fulltext now)

Full text

(1)

Linköpings universitet SE–581 83 Linköping

Examensarbete på grundnivå, 18hp | Datateknik 2019 | LIU-IDA/LITH-EX-G--19/022-SE

Sökmotoroptimering

för en e-handelsplattform

Search Engine Optimization of an e-commerce website

Amelia Asplund David Björelind Jonathan Reimertz Emelie Remnebäck Alice Velander Gustav Wahlquist Erik Wiström Boris Wu

Handledare : Dennis Persson Examinator : Aseel Berglund

(2)

Detta dokument hålls tillgängligt på Internet - eller dess framtida ersättare - under 25 år från publiceringsdatum under förutsättning att inga extraordinära omständigheter uppstår.Tillgång till dokumentet innebär tillstånd för var och en att läsa, ladda ner, skriva ut enstaka kopior för enskilt bruk och att använda det oförändrat för ickekommersiell forskning och för undervisning. Överföring av upphovsrätten vid en senare tidpunkt kan inte upphäva detta tillstånd. All annan användning av dokumentet kräver upphovsmannens medgivande. För att garantera äktheten, säkerheten och tillgängligheten finns lösningar av teknisk och administrativ art. Upphovsmannens ideella rätt innefattar rätt att bli nämnd som upphovsman i den omfattning som god sed kräver vid användning av dokumentet på ovan beskrivna sätt samt skydd mot att dokumentet ändras eller presenteras i sådan form eller i sådant sammanhang som är kränkande för upphovsmannens litterära eller konstnärliga anseende eller egenart. För ytterligare information om Linköping University Electronic Press se förlagets hemsida http://www.ep.liu.se/.

Copyright

The publishers will keep this document online on the Internet - or its possible replacement - for a period of 25 years starting from the date of publication barring exceptional circumstances. The online availability of the document implies permanent permission for anyone to read, to download, or to print out single copies for his/hers own use and to use it unchanged for non-commercial research and educational purpose. Subsequent transfers of copyright cannot revoke this permission. All other uses of the document are conditional upon the consent of the copyright owner. The publisher has taken technical and administrative measures to assure authenticity, security and accessibility. According to intellectual property law the author has the right to be mentioned when his/her work is accessed as described above and to be protected against infringement. For additional information about the Linköping University Electronic Press and its procedures for publication and for assurance of document integrity, please refer to its www home page: http://www.ep.liu.se/. © Amelia Asplund David Björelind Jonathan Reimertz Emelie Remnebäck Alice Velander Gustav Wahlquist Erik Wiström Boris Wu

(3)

Dagens snabba digitaliseringstakt driver stora förändringar i konsumenters sätt att handla. Allt fler använder internet och sökmotorer vid handel och e-handelstjänster har blivit allt mer beroende av sökmotorer samt deras placering hos dessa. Optimering av e-handelswebbsidor utgör numera en högst relevant aspekt för sidtrafik, men sökmotorer lämnar ut begränsad information om hur sökranking påverkas av olika typer av optimeringsinsatser. Med bakgrund av detta studeras i denna rapport hur en e-handelstjänsts, brewinabox.se, sökranking hos sökmotorn Google påverkas av de tre SEO-faktorerna laddningshastighet, nyckelordsdensitet och sidstruktur, och undersöker således hur man kan optimera dessa. I studien testas olika versioner av e-handelstjänsten med varierande inställningar för de tre SEO-faktorerna, mot sökranking hos Google. Testerna visade inga tydliga tendenser och kunde inte bekräfta de teorier och metoder som litteraturen rekommenderade för varje individuell faktor. De vaga resultaten kan bero på otillräckliga tester med många möjliga felkällor, speciellt gällande Googles indexeringsprocess. Slutligen implementerades en sista version av brewinabox.se med rekommendationer gällande de tre faktorerna och ett klart positivt resultat av sökmotoroptimeringen noterades.

(4)

The rapid pace of digitization in this day and age drives major changes in consumer buying behaviour. More and more consumers make use of the internet and search engines when making purchases. E-commerce services have thus become increasingly dependent on search engines, and on their ranking on them. Optimization of e-commerce websites are a highly relevant aspect for website traffic, however, little information on how different types of SEO-optimization techniques affect page ranking is disclosed by search engine companies. In this context, this study is conducted in order to assess how an e-commerce, brewinabox.se, website’s page ranking is affected by three ranking factors: page speed, keyword density and site structure. It illustrates how to optimize with respect to these ranking factors. The study tests different versions of the e-commerce web application with different adjustments of the ranking factors, in relation to page rank. The tests did not show any clear results, and they could not confirm the theories and methods suggested by common literature for each factor. The weak results might depend on insufficient tests with many possible errors, especially concerning the indexing process of Google. Ultimately, a final version of the web application was implemented using the recommendations and a clearly positive result of the search engine optimization was noted.

(5)

Sammanfattning iii Innehåll v 1 Inledning 3 1.1 Motivering . . . 3 1.2 Syfte . . . 4 1.3 Frågeställning . . . 4 1.4 Avgränsningar . . . 4 2 Teori 6 2.1 Bakgrund till sökmotoroptimering . . . 6

2.1.1 Sökmotorer och sökmotoroptimering . . . 6

2.1.2 Betydelsen av sökmotoroptimering för e-handeln . . . 7

2.1.3 Sökmotorerna och deras arbetsprocess . . . 7

2.2 Olika typer av sökmotoroptimering . . . 9

2.2.1 On-siteoptimering . . . 10

2.2.2 Off-siteoptimering . . . 10

2.2.3 White hat och black hat . . . 10

2.3 On-sitefaktorer . . . 10 2.3.1 Laddningstid . . . 11 2.3.2 Nyckelordsdensitet . . . 11 2.3.3 Sidstruktur . . . 12 2.4 Metodteori . . . 15 2.4.1 Enkätundersökning . . . 15 2.4.2 Tidigare studier . . . 16

2.4.3 Google Search Console . . . 16

2.4.4 SERP-kontroll . . . 16 2.4.5 Laddningstid . . . 17 2.4.6 Nyckelordsdensitet . . . 19 2.4.7 Sidstruktur . . . 20 2.4.8 Googles algoritmer . . . 20 3 Metod 21 3.1 Enkätundersökning . . . 21 3.2 Webbsidorna . . . 21 3.3 System . . . 22

(6)

3.4 Testning . . . 23 3.4.1 Laddningstid . . . 24 3.4.2 Nyckelordsdensitet . . . 24 3.4.3 Sidstruktur . . . 26 3.5 Slutprodukt . . . 30 3.6 Sammanfattning av metod . . . 30 4 Resultat 32 4.1 Enkätundersökning . . . 32 4.2 Testsidan . . . 34 4.3 Primärsidan . . . 34 4.3.1 Initialt läge . . . 34 4.3.2 Laddningstid . . . 35 4.3.3 Nyckelordsdensitet . . . 36 4.3.4 Sidstruktur . . . 37 4.3.5 Slutprodukt . . . 38 4.4 Slutprodukt - Funktionalitet . . . 39 5 Diskussion 45 5.1 Resultat . . . 45 5.1.1 Enkätundersökning . . . 45 5.1.2 Laddningstid . . . 46 5.1.3 Nyckelordsdensitet . . . 46 5.1.4 Sidstruktur . . . 46 5.1.5 Slutprodukt . . . 47 5.2 Metod . . . 47 5.2.1 Testmetodik testsida . . . 47 5.2.2 Testmetodik primärsida . . . 48 5.2.3 Laddningstid . . . 50 5.2.4 Nyckelordsdensitet . . . 50 5.2.5 Sidstruktur . . . 50 5.2.6 Källkritik . . . 51

5.3 Felkällor gällande Google . . . 51

5.4 Arbetet i ett vidare sammanhang . . . 52

6 Slutsats 53

Litteratur 55

A Marknadsföringsplan 59 B Enkätundersökning 74

(7)

Backlinks:En inkommande hyperlänk från en webbsida till en annan.

Bounce rate:En term som anger andelen besökare till en webbsida som bara besöker en sida, utan att söka eller klicka sig runt till andra undersidor.

Document Object Model:Definierar den logiska strukturen dokument emellan.

DOM:Förkortning av Document Object Model.

Hyperlänk:Ett textavsnitt som hänvisar till ett annat textavsnitt.

Index:Katalogisera ord och fraser där sökmotorn lagrar information om webbsidor.

Indexering:Samla information och lagra data från webbsidor till ett index.

Meta-taggar:Osynliga textrader på en html-sida.

Nyckelord: Ord som beskriver en webbsidas innehåll och som således passar bra som sökfraser i en sökning hos en sökmotor. Används ibland synonymt med sökord.

Off-site-faktorer: Yttre faktorer till en webbsida som påverkar dess ranking, exempelvis länkning eller sociala medier.

On-site-faktorer: Inre faktorer på en webbsida som påverkar dess ranking, exempelvis innehåll och struktur.

Responsiv webbdesign: Tillåter layouten att förändras beroende på vilken skärmstorlek och skärmupplösning som besökaren har.

(8)

Reverse Proxy Server:En server som fungerar som en mellanhand mellan klient och en annan server. Kan även fördela klientanrop till ett flertal andra servrar.

Search Engine Results Page:Resultatet vid sökning på en sökmotor.

Search Engine Optimization:En teknik som används i processen vid utveckling av innehåll och kod för en webbapplikation i syfte att förbättra uppkomsten i en eller flera sökmotorer.

SEO:En förkortning av Search Engine Optimization.

SERP:Förkortning av Search Engine Results Page.

Server:I denna kontext: ett program som levererar data som svar på anrop från en klient.

Sitemap:En lista över alla sidor en webbplats innehåller. Används av sökrobotar för att hitta på webbplatsen.

Sökmotor: En tjänst som erbjuder användare att söka på sökord, nyckelord eller nyckelfraser för att generera ett relevant sökresultat innehållande en filtrerad förslagslista.

Sökord:Ord som används i en sökning hos en sökmotor. Används ibland synonymt med nyckelord.

Sökrobot: En mjukvara som genomsöker webbsidor och samlar data i syfte att indexera.

Title-tags:Ett HTML-element som beskriver en webbsidas titel.

Ubuntu:Linux distribution.

Undersida:En HTML-sida som är en del av en webbsida.

URL:Står för Uniform Resource Locator. På svenska internetadress, en teckensträng som identifierar en internetsida.

Virtuell maskin:Ett emulerat datorsystem.

Webbapplikation:En mer avancerad Webbsida med mer komplexa funktioner.

Webbplattform:Synonymt med Webbapplikation

Webbsida:En samling undersidor som är sammankopplade med varandra bildar en Webbsida

(9)

I det här kapitlet presenteras varför sökmotoroptimering är viktigt för e-handel samt syfte och frågeställning med rapporten.

1.1

Motivering

I en växande digitaliserad värld har det skett ett skifte i konsumenters sätt att handla. Idag omsätter den svenska e-handeln 67 miljarder kronor, motsvarande 9% av den totala detaljhandeln [1]. Allt fler använder internet och sökmotorer för att hitta ny information och på grund av detta har e-handelstjänster blivit allt mer beroende av sökmotorer samt hur de blir rankade hos dessa. Ur detta har en ny typ av marknadsföring vuxit fram. Idag talas det om SEO, Search Engine Optimization, eller sökmotoroptimering på svenska, som innefattar den process i webbutveckling som gör det enklare för användare att hitta en webbsida hos en sökmotor. Nästan 50% av alla användare väljer att klicka på något utav de första 3 sökresultaten [2], och endast 5% av användarna väljer att fortsätta på sida 2 vid sökningen [3]. Detta medför att optimeringen av sidan utgör en högst relevant aspekt i antal besökare och mängd trafik på webbsidan.

Idag har det blivit allt vanligare att handla matvaror online i de svenska hemmen, och omsättningen avseende den digitala mathandeln ökade med 19% från 2017 till 2018 [4]. I dagsläget erbjuder de flesta matbutiker någon typ av hemleverans och allt fler aktörer på matvarumarknaden erbjuder ett komplement till deras traditionella butiker med en webbapplikation för handel online.

Den växande e-handeln ger kunder tillgång till ett större utbud av tjänster och produkter online, vilket får till följd att konsumenter ställer högre krav på produkter och tjänster online. Kunderna har även blivit mer bekväma och trygga med att handla

(10)

online, detta gäller även för kaffe och te. Svenskar är idag en de befolkningar som dricker mest kaffe per capita i världen, och den genomsnittliga svensken dricker i genomsnitt 3.2 koppar kaffe om dagen [5]. Detta är ett behov som fortfarande kan fyllas. För att följa denna trend har nu Brew In A Box utvecklats, en webbtjänst som erbjuder prenumeration av kaffe och te. Affärsidén är att kunden får ett flertal kaffe-och tesorter hemlevererade, med ett medföljande lättförståeligt informationsblad om de olika sorterna, för en fast månadskostnad.

En viktig parameter i en e-handelstjänsts framgång är kundens möjlighet att kunna nå och hitta den vid en sökning online. En webbsidas rakning på söksidor påverkas som tidigare nämnt av olika faktorer inom sökmotoroptimering, dessa faktorer är bland annat nyckelordsdensitet på webbsidan, laddningshastighet, backlinks och längd på innehållet. Det är därför av stor vikt att vår e-handelsplattform Brew In A Box anpassas efter dessa faktorer, för att erhålla bättre sidranking och således potentiellt fler besök av användare. [6]

I förarbetet till rapporten genomfördes en enkätundersökning och utfallet av denna är anledningen till att dels använda Google som sökmotor och dels vikten av att som e-handelsföretag hamna högt upp i SERP. Undersökningen visade även vikten av sökoptimeringen av en webbapplikation och gav en indikation på varför sökmotoroptimering har utvecklats till att bli en ny typ av marknadsföring.

1.2

Syfte

Syftet med arbetet är att undersöka de effekter som erhålls av att använda olika av sökmotoroptimeringstekniker på en e-handelsplattform utformad att erbjuda en prenumerationstjänst för kaffe och te. De sökmotoroptimeringsfaktorer som arbetet behandlar är laddningstid, nyckelordsdensitet samt sidstruktur. Dessa har valts ut på grund av att de är enkla att modifiera och kontrollera samt att de enligt litteraturen är relevanta för sökmotoroptimering.

1.3

Frågeställning

Hur kan en e-handelsplattforms placering, i resultaten hos sökmotorn Google, påverkas genom sökmotoroptimering av faktorerna nyckelordsdensitet, laddningstid och sidstruktur?

1.4

Avgränsningar

Arbetet avgränsas till sökmotoroptimering hos Google och webbapplikationen kommer att bli genomsökt av Googles egna robotar. Det är endast on-site-faktorer som behandlas och arbetet avgränsas helt från off-site-faktorer. Vidare påstås ej listan av on-site-faktorer som behandlas i den här rapporten på något sätt vara uttömmande. Inte heller betald marknadsföring kommer att beröras. E-handelsplattformen kommer endast att rikta sig till den svenska marknaden.

(11)

De testade faktorerna testas enskilt. Således kan undersökningen inte påvisa några synergieffekter mellan olika faktorer.

(12)

I detta kapitel presenteras och förklaras teoretiskt material gällande sökmotorer, sökmotoroptimering och dess betydelse för svensk e-handel.

2.1

Bakgrund till sökmotoroptimering

En sökmotor är en internettjänst som låter användare söka på nyckelord eller nyckelfraser i ett sökfält i syfte att generera ett relevant sökresultat innehållande en filtrerad förslagslista, Search Engine Result Page (SERP). SERP listar webbapplikationer, som kan innehålla det kunden söker. Sökmotoroptimering är en teknik som används vid utveckling av innehåll och kod för en webbapplikation i syfte att förbättra placeringen i SERP hos en eller flera sökmotorer. [7], [8]

2.1.1 Sökmotorer och sökmotoroptimering

På marknaden för sökmotorer agerar företag som Google, Yahoo, Bing, Baidu och Yandes som en mellanhand mellan konsumenter och webbsidor [9]. Google är överlägset ledande inom branschen med 90.76% av marknadsandelarna [10]. Företagen strävar efter att tillfredsställa sina användare genom att erbjuda en relevant SERP med hög pålitlighet [11]. Sökresultatet genereras med sökmotorernas egenkonstruerade algoritmer som influeras av över 200 faktorer [12]. Eftersom faktorerna styr vilka webbapplikationer som inkluderas i SERP har en tredje kategori av aktörer vuxit fram på marknaden, sökmotoroptimerare. Denna kategori består av aktörer som specialiserar sig på sökmotoroptimering i syfte att få en webbapplikation att bli rankad högt på SERP.

För att sökmotorföretagen ska kunna upprätthålla en hög kvalitet på sina sökresultat och undvika att falska eller opålitliga webbapplikationer visas, vill de

(13)

med komplexitet och oförutsägbarhet modifiera sina algoritmer regelbundet [7]. Funktionaliteten hos sökmotorernas algoritmer tillsammans med vilka faktorer som påverkar rankingen av webbapplikationer hemlighålls och publiceras aldrig [13]. De webbapplikationer som presenteras i sökresultatet och har genererats fram av rankningsalgoritmerna benämns som organiska resultat eller organiska länkar. Dessa separeras från de webbapplikationer som har betalat för en plats högst upp på SERP i form av annonser och som av denna anledning betecknas som oorganiska. Sökanvändare tenderar även att anse att organiska resultat är mer pålitliga vilket naturligt har lett till att aktörer som driver webbapplikationer motiveras från ett marknadsföringsperspektiv att utöva sökmotoroptimering. [11]

2.1.2 Betydelsen av sökmotoroptimering för e-handeln

I och med att internet är en relativt ny marknadsplats har det skett en kraftig tillväxt gällande integration av affärsverksamhet på internet samt marknadsföringsstrategier på densamma. Sökmotorer har blivit ett användbart verktyg för att navigera på internet. Om en webbapplikations URL-adress är okänd för en internetbesökare används sökmotorer för att hitta relevanta webbsidor. Användning av söktjänster är även vanligt förekommande när användaren redan känner till en webbsidas URL-adress. [10] [14]

När det gäller internettrafiken för e-handelstjänster, och andra webbapplikationer, kommer 93% av besökarna från sökmotorer. Detta betyder att sökmotorer spelar en avgörande roll när det kommer till konkurrens på internet. Därför är sökmotoroptimering ett viktigt redskap i konkurrensen om att dirigera internetbesökare till aktörens webbsida. [10]

Vidare är sökmotoroptimering en betydelsefull komponent inom marknadsföringsarbete för företag och organisationer som verkar på internet. Anledningen är att högre rankning leder till ökad försäljning och bättre märkesprofilering samt ökad exponering mot potentiella kunder. [12]

Internetstiftelsen har i en undersökning om svenskars internetanvändning [15] kommit fram till att 61% av den svenska befolkningen dagligen använder Googles sökmotor. Detta var den femte mest vanliga vardagsaktiviteten på nätet. Besök på sociala nätverksplatser rankades som den fjärde vanligaste med ett resultat på 2 procentenheter mer. Dessutom tittar 75% av sökmotoranvändarna aldrig längre än den första resultatsidan på en SERP [12]. Prognosen för svensk e-handel är att en tillväxt kommer att ske med 284-474% fram till år 2025, vilket rimligen leder till ett ökat antal aktörer som konkurrerar inom SEO [16].

2.1.3 Sökmotorerna och deras arbetsprocess

Sökmotorns arbetsprocess är uppdelad i två steg, förarbete och indexering. Avsnittet behandlar dessa två steg, ger en bakgrund till hur en sökmotor fungerar och hur en sökning genomförs.

(14)

2.1.3.1 Förarbetet

Internet är ett nätverk av webbapplikationer som är ihopkopplade via hyperlänkar. Innan en användare kan utföra sökningar med hjälp av en sökmotor krävs en del förarbete. Webbsidor som ska kunna hittas via sökmotorerna måste indexeras för att vara synliga i sökmotorernas register. Sökmotorföretagen använder sig av sökrobotar vilket är en typ av mjukvara som kan användas för att skanna igenom webbsidor och spara ner relevant information om webbsidan för att sedan kunna indexera den. [17] Dessa sökrobotar besöker publikt tillgängliga webbadresser som sökmotorn vill indexera. Sidor som sökmotorn vill indexera kan till exempel vara undersidor som har hittats via länkar från tidigare avsökta undersidor som ofta uppdateras. Dessa sidor kallas för seed pages och från dessa sidor letar sig roboten djupare på webbapplikationen genom länkarna på sidan. Roboten använder sig sedan av heuristiker för att välja vilka av dessa länkar som ska avsökas på ett rekursivt sätt likt skanningen av seed page-sidan. [18]

I detta stadium av processen kan sökroboten använda sig av en så kallad sitemap om den aktuella webbapplikationen har ett sitemap-protokoll.1Sitemap är en fil med värdefull information om webbapplikationen, dess media och andra filer samt hur de är relaterade till varandra. [19]

Detta underlättar för sökmotorer och sökrobotar och gör att de mer effektivt kan söka igenom webbapplikationen. Som namnet antyder, så fungerar en sitemap som en karta över en webbsida och berättar för sökroboten vilka filer som enligt utvecklaren är av mest betydelse tillsammans med väsentlig information kring dessa filer. Exempel på detta är uppdatering av filer, specifikationer av särskilda innehållstyper så som filmklipp och bilder samt alternativa språkversioner av en webbsida.2

En utvecklare kan reglera sökrobotens aktivitet på webbsidan genom ett så kallat Robots Exclusion Protocol [20]. Vanligast är att göra detta genom att lägga till en fil, Robots.txt, i webbsidans rotkatalog [20]. Protokollet kan till exempel berätta för sökroboten vilka undersidor den får och inte får skanna igenom [20]. Dessa regler går även att specificera i webbsidans header.3

Målet för sökrobotar är att upptäcka HTML-sidor och hämta korrekta kopior av dessa som sedan bearbetas av sökmotorn som sparar ner relevant information och lagrar detta i sökmotorföretagets dokumentdatabas. Nyckelord indexeras med tillhörande dokument för att ge den information som krävs för framtida sökningar. Dessa index lagras sedan i en databas som kallas search index. [12]

Om en webbsida innehåller stora delar JavaScript kan sökrobotens process att skanna innehållet försvåras [21]. Google har avslöjat att deras sökmotor indexerar i två steg. I

1Google Search, How Search organizes information:

https://www.Google.com/search/howsearchworks/crawling-indexing/

2Google Search Console Help, Learn about sitemaps: https://support.Google.com/webmasters/answer/156184?hl=en 3Google Search Console Help, Meta tags that Google understands:

(15)

det första steget undersöker sökroboten endast HTML-kod och indexerar webbsidan efter det. Det andra steget tar hänsyn till hela webbsidans innehåll som till exempel JavaScript-kod. Väntetiden mellan första och andra steget kan uppgå till veckor. Detta medför att innehåll som är HTML-kod indexeras snabbare än annat.4

2.1.3.2 Sökningen

Sökmotoranvändaren skriver in ett nyckelord eller nyckelfras i sökfältet som sedan genererar ett filter i en igenkännande representation för search index. Rankningsalgoritmer genererar för aktuell sökning en SERP som innehåller en lista av URL:er som är relevanta för sökningen. Om användaren väljer att klicka på en URL så hämtas motsvarande fullständiga dokument för det aktuella indexet från dokumentdatabasen. Med andra ord omdirigeras användaren till den fullständiga webbapplikationen. När aktuella sökfilter utförs och beteendemönster hos användaren registreras, lagrar sökmotorn dessa som metadata i en log-databas i syfte att förbättra sin söktjänst. [12]

2.1.3.3 Serverförfrågan

När en användare har genomfört en sökning och trycker sig vidare till eftersökt webbsida så genomförs en förfrågan till webbsidans server. Denna förfrågan processeras av servern och återsänder därefter ett svar till användarens webbläsare. När användarens webbläsare börjar ta emot data återsänt från servern markerar det ”time to first byte”, som är tiden från det att webbläsaren sänt en förfrågan till servern till det att man får tillbaka data till webbläsaren. Datat processeras av webbläsaren och renderas sedan i webbläsarfönstret och användaren har då möjligheten att använda webbsidan. Processen illustreras grafiskt i figur 2.1 nedan.5

Figur 2.1: Från SERP-klick till renderat innehåll

2.2

Olika typer av sökmotoroptimering

Sökmotoroptimering kan utföras på flera olika sätt och med olika metoder. De två viktigaste kategorierna är on-siteoptimering och off-siteoptimering. Detta arbete

4Search Engine Journal, Google Strongly Recommends Using HTML to Get Content Indexed

Quickly: https://www.searchenginejournal.com/Google-strongly-recommends-using-html-to-get-content-indexed-quickly/269841/

(16)

behandlar endast on-siteoptimering. Det bör dock noteras att rätt mix av både on-siteoptimering och off-siteoptimering ger bäst resultat [22]. Gällande etik och sökmotoroptimering finns två kategorier, white hat och black hat, och dessa behandlas nedan.

2.2.1 On-siteoptimering

On-siteoptimering avser metoderna som används under utvecklingen av en webbsida, det vill säga dess innehåll och struktur [23]. Detta kan till exempelvis vara hur nyckelord är placerade, användandet av taggar, nyckelordsdensitet, om det finns nyckelord i URLen, laddningstid för element på webbsidan, responsivitet eller sidstruktur [12]. Det är denna typ av optimering som denna rapport behandlar. Även faktorer som är svårare att kontrollera som webbsidans domäns ålder kan ha inverkan på sökmotorers rankning av webbsidan [24]. Att ha duplicerat innehåll på sin webbsida kan också leda till negativa följder i ett sökmotoroptimeringsperspektiv6.

2.2.2 Off-siteoptimering

Off-siteoptimering är optimeringen av faktorer som påverkas av yttre omständigheter och är därmed svåra för en utvecklare att påverka. En av de mest betydande off-sitefaktorer är backlinks, vilket är antalet externa webbsidor som länkar till den aktuella webbsidan. Ju populärare eller bättre kvalitet källan är av, desto bättre ranking. Andra exempel kan vara antalet användare som kommer till applikationen från en sökmotor eller hur lång tid en användare stannar, så kallad bounce rate. Användare som klickar på länkar till en webbsida från en sökmotor är en viktig faktor för webbsidans rankning av sökmotorer och fler klick leder till en högre rankning. Även antalet olika IP-adresser som klickar in på webbsidan via sökmotorn påverkar rankning, fler antal IP-adresser ger bättre rankning. [23] [25]

2.2.3 White hat och black hat

Inom sökmotoroptimering finns även två andra underkategorier: white hat och black hat. White hat är de optimeringsmetoder som uppmuntras av sökmotorföretagen för att de främjar användaren, till exempel god länkstruktur och bra responsivitet på alla plattformar. Black hat är tvärtom oetiska metoder som sökmotorföretagen straffar genom till exempel nedgradering på SERP eller till och med borttagning från SERP. Exempel på black hat-metoder kan vara spam, fejkade länkar eller osynlig text. [26] [27]

2.3

On-sitefaktorer

För att sökoptimera webbapplikationen har tre on-sitefaktorer som kan påverka ranking [12] valts ut: laddningstid, nyckelordsdensitet och sidstruktur. Vidare måste

(17)

webbsidan göras tillgänglig via en publik webbadress. Detta avsnitt definierar och förklarar dessa on-sitefaktorer.

2.3.1 Laddningstid

I en empirisk studie från Pozna ´n University of Technology beskrivs laddningstid som en viktig beståndsdel i arbetet för att uppnå framgång inom e-handel [28]. Då en kund upplever att tiden för att en webbsida laddas överskrider hens preferenser är risken hög att en annan e-handelstjänst besöks istället [28]. Vidare visar resultat från experiment utförda på företaget Amazons e-handelstjänst hur laddningshastighet korrelerar med försäljning. Slutsatsen blev att för varje ökning med 100 ms på laddningstiden hos Amazons webbsidor minskade försäljningen med 1 procent. Fortsättningsvis indikerade en annan studie utförd av Google att en ökning med 500 ms bidrog till en försäljningsminskning på 20 procent. [29]

I en studie om sökoptimering menar Gregurec och Grd att laddningstid är en viktig faktor i sökmotorernas indexering, inklusive Googles PageRank-algoritm [30]. Google har meddelat att de sedan 2010 använder laddningstid direkt som en faktor för sökranking. I samband med att definiera laddningshastighet kan ofta en osäkerhet uppstå kring att separera två välkända begrepp på det engelska språket, Page Speed (även betitlad som Page Load Time) och Site Speed.7

Site Speed beskriver den faktiska tiden det tar när en användare navigerar sig igenom en fullständig webbapplikation. Med andra ord, handlar det om processerna när programmerade mallar för webbsidor ska konverteras till fullständiga HTML-sidor när en internetbesökare förflyttar sig genom webbapplikationers struktur.8

Detta skiljer sig från Page Speed som i denna rapport motsvarar användningen av det svenska begreppet laddningstid. Konkret är laddningstid det antalet sekunder det tar från att klient lägger en förfrågan för en specifik webbsida tills att alla dess fundamentala element (HTML, JavaScript, CSS och media) laddas i webbläsaren. I detta avseende ligger därmed fokuset på att hantera attribut hos särskilda webbsidor genom att optimera deras egenskaper. [28]

Enligt MachMetrics Speed Blog var den genomsnittliga laddningshastigheten 2018 hos hemsidor för affärer ca 9.7 sekunder (från mätningar i USA, Storbritannien, Tyskland och Japan). Den genomsnittliga laddningshastigheten för samtliga typer av sidor 2018 var 9.06 sekunder.9

2.3.2 Nyckelordsdensitet

En sökmotor kan inte hantera alla ord på en webbsida, därför används ett antal ord som relaterar väl till innehållet som nyckelord. Nyckelord är ord eller fraser

7MOZ, Page Speed: https://moz.com/learn/seo/page-speed

8Adam Riemer Marketing, The Difference Between Page Speed & Site Speed for SEO:

https://www.adamriemer.me/difference-page-speed-site-speed-seo/

9MachMetrics Speed Blog, Average Page Load Times for 2018:

(18)

som på ett övergripligt sätt relaterar till innehållet på en webbsida, exempelvis kan ”musikstreaming” vara ett sådant för musiktjänsten Spotify. Det är viktigt att ha i åtanke att optimera mot den typen av sökfraser som en användare kan tänkas använda för att söka, och utforma sina nyckelord därefter, för att användaren effektivt kan söka sig till webbsidan. [23]

Nyckelordsplacering är även en viktig faktor i nyckelordsoptimeringen. Olika ställen att placera nyckelord, förutom i flytande text, är i titeln, meta-keywords-taggen, meta-description-taggen, <h>-taggar, URL:en och länktexter. [21]

Nyckelordsdensiteten beräknas därefter genom att dela antalet av de utvalda nyckelorden på en undersida, med de totala antal orden på samma sida. Att optimera nyckelordsdensiteten, med nyckelord som har god relevans för en webbsida, driver mer effektivt trafik till sidan och ökar synligheten hos sökmotorer. [31]

2.3.3 Sidstruktur

Uppbyggnaden av en webbsidas struktur kan påverka i vilken utsträckning en sökrobot rankar den. Strukturen kan beskrivas som ett nätverk av sidor på webbsidan. Interna länkar inom en webbsida kallas hyperlänkar, som sammankopplar undersidor inom samma domän. Detta hjälper att skapa en informationshierarki, vilket är viktigt för en användares navigation i applikationen, men underlättar även indexeringen på en webbsida för en sökrobot [32]. En webbsidas interna länkstruktur går att kategorisera utifrån två dimensioner, djup och bredd. Djup definieras som det antal länkar som krävs för att nå en undersida från huvudsidan. Bredd definieras som antalet noder på det djup som innehåller flest noder. En bred struktur är att föredra eftersom sökrobotens intresse för sidorna avtar med tilltagande djup. En bred respektive djup struktur illustreras i figur 2.2 nedan, där nod X har djup 1 i den vänstra bilden och djup 2 i den högra. I båda bilderna representerar noden högst upp i trädet huvudsidan. Dover och Dafforn menar att sökroboten lägger störst vikt vid huvudsidan, medan intresset för undersidor minskar ju längre ned i hierarkin man går. [33]

Figur 2.2: En graf med bred struktur till vänster och en graf med djup struktur till höger

(19)

2.3.3.1 Bedömning av struktur

Bedömning av navigation och struktur kan ske på olika sätt. Zhou och Leung menar att det finns främst tre olika sätt att analysera sidstruktur: användarenkäter, analys av användardata samt numeriska mätningar. Användarenkäter bedöms genom att låta ett stickprov av en webbsidas användare svara på påståenden och använda webbsidan utefter frågor och kriterier. Användaranalys utvärderar olika användares användning av webbsidan och sparar loggdata om användaren och beteendet. Den sistnämnda, numeriska metoden, sker genom mätningar av navigation som ger en kvantitativ bedömning över webbsidans egenskaper, vilket kan kopplas till svårigheter vid navigation av webbsidan. Den sistnämnda metoden analyseras ytterligare nedan, då det är den enda metoden som erbjuder en objektiv analys av sidstrukturen. [34]

2.3.3.2 Numerisk metod för att analysera sidstruktur

Webbsidans sidstruktur kan representeras med hjälp av en graf, där noder representerar en specifik undersida och enkelriktade bågar som en hyperlänk från en undersida till en annan. Varje båge har samma avstånd och ges värdet ett. Detta ger en enkel visualisering för att analysera strukturen numeriskt. I Figur 2.3 presenteras ett exempel på hur en sådan graf kan se ut.

Figur 2.3: En exempelgraf över hur en webbapplikations sidstruktur kan se ut Vid bedömning av sidstruktur numeriskt brukar det talas om distansmatrisen, som beskriver avståndet mellan vardera undersida, det vill säga nod. Varje hyperlänk har steglängden ett och representerar avståndet mellan undersidor. Given en graf H med n noder, kallas D = (dij) distansmatrisen, där element dij beskriver det kortaste

avståndet mellan nod i till j, givet att en sådan väg existerar. Om ingen väg finns mellan två noder, tillsätts avståndet till förvandlingskonstanten k. Den är ett värde på hur mycket en graf ska straffas för att det inte finns en väg mellan två noder. En vanlig konvention är att sätta konstanten k till antalet noder n i nätverket. På så sätt får dessa placeringar i distansmatrisen ett högre värde än någon båge som finns då de som mest kan anta ett värde på dij = (n ´ 1). Det går också att införa andra värden för

konstanten k, till exempel 0 om det inte spelar någon roll för ändamålet om det finns en båge mellan vissa specifika noder eller inte. Nedan illustreras en distansmatris i form av en tabell för grafen i figur 2.3 ovan. [34]

(20)

Startnod/Slutnod 1 2 3 4 5 6 1 0 k 1 2 1 1 2 k 0 k k 1 1 3 k k 0 1 1 k 4 k k k 0 k k 5 k k k k 0 k 6 k k k k k 0

Tabell 2.1: Illustration av distansmatrisen till Figur 2.3

2.3.3.3 Stratum

Stratum ger ett värde på hur tydligt nätverkets noder är att navigera genom. Vid högt Stratum är antalet sammanlänkade noder för en webbsida generellt fler än en webbsida med lågt Stratum. Värdet på Stratum rör sig mellan 0 och 1, där 1 motsvarar en helt linjär struktur och 0 motsvarar en helt cyklisk struktur. [34]

Formeln för att beräkna Stratum är:

Stratum= |prestige| n3 4 , för jämna värden på n (2.1) Stratum= |prestige| n3´n 4 , för udda värden på n (2.2)

Status för en nod i är summan av längden till alla nåbara noder som nod i är kopplad till i nätverket eller grafen. På liknande sätt är Kontrastatus för en nod i summan av längden till alla noder som kan nå nod i, i nätverket eller grafen. Skillnaden mellan Status och Kontrastatus blir prestige för nod i. För hela grafen blir prestige summan av absolutbeloppet för samtliga noder i grafen [35]. Från en distansmatris över ett nätverk blir en viss nods Status summan för sin rad och Kontrastatus blir summan för sin kolumn. För exempelgrafen i Figur 2.3 är Status= (5, 2, 2, 0, 0, 0), Kontrastatus= (0, 0, 1, 3, 3, 2)och således prestige= (5, 2, 1, ´3, ´3, ´2)för varje nod i nätverket. För hela grafen blir |prestige| = 16 och Stratum = 1654 = 0, 296 [34]. Vid beräkning av Stratum används ett värde på 0 i distansmatrisen.

2.3.3.4 Kompakthet

Kompakthet Cp är ett mått på en webbsidas grad av korskopplingar, i form av hyperlänkar. Korskopplingar definieras som bågar vilket ger en nod fler än en ingående båge. Kompaktheten av ett nätverk är mellan 0 och 1. Ett nätverk utan bågar har värdet 0 och ett nätverk med bågar mellan alla noder har värdet 1. En webbsida med kompaktvärdet 1 innebär att varje undersida är lättillgänglig, men kan även innebära att användaren lätt förlorar uppfattning om var man befinner sig på webbsidan, och blir desorienterad. Låg kompakthet innebär att det finns få hyperlänkar inom webbsidan, och att användaren måste gå många steg för att

(21)

komma åt en viss undersida. För god navigation krävs en god nivå av kompakthet för att användaren ska kunna använda webbsidan på ett effektivt sätt. [34]

Ett nätverks kompakthet kan beräknas enligt följande, där Max och Min representeras av det största respektive minsta möjliga avståndet i nätverket och cij

är avståndet mellan nod i och nod j. Summornařn

i=1

řn

j=1cij beräknas genom att

summera värdena i distansmatrisen. [34]

Cp= Max ´ řn i=1 řn j=1cij Max ´ Min (2.3)

Max och Min beräknas enligt formlerna nedan, där n representerar antalet noder, och C är det största avståndet mellan två noder i ett nätverk:

Max = (n2´n)˚C (2.4)

Min= (n2´n) (2.5)

2.4

Metodteori

Det avslutande avsnittet av teorin beskriver relevant teori som adresserar arbetets metoder.

2.4.1 Enkätundersökning

En enkät är en undersökning där ett antal medverkande svarar på förbestämda frågor som enkätens utställare har konstruerat. De som svarar på enkäten kan ha olika demografisk bakgrund som kan ha mer eller mindre betydelse för enkätens utfall. Syftet av en enkät är ofta att samla in personers åsikt eller ställningstagande om ett ämne. Informationen kan sedan sammanställas och användas i t.ex. olika kampanjer eller som underlag för ett beslut. Genomförandet av en enkät kan ske på olika sätt, men något som växt de senaste åren är enkäter på internet. Möjligheten att på en kort tid och till en låg kostnad få in en stor mängd data är en stor bidragande faktor. Detta gör att många fler får möjlighet att svara på enkäterna, samtidigt som kvaliteten och osäkerheten på resultaten ökar. [36]

Frågorna som omfattar enkäten kan bestå av olika karaktär. Vanliga varianter är textrutor, sifferalternativ, gradering av påstående och flervalsalternativ. Frågor där användaren inte behöver skriva in information själv, det vill säga i form av siffror eller text, har större chans att få ett relevant svar från användaren. Dessutom blir svaren från enkäten mer enstämmiga och lättare att analysera i slutändan. Däremot begränsas användarens svarsalternativ på detta sätt. Om användaren tillåts skriva in text och siffror ökar antalet svaralternativ och användaren kan således ge ett svar som

(22)

närmare dennes åsikt. Längden på enkäten spelar också stor roll för svarskvaliteten. Om enkäten är för lång finns chans att användaren inte slutför enkäten, särskilt om enkäten besvaras via internet. Det har visat sig att fler användare slutför enkäten om den är av kortare karaktär och om användaren vet hur många frågor som finns kvar att besvara. [36]

2.4.2 Tidigare studier

Ett exempel på en tidigare empirisk studie inom SEO är “An Empirical Study on the Search Engine Optimization Technique and Its Outcomes”. I denna studie används ett mätinstrument från en tredje part för att evaluera olika SEO-metoders effektivitet. I studien används en webbsida (alexa.com) som mätinstrument och några av de nyckeltal som undersöks är sidvisningar och antalet unika IP-addresser som besöker en webbsida. Några av de metoder vars effekt undersöks i studien är nyckelordsdensitet, sidstorlek. Metodiken som används i studien fungerar sådant att data från befintliga webbsidor samlads och analyseras för att kunna dra slutsatser kring till exempel hur nyckelordsdensiteten och de olika nyckeltalen korrelerade. [31] Ytterligare exempel på en empirisk studie inom SEO är ”Empirical Study of Load Time Factor in Search Engine Ranking” där sambandet mellan en webbsidas laddningstid och SERP-position undersöktes. I studien undersöktes både existerande webbsidors laddningstider jämfört med SERP-position men även egna webbsidor konstruerades med artificiella fördröjningar för att undersöka ett spektrum av olika laddningstider. [28]

2.4.3 Google Search Console

Google Search Console är ett verktyg och en tjänst som tillhandahålls av Google för att utvecklare ska kunna övervaka om och hur Googles sökrobot ser deras webbsidor, alltså om de har indexerats av Google. Google Search Console ger även utvecklare möjlighet att se statistik över exempelvis antalet besökare till en webbsida som har kommit via Google, vilka söktermer som visar webbsidan för en användare av Google och hur ofta detta sker samt om webbsidan är mobilanpassad. Ägare av en webbsida kan begära indexering. Då hamnar webbsidan i en kö för indexering av Googles sökrobotar. Skulle några problem uppstå vid indexeringen ges information om detta i Search Console. När webbsidan har indexerats klart meddelas även detta genom Search Console och den är då sökbar genom Google och kan hittas av användare.10

2.4.4 SERP-kontroll

Undersökning av en domäns placering på en sökmotors resultatsida kan antingen göras manuellt eller automatiskt med hjälp av ett verktyg. Att genomföra detta manuellt innebär att användaren själv söker på de olika söktermerna, letar fram det första resultatet innehållande det eftersökta domännamnet och antecknar resultatet.

(23)

Vid automatisk sökning får användaren registrera vilken domän och vilka söktermer som undersökas, så ger verktyget ett resultat efter att sökningen är genomförd.11 Ett exempel på ett sådant verktyg är en onlinetjänst med kapacitet för att analysera upp till 20 söktermer med 24 timmars intervall och söka bland sökmotorns första 200 resultat. Verktyget ger möjlighet till att öka/minska intervallet till en förlust/ökning av antalet söktermer samt ändra vilken sökmotor som skulle användas. I resultatet återfinns respektive sökterms nuvarande ranking, tid för senaste uppdatering samt vilken URL som resultatet hänvisar till. Verktyget definierar rankingen som "i vilken turordning den eftersökta domänen hittas utav funna domäner", det vill säga att domäner som visas flera gånger innan den eftersökta domänen endast försämrar rankingen med värdet ett.12

2.4.5 Laddningstid

Optimering av en webbapplikations laddningshastighet kan ske på en mängd olika sätt. Några exempel på on-sitemetoder för att reducera laddningstiden är effektivisera reaktionstiden på server, optimera media samt undvika funktionalitet som försämrar renderingen av webbsidan.13

Ett effektivt sätt att reducera laddningstiden är att minska filstorleken på webbsidans innehåll. Detta går att applicera på framförallt bilder och annan media, som ofta står för en väldigt stor del av webbsidans totala filstorlek. Vid minimering av bilder finns det många metoder. En metod man kan utnyttja utan att påverka bildens kvalitet är att radera onödig metadata som kan finnas sparad i bildfilen. Exempel på sådan metadata kan vara datum och kamerainställningar sparade från kameran när bilden tagits, nyckelord och titel eller data angående upphovsrätt.14Utöver filstorlekar kan även optimering av kod ske på den HTML, CSS och JavaScriptkod som bygger upp webbapplikationen. För att minimera koden är det viktigt att se till att undvika upprepning av kod och onödig eller redundant kod.15

Det går även att laborera med bildens format, upplösning och färger. 96% av all internettrafik av bilder är av formaten JPEG, PNG eller GIF och vilken av dessa format som passar bäst för en bild beror på bildens egenskaper. Stillbilder eller fotografier passar bättre som JPEG medan enklare bilder eller transparenta bilder passar att vara i PNG-format. Formaten har olika begränsningar på antal färger och komprimerar även bilder på olika sätt vilket leder till att de skiljer sig vilka slags bilder som lämpar sig att ha i respektive format. När en GIF- eller JPEG.fil komprimeras sker det via så kallad ”lossy compression” vilket betyder att en liten mängd data kan förloras när filen komprimeras. Kompression av PNG-filer är

11SERPs, Manually checking a keyword ranking in Google: https://serps.com/blog

/manually-checking-a-keyword-ranking-in-Google/

12Multiple Digital Est., SERPROBOT Info: https://www.serprobot.com/info.php 13PageSpeed Insights, PageSpeed Insights Rules: https://developers.Google.com/speed

/docs/insights/rules/

14IPTC, What Is Photo Metadata?: https://iptc.org/standards/photo-metadata/photo-metadata/ 15PageSpeed Insights, PageSpeed Insights Rules: https://developers.Google.com/speed

(24)

”lossless” vilket innebär att kompressionen inte förändrar dess data. I fallet då filerna är bilder är det oftast inget problem med mindre förluster av data då denna skillnad kan vara svår att upptäcka eller uppfattas som väldigt liten för en användare.16

Vidare kan man även decimera bilders filstorlek genom att minska dess upplösning. En övervägning mellan hur hög kvalitet som anses tillräcklig, filstorlek och i sin tur laddningshastighet som önskas får göras men i en del fall går det att reducera filstorleken utan att förlora någon större upplevd kvalitet. Figur 4.3 nedan illustrerar ett exempel på hur en bild [37] med olika upplösningar uppfattas av användaren.

Figur 2.4: Vänstra bilden: 54kb, högra bilden: 28kb

Genom att tillämpa metoden lazy loading på medier som bilder kan man också reducera en webbsidas laddningshastighet utan att kompromissa med kvaliteten. Metoden går ut på att initialt endast ladda in de element som kommer synas på skärmen, det vill säga att en bild du måste rulla ner på sidan för att se, inte laddas in förrän den är nära att hamna synligt på skärmen. Implementationen av lazy loading kan ske på en mängd olika sätt, en variant är att bilder som inte laddas in initialt istället blir ersatta med en platshållare som antingen kan vara en helt vit bild eller en lågupplöst version av bilden. Sedan när en användare rullar ner på undersidan och platshållaren kommer tillräckligt nära det för användaren synliga skärmfältet börjar bilden laddas in. Funktionen stoppar programmets exekvering av instruktioner i det antalet sekunder som inputargumentet anger. Detta gör att den initiala laddningen av undersidan går snabbare då inte hela dess innehåll behöver laddas.17

En Reverse Proxy Server (nedan RPS) kan användas för att göra webbapplikationer snabbare. RPS:en kan ta emot användares anrop och fördela dessa jämnt över de serverinstanser som kör webbapplikationen om flera används. Även om endast en serverinstans körs så kan en RPS snabba upp webbapplikationen genom att den lagrar statiska resurser så som bilder i en cache för snabb åtkomst. RPS:en som

16Google PageSpeed Insights, Image Optimization:

https://developers.Google.com/web/fundamentals/performance/optimizing-content-efficiency /image-optimization

17Google Web Fundamentals, Lazy Loading Images and Video:

https://developers.Google.com/web/fundamentals/performance/lazy-loading-guidance/ images-and-video/

(25)

användes för att ta fram det empiriska materialet för den här rapporten heter Nginx.18

Ett simpelt sätt att påverka laddningstiden för en webbapplikation är att avsiktligt fördröja serverns uppladdning av begärd webbsida. I en Flaskserver kan detta utföras genom att använda sig av pythonfunktionen sleep() som finns i pythonmodulen time. Funktionen stoppar programmets exekvering av instruktioner i det antalet sekunder som inputargumentet anger.19

Googles PageSpeed Insights är ett verktyg för att undersöka en webbsidas prestanda. PageSpeed Insights använder sig av ett open-source verktyg Lighthouse för att generera olika prestandavärden som till exempel Speed Index.20Speed Index anger webbsidans

snabbhet att ladda upp innehåll synligt för användaren och ett lägre värde innebär snabbare webbsida.21

Gällande riktlinjer för laddningstid har det funnits olika rekommendationer genom internets historia. År 2000 rådde en åtta-sekunders-regel, vilket innebar att om uppladdning av aktuell webbsida överskred åtta sekunder var risken betydande stor för att en kund skulle överge e-plattformen och besöka en annan. Endast sex år senare halverades denna tumregel. [28]

2.4.6 Nyckelordsdensitet

Vid optimering av nyckelordsdensitet på en webbsida bör ett urval av nyckelord tas fram, mellan fem och tio stycken. Dessa nyckelord bör ha en stark relevans till sidinnehållet och efterlikna ord som användarens sökfraser kan bestå av då hen försöker hitta webbsidan. Dessa ska i sin tur generera en fördelaktig ranking. Wang et al. [31] rekommenderar att hålla densiteten mellan 2-8%. Ziakis et al. [38] påpekar däremot att intervallet inte är universellt och påverkas av andra faktorer. SEO-optimering rekommenderas därför ske med ett holistiskt tillvägagångssätt men med fokus på de viktigaste faktorerna. [38]

En för hög nyckelordsdensitet kan påverka rankingen av webbsidan negativt hos de flesta sökmotorer, och i värsta fall kan sökmotorn helt blockera webbapplikationen från att indexeras [39]. Zhang et al. [40] fann däremot att duplicering av nyckelord i löpande text inte påverkade rankingen negativt, utan att det snarare gäller

18What Is a Reverse Proxy Server?:

https://www.nginx.com/resources/glossary/reverse-proxy-server/

19Python Central, Python’s time.sleep():

https://www.pythoncentral.io/pythons-time-sleep-pause-wait-sleep-stop-your-code/

20PageSpeed Insights, About PageSpeed Insights:

https://developers.Google.com/speed/docs/insights/v5/about?hl=sv-SEutm_source= PSIutm_medium=incoming-linkutm_campaign=PSI

21Google Developers, Speed Index:

https://developers.Google.com/web/tools/lighthouse/audits/speed-index?utm_source =lighthouseutm_medium=unknown

(26)

duplicering av nyckelord i <title>-taggar. Den löpande texten ska ha god läsbarhet, vara användbar och informationsrik [22]. Detta är något som Google bekräftar.22

2.4.7 Sidstruktur

Hur sidstrukturen hos en webbapplikation är uppbyggd tros ha en betydande effekt vid sökmotoroptimering [41]. Dels för att en sökrobot på ett enkelt sätt ska kunna söka av webbsidan, men också för att sökmotorer vill främja webbsidor som är uppbyggda på ett rimligt sätt och därmed är användarvänliga. Enligt flera källor handlar det i slutändan om att sidstrukturen inte ska vara för bred eller för djup. Med detta menas att det ska finnas en rimlig kategorisering och en intuitiv uppdelning av webbsidans undersidor, speciellt för e-handelstjänster. [41]–[43]

Farkas menat att djupet på en webbplattform inte bör överstiga fyra nivåer i djup för att göra navigation på webbsidan enkel och beskiver att navigation är att föredra hos en webbsida som har en bred struktur över en djup [43]. För att minimera en webbsidas djup bör viktiga undersidor finnas länkade på huvudsidan och djupare undersidor flyttas upp i hierarkin menar även Dahake. [44]

2.4.8 Googles algoritmer

Sökmotorns arbete är i det stora hela hemligt, komplext och en process i ständig utveckling. Hur Google indexerar idag är inte säkert samma process imorgon och detta kan ha en inverkan på våra resultat.23

22Google Search Console Help, Instoppade sökord:

https://support.Google.com/webmasters/answer/66358?hl=sv

23Forbes, How Much Do We Really Know About Google’s Ranking Algorithm?:

https://www.forbes.com/sites/jaysondemers/2018/02/07/how-much-do-we-really-know-about-Googles-ranking-algorithm/34fb1ddf55bb

(27)

I detta kapitel redovisas metoderna som används vid enkätundersökning, utveckling av webbsidan och testernas uppbyggnad. Detta för att studien ska vara replikerbar.

3.1

Enkätundersökning

För att samla in relevant information om bland annat vilken sökmotor som webbsidan lämpligen skulle optimeras mot och för att skapa en bild av användarnas sök- och navigeringsvanor genomfördes en enkätundersökning, Bilaga B. Enkäten undersökte också beteenden vid vidare navigering efter en sökning.

Enkäten var webbaserad och skapad genom Googles verktyg för enkäter. Den skapades i enlighet med den praxis som identifieras i teorikapitlet och bestod därför av ett antal flervalsfrågor, rankingfrågor och ja- eller nejfrågor. Utöver detta gjordes enkäten rimligt lång och delades in i tre delar.

Enkäten distribuerades via sociala medier till studenter vid Linköpings Universitet samt i kafferelaterade grupper på Facebook. Svaren om sökmotorpreferens utgjorde underlag för vilken sökmotor som webbsidan skulle optimeras mot.

3.2

Webbsidorna

För att webbsidorna skulle bli indexerade så snabbt som möjligt utvecklades två webbsidor parallellt. En multi page-webbsida, utan implementering av JavaScript som enligt avsnitt 2.1.3.1 gör att indexeringen går långsammare. Denna webbsida kommer framöver benämnas ”testsidan”. Den andra webbsidan, en single page-webbsida, använde JavaScript och skulle möta alla tekniska och funktionella krav för utvecklingsprojektet. Denna webbsida kommer framöver benämnas

(28)

”primärsidan”. Fördelarna med att utveckla två versioner var, förutom snabbare indexering, att testerna kunde påbörjas tidigt i processen samt att indikationer på faktorernas betydelse för sökmotoroptimeringen kunde ge ledning till hur den slutgiltiga webbsidan skulle utvecklas.

För att webbsidan skulle indexeras snabbt så följdes Googles rekommendationer gällande implementation av en sitemap och en robot.txt-fil. En sitemap genererades och lades till i webbsidan. Robot.txt-filen skrevs och stoppade sökroboten från att indexera vissa undersidor som hade gjort sidstrukturen mycket mer komplicerad, testerna svårare att genomföra och resultaten svårare att tolka.

3.3

System

För att kunna replikera denna studie beskrivs nedan hur webbsidan är uppbyggd.

3.3.1 Backend

Serversidan utvecklades med Pythonramverket Flask som inkluderar en rad bibliotek och verktyg för att bygga webbsidor. Flaskservern levererar innehåll i form av HTML och CSS till klientsidan via HTTP. Med hjälp av SQL Alchemy kommunicerar servern med databasen som är en SQLite-databas.

Webbsidan gjordes tillgänglig på internet genom att en molnbaserad virtuell maskin körandes Ubuntu 18.04 hyrdes på digitalocean.com. En SSH-klient användes för att koppla upp mot den virtuella maskinen och konfigurera densamma. När projektet hade klonats ner från versionshanteringssystemet till den maskinen så konfigurerades en HTTP server Gunicorn för att kunna kunna svara på HTTP-anrop. Fyra Gunicorn instanser kördes parallellt på maskinen för att kunna hantera flera anrop simultant. Gunicorn instanserna lyssnade på den interna porten 8000, detta för att externa anrop hanterades av en Reverse Proxy Server, i det här fallet Nginx. Nginx servern lyssnade på portarna 80 respektive 443 och vidarebefordrade anropen till Gunicorninstanserna via port 8000. Nginx servern var även konfigurerad för att direkt leverera statiskt material (CSS, Javascript och bilder) till klienter för att minska belastningen på Gunicorninstanserna och snabba upp leveransen av statiskt material. Webbsidan kopplades till webbadressen brewinabox.se som köptes och registrerades på one.com.

3.3.2 Frontend

Klientsidan gjordes med HTML, ett märkspråk som gör det möjligt att fylla webbsidan med innehåll som text och bilder. CSS användes för att anpassa utseendet av HTML-dokumentet och CSS-ramverket Bootstrap användes för att underlätta designimplementationen. I webbsidans huvudelement inkluderades en sitemap för att förkorta indexeringstiden. På primärsidan levererades HTML-innehåll dynamiskt till DOM (Document Object Model) via JavaScript och dess jQuery bibliotek. Som tidigare beskrivet användes inte JavaScript på testsidan.

(29)

3.4

Testning

För att undersöka faktorerna laddningshastighet, nyckelordsdensitet och sidstrukturs påverkan på ranking utfördes ett test av varje faktor. Varje test bestod av ett antal iterationer, varierande beroende på faktor. Utöver tester av faktorerna utfördes även ett grundtest av den initiala webbsidan och ett test av den slutgiltiga produkten.

När versionen av webbsidan som skulle testas var uppladdad och kopplad till domänen skickades en begäran till Google Search Console om att få webbsidan indexerad. När Google indexerat den uppdaterade webbsidan, och meddelat det genom att ändra indexeringsstatus i Google Search Console till giltig kunde rankingen mätas med hjälp av tredje part SERP-verktyget och noteras. Metodiken att mäta rankningen med ett tredjepartsverktyg efterliknar de effektivitetsmätningar som gjordes i “Empirical Study of Load Time Factor in Search Engine Ranking” [31] som nämns i avsnitt 2.4.2. Därefter byttes versionen av webbsidan ut till en med nästa faktorändring. Under och mellan iterationerna undveks det att gå in på webbsidan via Google för att undvika att externa off-sitefaktorer skulle påverka dess ranking, enligt avsnitt 2.2.2.

Det allra första testets mätning användes som ett referensvärde som utgjorde grunden för de relativa jämförelser som gjordes för varje iteration. Därefter försämrades varje faktor ett steg åt gången. De faktorer som för närvarande inte testades sattes till hur de var i iteration 0.

För att SERP-verktyget skulle fungera var söktermerna tvungna att returnera brewinabox.se bland de 200 översta sökresultaten i SERP, som tidigare beskrivet i avsnitt 2.4.4. De utvalda nyckelorden kombinerades till söktermer som kunde användas av SERP-verktyget och som var tänkbara för en användare, se tabell 3.1 nedan. Utöver kombinationer av nyckelord användes även webbsidans namn som sökterm. Totalt användes tio stycken söktermer.

Söktermer

brewinabox brew in a box

teprenumeration och kaffeprenumeration prenumeration box kaffe te

lärorikt box kaffe te

prenumerera på kaffe och te i present kaffebox tebox hemleverans

blandboxen

prenumerera på kaffe och te kaffe- och tebox prenumeration

(30)

3.4.1 Laddningstid

I iterationerna för laddningstidstestet valdes det att endast undersöka hur sökrankingen påverkas av skillnader i den medvetet implementerade fördröjning innan webbsidan eller dess undersidor laddas in. Detta till följd av att eftersträvan av en specifik laddningstid är problematisk då en stor mängd av externa variabler spelar in på detta såsom bandbreddshastighet och trafik på nätverket. Denna metodik går i enlighet med studien ”Empirical Study of Load TimeFactor in Search Engine Ranking” [28] som tas upp i avsnitt 2.4.2 där man snarlikt implementerade en artificiell fördröjning.

Fördröjningen implementerades genom att inskjuta Pythonfunktionen sleep() innan varje ruttfunktion som är bunden till en URL. Inputargumentet som anger fördröjningen av exekutionen av programmet sattes till en gemensam variabel som enkelt kunde justeras för att modifiera fördröjningstiden för samtliga ruttfunktioner. I det initiala testet sattes variabeln till 0 sekunder istället för att utesluta kodraden med fördröjningen i syfte att minimera skillnaden i kod mellan de olika versionerna. Enligt avsnitt 2.3.1 var medelladdningstiden hos en e-handelstjänst 9.8 sekunder 2018. Med avseende på detta valdes fördröjningstiderna för de olika iterationerna inom intervallet 0-7 sekunder.

Testiteration 1.1 1.2 1.3

Fördröjning (sekunder) 2 4 7 Tabell 3.2: Fördröjning med pythonfunktionen sleep()

För att bekräfta skillnaden i laddningstid mellan de två versionerna av webbsidorna användes Googles egna PageSpeed Insights och Speed Index mättes.

Åtgärder som implementerades på webbsidan efter testet för att optimera laddningstiden ytterligare var Lazy loading, optimering av filstorlekar av bilder och kodrefaktorering i syfte att minimera koden. Lazy loading implementerades genom att låta tomma platshållare laddas in initialt och sedan ladda in bilder om de befinner sig i eller det synliga fältet på skärmen. Upplösningen, format och storlek på bilderna på webbsidan korrigerades enligt riktlinjerna som tagits upp i teorin. Onödig metadata raderades från bilderna och kodrefaktorering utfördes enligt direktiven beskrivna i teorin.

3.4.2 Nyckelordsdensitet

Nyckelorden valdes ut enligt teorin, där Zilincan och Gregus [22] påstår att fem till tio nyckelord som bäst representerar innehållet på webbsidan ska väljas ut. De 8 nyckelorden kaffe, te, kaffeprenumeration, teprenumeration, present, hemleverans, smakupplevelse och lärorikt valdes då ut eftersom de representerade webbsidans innehåll.

(31)

För att utvärdera nyckelordsdensitetens effekt på sökmotoroptimering testades två olika densiteter. Endast densiteten i tre undersidor mättes: huvudsidan benämnd ”Startsidan”, ”Om kaffe”-sidan och ”Om te”-sidan, motiverat av att dessa tre hade långa löpande texter som var representativa för webbsidans funktion. Det initiala testet genomfördes med en densitet på mellan två och åtta procent, som rekommenderas enligt Wang et al. [31]. Nedan visas exempel från ”Om kaffe”-sidan från det första testet med nyckelord fetmarkerade.

“När man sedan maler kaffebönorna krävs olika malningsgrader beroende på tillagningsmetod. Ju längre bönorna har kontakt med vatten, desto grövre malda ska de vara. I en pressobryggare, där bönorna är i kontakt med vatten i 5 minuter, måste bönorna vara mycket grovt malda för att undvika ett för beskt kaffe. I en espressomaskin däremot måste kaffet vara mycket finmalt eftersom vattnet bara är i kontakt med bönorna under en väldigt kort tid.”

Tabell 3.3 nedan visar nyckelordsdensiteten för alla löpande texter på webbsidans i iteration 0.

Undersida Antal ord Antal nyckelord Nyckelordsdensitet (%)

Startsida 120 8 6.6

Om kaffe 336 21 6.2

Om te 527 35 6.6

Tabell 3.3: Nyckelordsdensiteten för iteration 0 ligger mellan 2% - 8%

Därefter ökades antalet nyckelord i texterna till en nyckelordsdensitet på 14% till 20%. Texterna är fortfarande läsbara, men är mycket repetitiva. Nedan visas ett exempel på en text från ”Om kaffe”-sidan i iteration 2.1, där nyckelorden är fetmarkerade.

“När man sedan maler kaffebönorna krävs olika malningsgrader beroende på

kaffetillagningsmetod. Ju längre kaffebönorna har kontakt med vatten, desto grövre malt ska kaffet vara. I en pressokaffebryggare, där kaffebönorna är i kontakt med vatten länge, måste kaffebönorna vara mycket grovt malda för att undvika ett beskt

kaffe. I en espressokaffemaskin däremot måste kaffet vara mycket finmalt eftersom vattnet bara är i kontakt med kaffebönorna under en väldigt kort tid.”

Detta gjordes på samtliga sidor med löpande texter för att öka nyckelordsdensiteten, se Tabell 3.4 nedan.

Sida Antal ord Antal nyckelord Nyckelordsdensitet (%)

Startsida 103 20 19.4

Om kaffe 329 47 14.3

Om te 524 78 14.8

(32)

3.4.3 Sidstruktur

För att se hur olika typer av sidstruktur påverkar ranking på sökmotorer togs olika strukturer fram för att analysera deras resultat gentemot varandra. Dessa strukturer särskiljer sig starkt från de strukturer som implementerades på testsidan och primärsidan. Syftet var att få en tydligare inblick i varför just vissa egenskaper hos en struktur försämrar eller förbättrar en ranking.

I avsnitt 2.3.3 diskuteras hur det är av stor vikt att reglera en sidstrukturs djup och bredd. Detta anses ha en påverkan på sökmotorers indexering, och därav rankingen. Det var därför viktigt att ha tydliga strukturer där man lätt kunde särskilja vilket djup samt bredd nätverket har. För att tydliggöra skillnader i de olika strukturerna existerade det endast en enkelriktad väg, eller ingen väg alls. På detta sätt såg man enkelt vilket djup i sidstrukturen varje nod har. I avsnitt 2.3.3 påpekas även att en hierarkisk struktur är gynnsamt för ranking och navigerbarhet, så detta är något som togs i åtanke vid framställning av strukturerna.

För att ändra sidstrukturen så avaktiverades och modifierades hyperlänkarna på webbsidan. I grafen nedan visas sidstrukturen på huvudsidan i figur 3.1. Varje undersida representeras av en nod, där specifika hyperlänkar representeras av bågar. I ett nätverk av 6 undersidor kan man återskapa 6!, dvs 720 varianter. Endast tre olika strukturer testades och analyserades utöver testsidans struktur. Dessa strukturer valdes på ett sätt sådant att olika djup tillsammans med bredd varierades för att kunna särskilja de olika egenskaperna för vardera struktur.

I figurerna nedan representerar varje nod en undersida och noden högst upp markerat med siffran ett motsvarar huvudsidan. För varje sidstruktur togs distansmatrisen fram, och värdet på Stratum och Kompakthet beräknades enligt avsnitt 2.4.3.2. Hur dessa siffror påverkar ranking kunde då analyseras.

(33)

Figur 3.1: Sidstruktur på primärsidan

(34)

Figur 3.2: Struktur för iteration 3.1

(35)

Figur 3.4: Struktur för iteration 3.3

Nedan presenteras iterationernas distansmatriser:

• I iteration 3.1 användes en djup sidstruktur enligt figur 3.2 i avsnitt 3.4.3 med tillhörande distansmatris enligt 3.5 nedan.

Startnod Slutnod 1 2 3 4 5 6 7 Status 1 0 1 2 3 4 5 6 21 2 k 0 1 2 3 4 5 15 3 k k 0 1 2 3 4 10 4 k k k 0 1 2 3 6 5 k k k k 0 1 2 3 6 k k k k k 0 1 1 7 k k k k k k 0 0 Kontrastatus 0 1 3 6 10 15 21 Stratum: 1

Tabell 3.5: Distansmatris för iteration 3.1

• I iteration 3.2 användes en blandat djup och bred sidstruktur enligt figur 3.3 i avsnitt 3.4.3 med tillhörande distansmatris enligt 3.6 nedan.

Startnod Slutnod 1 2 3 4 5 6 7 Status 1 0 1 2 2 3 4 4 16 2 k 0 1 1 2 3 3 10 3 k k 0 k k k k 0 4 k k k 0 1 2 2 5 5 k k k k 0 1 1 2 6 k k k k k 0 k 0 7 k k k k k k 0 0 Kontrastatus 0 1 3 3 6 10 10 Stratum: 0.64

Tabell 3.6: Distansmatris för iteration 3.2

• I iteration 3.3 användes en bred sidstruktur enligt figur 3.4 i avsnitt 3.4.3 med tillhörande distansmatris enligt 3.7 nedan.

(36)

Startnod Slutnod 1 2 3 4 5 6 7 Status 1 0 1 1 1 1 1 1 6 2 k 0 k k k k k 0 3 k k 0 k k k k 0 4 k k k 0 k k k 0 5 k k k k 0 k k 0 6 k k k k k 0 k 0 7 k k k k k k k 0 Kontrastatus 0 1 1 1 1 1 1 Stratum: 0.14

Tabell 3.7: Distansmatris för iteration 3.3

3.5

Slutprodukt

En slutprodukt utvecklades efter de rekommendationer som tagits upp i teorikapitlet och de resultat som testerna gav. Den blev således en utveckling av primärsidan. Domänens ranking efter sökning av de valda söktermerna noterades för att undersöka huruvida de valda åtgärderna gav ett bättre resultat i sökmotoroptimeringssyfte än primärsidan. Fortsättningsvis kommer slutproduktens test att benämnas iteration 4. Nedan följer distansmatrisen och uträkningar för Stratum för slutprodukten. Samma matris gäller för iteration 0 då sidstrukturen inte har ändrats. Startnod Slutnod 1 2 3 4 5 6 7 8 9 10 11 12 Status 1 0 1 1 1 1 1 1 2 3 4 1 2 18 2 1 0 1 1 1 1 1 2 3 4 1 2 18 3 1 1 0 1 1 1 1 2 3 4 1 2 18 4 1 1 1 0 1 1 1 2 3 4 1 2 18 5 1 1 1 1 0 1 1 2 3 4 1 2 18 6 1 1 1 1 1 0 1 2 3 4 1 2 18 7 1 1 1 1 1 1 0 1 2 3 1 2 15 8 1 1 1 1 1 1 1 0 1 2 1 2 13 9 1 1 1 1 1 1 1 2 0 1 1 2 13 10 1 1 1 1 1 1 1 2 3 0 1 2 15 11 1 1 1 1 1 1 1 2 3 0 1 2 17 12 1 1 1 1 1 1 1 2 3 4 1 0 17 Kontrastatus 11 11 11 11 11 11 11 21 30 38 11 21 Stratum: 0.64

Tabell 3.8: Distansmatris för iteration 4

3.6

Sammanfattning av metod

En sammanfattning av testerna som genomfördes kan ses i figur 3.5. I sin helhet utfördes 10 tester varav 3 gjordes på faktorn laddningstid, en för nyckelordsdensitet, 3 för sidstruktur och en för slutprodukten. Efter testerna för iteration 0 till 3.X var

(37)

gjorda så utvärderades resultatet av dessa och jämfördes med de rekommendationer som erhölls från teori och gängse rekommendationer för att utveckla iteration 4 som även den sedan testades och utvärderades.

(38)

I detta kapitel presenteras de resultat som tagits fram från enkätundersökningen samt testerna av testsidan och primärsidan. Därefter redovisas funktionaliteten hos slutprodukten.

4.1

Enkätundersökning

I enkätundersökningen (se bilaga B) deltog 248 respondenter varav nästan 70% var både studenter och tillhörde åldersgruppen 18-25 år.

Av alternativen Google, Bling, Yahoo och Baidu använder en absolut majoritet Google som sökmotorn.

(39)

När det kommer till vanan att klicka på icke-organiska länkar som hamnar överst bland sökresultaten angav majoriteten av svaren ibland, någon enstaka gång eller aldrig. Med 40% av svaren är det vanligast att endast en enstaka gång gå vidare till andra sidan av en SERP medan 26% svarade ibland och 20% svarade aldrig. Vidare visade det sig att en övervägande majoritet söker efter en hemsida trots att de känner till webbsidans URL.

Figur 4.2: Fråga: Hur ofta brukar du...

Vid förfrågan om hur deltagaren i enkätundersökningen väljer ett sökresultat från en SERP var de två främsta faktorerna att den ligger högt upp bland alternativen och att beskrivningen stämmer väl överens med vad deltagaren sökte efter.

References

Related documents

The emphasis is now less on the internal structure of the household but more on how these technologies shape other people’s understanding of the household members in terms of

Model IV Google Yahoos procentuella förändring i omsättningstillväxt applicerad på Google där inga justeringar gjorts för att matcha aktiekursen 22 november 2005

De bör vara beskrivande så att det tydligt framgår vart länken leder och det är en klar fördel om de innehåller sökordet som sidan optimeras för (Rehman &amp; Kahn 2013).

Trender och nästa steg inom analytics Tid för frågor och avsluande reflektioner 7.

Den 30 oktober röstade 184 av de 192 medlemmarna i FNs Generalförsamling för Kubas krav att USA måste häva sin ekonomiska, handels- och finansiella blockad mot lan- det.. Det var en

Resterande kriterier har utgått ifrån vilken typ av dokument, ursprung samt omfång dokumenten ska inneha och är hämtade från Web Wisdom: How to Evaluate and

Utifrån resultaten i ovan figur utesluts valet att behålla tre eller färre komponenter till följd av för låg förklaringsgrad enligt kriteriet.. Komponent nummer fyra ligger

On the contrary side, the respondents who searched for a specific website and clicked on an organic search result instead of an ad expressed their disapproval of Google search