• No results found

VIRTUELLA ASSISTENTER

N/A
N/A
Protected

Academic year: 2021

Share "VIRTUELLA ASSISTENTER"

Copied!
31
0
0

Loading.... (view fulltext now)

Full text

(1)

Examensarbete på kandidatnivå, 15 hp Utbildningsprogrammets namn

SPB 2020.XX

VIRTUELLA ASSISTENTER

Den lata människans hjälpreda

Ludvig Öhlund & Ola Zätterlund

(2)

ii

Abstract

As our home gets smarter so does our peripherals. We can, with the help of a virtual assistant, control a lot of our houseware simply by voice commands. This study aims to examine the behavioral changes in users of virtual assistants as they get used to a life with a virtual helper in their everyday life. It also examines the relationship the user creates with its virtual assistant as well as if virtual assistants should have rights of their own. By conducting focus groups with users who use virtual assistants in a range from daily to never one could make out the difference in behavior at home, the treatment of the virtual assistant and different views of the rights for the virtual assistant. The conclusion of the three questions is that firstly, using a virtual assistant over an extended period of time makes the individual more comfortable at home and thus more lazy in their everyday life. Secondly, an extended period of use creates a sort of relationship between the user and the virtual assistant where the user feel some sort of bond to their assistant in which changing parts of their assistant such as the voice makes them miss the old assistant. Lastly, users do not believe that virtual assistants should have rights as of now for the reason that they are not sentient as of now but if, in the future, assistants become smarter and more sentient it should at least be a discussion about it.

(3)

Innehållsförteckning

1. Inledning ... 1

2. Relaterade studier ... 3

2.1 Framväxten av virtuella assistenter ... 3

2.2 Personifiering, attitydförändring och känslor i relation till virtuella assistenter ... 4

2.3 Kommunikationssvårigheter mellan användare och sin virtuella assistent ... 6

2.4 Robotens rättigheter ... 7

3. Metod ... 9

3.1 Kvalitativ med och innehållsanalys ... 9

3.2 Fokusgrupp ... 9

3.3 Urval ... 10

3.4 Forskningsetiska ställningstaganden ... 11

3.5 Metodkritik ... 11

4. Resultat och analys ... 14

4.1 Inledning ... 14

4.2 Enklare vardag, latare människor ... 14

4.3 Relation byggs med tiden ... 17

4.4 Virtuella assistenter är ej i behov av rättigheter ... 19

5. Diskussion ... 21

5.1 Sammanfattning ... 21

5.2 Diskussion ... 21

5.3 Metoddiskussion ... 23

6. Referenser ... 24

(4)
(5)

1

1. Inledning

Virtuella assistenter är någonting som blir allt vanligare i vardagen, oavsett om man själv har använt en eller inte så vet man hur dem fungerar, hur pass smarta dem är och att det bara är ett program i en låda, eller är det? Kan det vara någonting mer bakom rösten hos virtuella assistenter?

Historien bakom dagens Artificiella Intelligenser (AI), eller Virtuella assistenter som vi kommer fokusera på, kan ha fått sin början i grekiska mytologin om bronsjätten Talos som vakade över ön Crete (Rose, 2004). Han gick runt ön tre gånger varje dag och såg till att ingen tog sig nära, för om man kom för nära honom så dog man (Ibid). Hoppar man långt fram i tiden till 1900-talet så kom en man vid namnet Santiago Ramón y Cajal (1852–

1934) fram till hur hjärnan var uppbyggd av miljardtals neuroner som skickar signaler mellan varandra vilket gör att vi tänker och fungerar som vi ska (Nilsson, 2009). 1936 kom Alan Turing på “the turing machine” som var en maskin, eller snarare en modell, som hade möjligheten att kunna utföra vilka beräkningar som helst (Sipser, 2006). Och vid 1943 kom Warren McCulloch and Walter Pitts på idén med artificiella neuroner, där alla neuroner tillsammans fungerar som en dator (Russel & Stuart, 2009). Nu för tiden har vi god förståelse hur hjärnan fungerar och hur den reagerar under olika situationer, vilka behov den behöver för att fungera och vad som kan orsaka att man får ett ändrat beteénde av, till exempel, en ändrad livsstil. Datorer i form av dagens smartphones är en viktig del i vårt dagliga liv, där vi har möjligheten att kommunicera med personer över hela världen, söka bland internets oändliga bibliotek, planera möten och sedan några år tillbaka ha tillgång till ens egna assistent i samma enhet som är till för att effektivisera vår vardag.

Det finns en del olika virtuella assistenter, de mer kända av dem är: Via Amazons Echo

“Alexa”, via Google Home “Google assistant”, från Apple “Siri” och från Windows

“Cortana” (Li & Yuan, 2018). Dessa virtuella assistenter finns tillgängliga dels via smarta hemhögtalare och dels tillgängliga i ens mobiltelefon, beroende på om man har en Apple eller Samsung telefon eller någon annan däremellan, så har man tillgång till olika assistenter (Ibid). Däremot vet vi vad den virtuella assistenten kan användas till, vilket är bland annat: sätta larm, säga vad det är för väder ute, konvertera från en valuta till en annan, kontrollera olika funktioner av ens hem via kommandon (likt sätta på kaffe, tända och släcka lampor, spela musik, osv), bland den vanligaste funktionen vilket är att besvara ens frågor man ställer till den (Winkler et al, 2019).

I takt med att AI:s blir allt mer intelligenta och människolik i sina funktioner och beteende väcks frågan om vad ska AI anses vara rent statusmässigt. Våra lagar och regler är utformade efter människan i centrum och de rättigheter vi diskuterar utgår alltid från mänsklighetens väl. Djur och till viss del natur regleras också med rättigheter som ska hindra dess lidande eller fortlevnad som art men frågan vi ställer oss i denna uppsats är om AI kan ses som intelligent och om den i så fall är i behov av rättigheter. Bör man utforma deras rättigheter som den för djur, där man inte får skada djur men vi människor har rätten att avliva dem om så behövs? Eller bör man utforma rättigheter mer som om dem vore en människa? I dagsläget där de smartaste AI:na som finns tillgängliga är dem som finns i virtuella assistenter likt Siri eller Alexa, där man tydligt kan höra att de inte är medvetna om sin egen existens utan bara är ett program som vi människor kan använda.

(6)

2

Syftet med denna studie är att skapa kunskap om människors uppfattning av- och relation till virtuella assistenter. Vidare syftar studien till att resonera kring virtuella assistenters status i samhället och dess eventuella behov av rättigheter.

Frågeställningen är: Hur uppfattar användare virtuella assistenter och i vilken utsträckning tillskriver man dem egenskaper som är mänskliga? Hur förhåller sig användare av virtuella assistenter till att ge dem rättigheter i samhället?

(7)

3

2. Relaterade studier

För att kunna besvara våra frågeställningar senare i vår studie behöver vi ta till oss information från tidigare undersökningar. Nedan presenterar vi ett antal olika studier och artiklar som går in på områden vi anser är relevanta för denna studie. En sak som vi dock märker när vi letade relaterade studier är att även om det finns en hel del undersökningar om användandet av virtuella assistenter så fann vi ingen undersökning som undersökte den mer avancerade användningen av virtuella assistenter. Den mer avancerade användningen av virtuella assistenter vi refererar till handlar om assistentens möjlighet att styra lampor, Bluetooth enheter, skapa scheman som den följer under dagen, osv. För att kompensera för detta så valde vi olika områden där virtuella assistenter är i centrum, för att få en så bred syn som möjligt.

2.1 Framväxten av virtuella assistenter

För att förstå hur dagens men också framtiden virtuella assistenter fungerar eller kommer fungera så behöver man förstå hur dem har fungerat. I inledningen beskrev vi historien och tankesättet om hur robotar, AI:s eller virtuella assistenter kom till, det vi kommer ta upp i framväxten av virtuella assistenter är hur man gick från väldigt simpla (men då avancerade program) till dagens assistenter och vad de har haft för roller.

När man tänker sig virtuella assistenter är det lätt att koppla till de nya röststyrda assistenterna som Google Home eller Amazon Alexa men virtuella assistenter har funnits mycket tidigare än så. IBM Shoebox var en av de första stegen mot en virtuell assistent, en dator som kunde förstå ord (IBM.com). IBM Shoebox var en dator från 1961 som klarade av matematiska funktioner och röstigenkänning, där datorn i sig klarade av att förstå 16 ord samt siffrorna 0 till 9 (Ibid). I dagens samhälle är det inte alls imponerande men 1961 var det ett genombrott. På 70-talet skapades Harpy, som klarade av runt 1000 ord (Waibel

& Lee, 1990). 1994 kom nästa stora genombrott, detta med IBMs PDA IBM Simon (Greengard, 2015). Simon var en handhållen telefon med touch screen som fungerade lite som en av dagens telefoner, man kunde ringa telefonsamtal, faxa, maila samt använda applikationer som miniräknare, världsklocka och notepad; den gick även att styra med penna (Ibid). Simon lade med detta grunden för dagens virtuella assistenter.

Siri var den första moderna virtuella assistenten som introducerad av Apples 2011 (Hoy, 2018). Amazon och Microsoft hoppade snabbt på trenden att använda virtuella assistenter, där 2013 så släppte Microsoft sin Cortana och 2014 släppte Amazon sin Echo-högtalare med assistentprogrammet Alexa (Ibid). Google var lite långsammare med sitt Google Home som hade sin release 2016 (Ibid). På senare tid har alla dessa virtuella assistenter blivit en del av vår vardag där vi med hjälp av röststyrning ber dem svara på frågor eller utföra olika uppgifter i hemmet, så som att starta kaffekokaren. Kommunikationen mellan dessa program och individen är allt mellan direkta order och mer som att prata med en vän eller familjemedlem.

Virtuella assistenter förekommer som vanligast i formen så som Alexa eller Siri, som assistenter för den vardagliga människan, men de kan också förekommit i lärande syfte där dem kan användas som handledare för skoluppgifter eller liknande sammanhang. I en studie av Winkler et al (2019) utförde man ett flertal tester mellan användningen av en mänsklig handledare och en “Smart Personal Assistants” (SPA) som handledare under en problemlösningsuppgift som tilldelades till flera tremannagrupper där deltagarna, vilket

(8)

4

var studenter från ett universitet, valdes slumpmässigt. Problemlösningsuppgiften som tilldelades till alla grupper handlade om en ökad trafik i Zurich som medföljer att det sker olyckor oftare, där undersökningsgruppen(erna) ska komma på en lösning till problemet (Ibid). Det dem ville undersöka var om användningen av en Smart Personal Assistant förbättrar samarbetet i grupparbeten och om svaren blir mer utförliga i jämförelse vid användningen av en mänsklig handledare (Ibid). Handledarens roll i denna studies uppgift är se till att arbete kommer framåt mot en lösning, hjälpa dem tänka rätt och svara på frågor som studenterna ställer (Ibid). Det Winklers studie kommer fram till är att användningen av en Smart Personal Assistant visades ge bättre resultat, förbättrade samarbetet mellan medlemmarna och gjorde så att konversationen mellan deltagarna blev smidigare (Ibid).

Det som gjorde att konversationen blev bättre i grupparbetet vid användningen av en Smart Personal Assistant var att man turades om att tala med varandra och tala till Smart Personal Assistants, vilket fungerade inte lika bra när det var en mänsklig handledare i rummet (Ibid). Detta ledde till att det blev färre avbrytningar vilket effektiviserade diskussionen och hela arbetet i sig (Ibid). Någon eller några av deltagarna kommenterade efteråt att de föredrog en Smart Personal Assistant över en mänsklig handledare, där man kan argumentera till sig att en Smart Personal Assistants aldrig kommer döma en, ger omedvetet inte ifrån sig press som en mänsklig handledare omedvetet gör med att helt enkelt vara i rummet, man behöver inte känna sig dum över att fråga en enkel från, bara av att nämna vissa fördelar med Smart Personal Assistants. Det denna studie visar är att AI:s eller virtuella assistenter om korrekt kalibrerade har möjligheter att fungera i lärande situationer utöver som en assistent i vardagen. Men inte bara det, själv verket att det kommenterades efteråt att vissa studenter föredrog AI:n över en mänsklig handledare skulle kunna visa att AI:s kan personifieras som “människa” eller i alla fall mer än en AI.

Vi kommer gå mer djupgående om detta i nästa sektion.

2.2 Personifiering, attitydförändring och känslor i relation till virtuella assistenter

Personifieringen av en virtuell assistent, eller känslan av en mänsklighet hos någonting som inte är en människa där vi kan kalla den han eller hon, kanske känns dumt, det är ju

“bara en robot” skulle vissa säga, men i själva verket visar en studie av Purington (2017) att det inte riktigt fullt är så. Purington analyserade hundratals recensioner (både i antal stjärnor och kommentaren i sig) hur folks upplevelser och tankar är mot Amazons Echo produkt där tillgången till Alexa finns (Ibid). Som man kan tänka sig så lutade inte alla recensioner åt ett håll, utan åt många olika av varierande anledningar. Studien riktade in sig på om och hur olika användare personifierar eller inte personifierar Alexa (Ibid). Av alla recensioner Purington analyserade så blev ställningen väldigt jämnt fördelat mellan antalet personer som personifierade Alexa och dem som inte gjorde det (Ibid). Det finns en del faktorer som de kommer fram till varför man personifierar Alexa som en “människa” över en robot. Den första, och kanske största uppenbara faktorn, är att Alexa använder sig av en mänsklig kvinnoröst och tal för att kunna kommunicera med användaren (Ibid). En annan faktor är att Alexa har ett namn, Alexa, som gör att hon är lättare att personifieras hos den som använder henne. Det visade sig att de personer som tilltalade Alexa vid namn personifierade henne och de personer som inte gjorde det, som använde produktens namn Echo, personifierade henne inte (Ibid). Studien visade också att då Alexa användes av en

(9)

5

familj med flera medlemmar tenderar dem att personifiera dem mer/oftare än av personer som bor ensamma (Ibid). En anledning kan vara att man inte vill känna sig olika från de andra och väljer att tilltala Alexa på samma sätt som alla andra oavsett om man tycker att Alexa bör personifieras eller inte. Studien går inte in på om de användare som personifierade Alexa med att använda hennes tilldelade namn gjorde detta medvetet eller omedvetet, om personifieringen gjorde att upplevelsen blev bättre, eller om användaren tycker att det finns en uppfattad intelligens bakom systemet bland annat (Ibid).

I en annan studie av Burton (2019) undersöktes om ett mindre artigt uppförande, verbalt, mot virtuella assistenter hade en effekt på konversationer mot riktiga människor.

De kommer delvis fram till att vi, likt Purington (2017), personifierar vår digitala assistent men dock kanske inte fullt som en människa, utan mer som ett husdjur eller annat liknande. De kommer också fram till att vi reagerar emotionellt mot de virtuella assistenterna, att när assistenten pratar tillbaka antingen med ett svar eller en kommentar så reagerar vi emotionellt på det, att det assistenten sa var av meningsfull betydelse för oss istället för tomma ord (Ibid). Det Burtons undersökning kommer fram till i slutändan, efter att ha undersökt 274 användare och deras attityd före och efter de använt en virtuell assistent, är att det inte sker någon attitydförändring efter användningen av en virtuell assistent (Ibid). Detta på grund av att de inte anses vara nog mänskliga av sig, vi ser dem bara som husdjur oavsett om man personifierar dem eller inte, med att man kallar assistenten han, hon eller det (Ibid). Däremot så finner de att användningen av en virtuell assistent, med hur man beter sig mot den, kan reflektera hur man är som personer mot andra. Om man beter sig otrevligt mot sin virtuella assistent respektive trevligt så är det samma beteende som man har mer eller mindre mot andra människor (Burton, 2019).

När det kommer till personifiering, eller antropomorfism, att se eller känna mänskligt beteende hos ickemänskliga ting så har det gjorts väldigt mycket forskning om detta område och om varför vi ser eller känner det. I en artikel av Delbaere (2011) så undersöker de en reklam som visades på Super Bowl 2007 och hur folk reagerade på den. Reklamens historia är att det är en monteringsrobot på sidan av att ett rullband i en bilmonteringsfabrik bland många andra liknande robotar (det är en sådan där orange, eller gul i detta fall, robotarm som utför sitt arbete med hög precision) (Ibid). En av dessa robotar tappar en skruv som den höll i, ett alarm utlöses och roboten blir tvungen att sluta.

Efter detta försöker denna hitta något annat passande jobb som den kan utföra utan problem men den finner ingenting som den gillar eller blir uppskattad av (en medföljd av att den inte uppskattas är att den ger ifrån sig ett maskinaktigt suckande i följd av att den böjer ner “huvudet”, toppen av armen) (Ibid). Efter en viss tid av försökande så befinner den sig på en bro och hoppar av den, tar livet av sig, men detta var tydligen bara en mardröm och den är tillbaka i monteringsfabriken (Ibid). Utöver dess gula färg så har den två skruvar längst fram på “huvudet”, vilket ska symbolisera ögon, och en trefingrad hand framför det, vilket symboliserar en hand eller en mun. Många personer blev upprörda av denna reklam och bad skaparen att ta ner den på grund av att den innehöll ett beteende som ansågs vara allvarligt känslomässigt, ett agerande som kan relateras till människan (Ibid). Trots att det var en maskin som tog livet av sig, vilket inte är en människa, så ansågs den ha mänskligt agerande (Ibid).

(10)

6

Ändrar man synen på detta från fabriksmaskiner till virtuella assistenter som faktiskt har ett mänskligt prat och responsivitet när man frågar den någonting så är det inte mer än uppenbart att folk personifierar den som eller nästan som en människa.

2.3 Kommunikationssvårigheter mellan användare och sin virtuella assistent

Användningen av virtuella assistenter börjar numera bli allt mer och mer vanligt i hemmen, man tänker sig att vid år 2022 så kommer 55% av alla hem i Amerika ha en digital assistent som Alexa eller Google assistant i sig (Beneteau, 2019). Oavsett om du är ny med att använda en virtuell assistent eller om du har lång tids användande så kommer det förekomma stunder då den virtuella assistenten inte förstod vad man sa eller hörde fel (Ibid). I en studie av Beneteau et al (2019) så går de in på kommunikationssvårigheter som förekommer mellan den virtuella assistenten och människa samt förstå olika former av

“reparationer” (sätt att förtydliga det man säger till den virtuella assistenten) som användarna gör och framtida lösningar. De studerade ljudinspelningar från tio olika familjer där alla har antingen unga eller lite äldre barn i familjen (Ibid). Under hela studiens tid så förekom 59 situationer där en kommunikationsstörning med, i denna studie, Alexa förekom. Det förekom både då en vuxen frågade Alexa och då det var ett barn (Ibid). Dessa kommunikationssvårigheter sitter delvis i den virtuella assistenten men en hel del hos användaren som pratar med den, där den vanligaste svårigheten är att man inte kan prata normalt med assistenten (att man får prata statiskt) till skillnad från då man pratar med en annan människa (Ibid). Förstod den virtuella assistenten inte det man sa första gången så provar man igen med en ännu mer statisk mening, möjligen tillsammans med en höjd röst (Ibid). Det Beneteau kom fram vid slutet av sin undersökning var att virtuella assistenter gör på samma sätt som användarna när det kommer till att förstå meningen med vad man försöker säga (Ibid). Under en av dessa kommunikationsavbrott som förekom i en av familjerna när ett barn frågade Alexa vad “popsicles” (isglass) är gjort av så hände följande: På grund av att den inte förstod vad barnet ville ha för svar (att det är gjort av vatten som har smaksatts och fryst till is) så börjar Alexa förklara hur man gör en viss typ av isglass (Ibid). Mamman kommer in i konversationen och förklarar att man måste vara mer noggrann med hur man ställer sin fråga, så hon gör ett försök men ett liknande resultat förekommer. Irriterad av detta ber mamman Alexa att sluta prata och förklarar med egna ord hur man gör isglass (Ibid). Både mamman och Alexa vet vad barnet är ute efter, att få veta vad isglass är gjort på, men på grund av hur Alexa och andra liknande program är programmerade så förklarar den hela processen av isglass skapande istället för att bara säga “vatten” eller “vatten som har fryst” (Ibid). Detta visar att Alexa och mest troligt alla andra liknande program är programmerade för att efterlikna ett så mänskligt svarande som möjligt, dock är den inte lika avancerad som den naturliga processen i människor.

Då det kommer till lösningar för att minska mängden kommunikationssvårigheter som förekommer vid användandet av en virtuell assistent, så är en lösning att den säger “kan du säga det där igen” istället för att säga “jag förstår inte”, där den temporärt har kvar det den tror man sa först och sedan bekräftar eller rättar till meningen efter att man har sagt det en andra gång (detta skulle vara användbart för barnfamiljer där barnet upprepar det hen till

(11)

7

assistenten) (Ibid). En annan lösning är att virtuella assistenter har en inställning som gör att hon bara svarar med enkla svar istället för att svara utförligt (Ibid).

När det kommer till att skapa virtuella assistenter som är lika eller påminnande om människans sätt att besvara frågor så behöver man lösa de vanligaste problemen som förekommer vid användandet av dagens virtuella assistenter. En av denna studies frågeställningar handlade om till hur stor “utsträckning man tillskriver dem egenskaper som är mänskliga?”, och om man kan förbättra assistentens svarsförmåga så att den liknar den hos människan så kommer man lättare kunna personifiera den.

2.4 Robotens rättigheter

Robotens rättigheter, eller den artificiella intelligensens rättigheter, är ett väldigt känsligt ämne som under vissa situationer låter lättare än vad det faktiskt är. I en artikel av Coeckelbergh (2010) går han igenom sina åsikter och andras åsikter från tidigare artikel om hur man på bästa möjliga sätt bör utforma robotens rättigheter. Går man tillbaka i tiden så behandlade vi bland annat slavar och djur som saker men med tiden så lärde vi oss att slavar och djur har känslor och kan tänka på egen vilja (slavarna som då var människor har såklart ett mer komplext tänkande än vad ett djur har) (Ibid). Följer man det tankesättet till nutiden där vi anser att artificiella intelligenser eller någonting liknande inte kan klassas som människor, utan som saker, så är det inte omöjligt att vi kommer ändra oss till framtiden (Ibid). När det kommer till frågan om när man bör utforma deras egna rättigheter så kan det ha sin början när de har fått nog mycket intelligens så att de är lika smart som vilket djur som helst där den infaller på djurs rättigheter (Ibid). Där handlar det mer om hur vi ska bete oss rättvist mot dem. Djur kan känna smärta, sorg, glädje, ilska och göra egna val även om de kanske inte är fullt om ens alls medvetna om deras egen existens så har vi som ägare utformat rättigheter åt dem (Ibid). Det Coeckelbergh föreslår är att vi bör fokusera mer på det relationella, socialt relationella, istället för det moraliska när det kommer till att utforma robotens rättigheter (Ibid). Vid användningen av sociala relationer så uppkommer det moraliska vid ett fortsatt användande och interagerande med roboten, vilket bör med tiden utformas mer naturligt och accepterande för båda sidorna, människa och robot (Ibid).

I en annan artikel av Leenes (2014) så går han in på hur man bör utforma vad en robot får göra och vad den inte får göra, och vad för problem som kan uppstå. De börjar med att nämna Isaac Asimovs tre lagar för robotik, (1) roboten måste alltid skydda människan, (2) roboten måste lyda alla order från människan så länge det inte strider mot den första lagen och (3) roboten måste skydda sin egen existens så länge det inte strider mot and första eller andra lagen (Ibid). Den berättar väldigt tydligt att det är människan som står över roboten och att det är dem den bör lyda. De nämner att det finns två olika typer av robotar,

“maskinerirobotar” och “tjänsterobotar” (tänk dig robotdammsugare, äldreomsorgsrobotar, “kompanjonsrobotar” och liknande som tjänsterobotar), där den mer industriella roboten är lättare att hantera och göra säker i jämförelse till tjänsteroboten (Ibid). Den industriella roboten ska hållas på avstånd från människan så att ingen skadas medan tjänsteroboten har som uppgift att hålla sig nära människan. Tar man detta vidare till, hypotetiskt, till mer sofistikerade robotar (framtidens robotar som fortfarande följer människors order men som har möjligheten att utföra mer specifika uppgifter) som följer med en då man är ute och går eller befinner sig i samma hus, samma rum, så uppstår viss

(12)

8

problematik. I utgångspunkt att roboten fortfarande är programmerade att följa robotikens tre lagar, skulle den få uppgiften att hålla koll på ett litet barn så ska den till sin yttersta förmåga se till att barnet inte kommer till skada. Om vi tänker oss en krissituation där barnet håller på att faller ner från en viss höjd och roboten är nog nära för att hinna springa fram till det fallande barnet och fånga den men måste springa igenom ett dukat bord (rättare sagt, mest troligt kommer ha sönder saker) för att fånga barnet, vem är det som blir ansvarig för skadorna, roboten eller tillverkarna? (Ibid). Roboten måste vara den som gjorde valet att springa igenom bordet, men det var tillverkarna som programmera roboten att ha den möjligheten under situationer där mänskligt liv är i fara, alltså blir det tillverkarna som betalar för skadorna (Ibid). Roboten bör inte ha någon form av skuldkänslor över att ha vält omkull ett dukat bord (även om den får skäll från ägarna), men i en mer fjärran framtid där robotar har möjligheten att känna skuld, vem blir det då som står till svars för skadorna, roboten eller skaparna? Det är dessvärre ingenting vi kan eller kommer besvara i denna studie. Men i ett mer allmänt tänk så bör robotar vara programmerade inte bara att följa de tre lagarna för robotik utan även vara programmerade med lagar och normer som vi människor följer, likt att inte stjäla, gå inte över gatan om det är rött, avbryt inte personer som pratar med varandra (om den inte absolut måste) och allmänt rätt och fel (Ibid). Men det hänger inte bara på roboten och dess programmerare utan även på den eller de människor som ska använda eller tala med den. Roboten ska se till att människor inte kommer till skada men det betyder inte att människor får trakassera, knuffa, skada eller göra någonting annat oetiskt mot roboten, på grund av att den följer alla mänskliga lagar och bör bli behandlad ”likvärdigt” (utöver att man kan säga åt den vad den ska göra).

I en ytterligare artikel av Gunkel (2018) så diskuterar de likt Coeckelbergh och Leenes om robotens rättigheter och hur man bör utforma dem, det som däremot skiljer Gunkel från de andra är att han går in på om robotar “borde” eller “kan” ha rättigheter. Han kommer in och frågar om robotar är kapabla att vara morala subjekt eller om de bör anses vara morala subjekt, vilket visade sig vara svårt att besvara i nuläget (Ibid). Det Gunkel menar med “morala subjekt” är personer/djur/objekt som har rätten att bli behandlade på ett icke nedsättande sätt och har möjligheten att få sina egna rättigheter (även om det blir som för djur att människan ger dem rättigheter). Det han föreslår är att man istället för att utforma rättigheter till roboten som har eller kommer bli skapade ska få sin plats, roll eller rättigheter från interaktionen med människan där användaren bestämmer om roboten bör klassas som “någon eller djur” (Ibid). Utöver detta uttalande av robotens rättigheter så förklarar han också att detta är ett område som fortfarande behöver mer diskussioner bakom sig före det kan tillämpas i verkligheten (Ibid).

Som sagt finns det en hel del olika tankesätt att välja mellan när det kommer till att utforma rättigheter för virtuella assistenter. Från detta kommer vi avgöra med hjälp av egna undersökningar om och eller hur robotens rättigheter bör utformas.

(13)

9

3. Metod

3.1 Kvalitativ med och innehållsanalys

Syftet med vår studie är att undersöka hur människor kommunicerar med virtuella assistenter, vilka relationer de har till assistenterna samt huruvida det anses om dessa är i behov av rättigheter. För att kunna besvara dessa frågor var vårt bästa alternativ att prata med användare av just dessa. Vi valde därför att utföra tre stycken fokusgrupper där användare av virtuella assistenter fick svara på frågor och diskutera om sin användning och syn på dessa. Utöver fokusgrupperna så användes även relaterade studier av den anledning att jämföra med de resultat som fokusgrupperna gav för att undersöka om de resultat vi kom fram till instämde med tidigare forskning eller om det skiljde sig mellan dessa.

Vi använde oss alltså av en kvalitativ metod då denna behandlar sådant som mänskligt beteende och personliga åsikter gentemot den kvantitativa metodiken som fokuserar på statistik och kvantifierbara data (Yin, 2011). Den kvalitativa metoden använder sig av tolkningar för att ta fram slutsatser (Ibid), något även vår studie gjort, tolkning av respondenternas konversationer.

För att analysera datan från fokusgrupperna så användes en kvalitativ innehållsanalys (Mayring, 2000). Att använda sig av en kvalitativ innehållsanalys innebär att man läser texter tills man bildat en förståelse av dem för att sedan plocka ut de delar som är relevanta till sin studie (Ibid). I detta fall så lästes de transkriberade intervjuerna och de relevanta delarna till vårt syfte plockades ut och strukturerades för att besvara de olika frågeställningarna. Därefter jämfördes de relevanta delarna från fokusgrupperna med de relaterade forskningsartiklarna för att undersöka om de resultat våra respondenter gav oss stämde in på tidigare forskning. Detta för att bekräfta om resultatet vi kommit fram till verkar rimligt (Ibid). Om inte, för att spekulera om de avvikelserna i resultatet är värda att undersöka vidare (Ibid).

3.2 Fokusgrupp

Kvalitativa intervjuer passar väl in här för att respondenter får här efter frågeteman fritt prata om sina upplevelser och syner på de virtuella assistenterna. För att effektivisera intervjuerna samt få ut mer djupgående data så valde vi att använda oss av fokusgrupper.

Anledningen varför just fokusgrupper passar så bra till just vår studie är att, till skillnad från en kvalitativ intervju där var enskild respondent står ensam i fokus med press att prestera, så utförs fokusgrupper just i grupp. Detta lättar på pressen av att ensam prestera med svar som känns korrekta för intervjufrågorna. I stället blir stämningen mer lättsam och när en diskussion kan hållas på varje fråga så kommer svar naturligt i konversationen och var respondent kan tillägga eller komma på nya vinklar allt eftersom konversationen pågår (Yin, 2011). Däremot så var det inte av dessa skäl vi specifikt valde fokusgrupp som metod utan snarare var det ämnet som gjorde fokusgrupp som den optimala metoden. Att försöka svara på frågor kring något man i vanliga fall gör per automatik är relativt svårt då man inte lägger någon tanke på själva utförandet. Detta gör att svaren på intervjufrågorna kan låta tvingade och relativt grunda. Får respondenterna istället prata med varandra om sitt användande så kommer de naturlig att bygga på varandras svar med sina egna erfarenheter vilket leder till mer data.

(14)

10

Något som tål att lägga märke till är att dessa fokusgrupper skedde digitalt via kommunikationsplattformen Discord, detta med enbart röstchatt. Dessa kan jämföras med telefonintervjuer då de genomförs på samma sätt, den enda skillnaden att de oftast använder dator istället för telefon som medium för konversationen. Fördelen med denna sorts intervju är att sådant som ansiktsuttryck eller utseende, som kan ge en bias, nu inte existerar. Detta i sin tur kan leda till en mer bekväm i samtalet vilket i sin tur kan leda till öppnare samtal (Musselwhite et al. 2007). Det går dock att vända på argumentet då kroppsspråk kan vara viktigt i konversationer mellan flera respondenter. Kroppsspråk kan indikera sådant som att en fråga ställs till en viss respondent i gruppen, riktningen av frågan stärks med hjälp av kroppsspråk eller ögonkontakt. Att då köra fokusgrupper utan att se deltagarna skapade stopp i konversationerna ibland då det var svårare för respondenterna att avgöra när var och en talat klart eller när andra ville flika in. Dock gjordes det bästa utav situationen då fysiska träffar inte var tillåtna. De respondenter som var med i vår studie däremot uppskattade att fokusgrupperna genomfördes via Discord då de ansåg att det var både bekvämare och smidigare att slippa mötas upp för ett kortare samtal utan istället sitta i hemmet i lugn och ro.

3.3 Urval

När det kommer till kvalitativa metoder så är val av respondenter viktigt, detta då responsen man får på frågorna kommer skilja märkvärt beroende på vem respondenten är samt dess tidigare erfarenheter. Även frågorna man ställer är kritiska då sättet man formulerar dem på är svaren man kommer få. En dåligt formulerad fråga eller en respondent med fel kvalifikation kan ge ett stort inflytande på resultatet.

Vårt val av respondenter var till en början fokuserat på människor som använder sig av virtuella assistenter i vardagen i hemmet. Detta innebär ofta, men inte alltid, yngre personer som är tekniskt lagda. För att hitta våra respondenter tog vi först till Facebook där vi lade ut ett inlägg med information om vår undersökning, vilken sorts respondenter vi sökte efter, en fråga om någon var intresserad av att ställa upp samt om någon kände någon som stämde in på våra kriterier. Vi använde oss av en digital snöbollsmetod.

Snöbollsmetoden fungerar på ett sätt att man kan få höra från person x att person y kan vara av relevans som sedan tas i kontakt med. Detta kan fortsätta att rulla framåt, som en snöboll. Trots att det är ett smidigt sätt att nå respondenter så finns det även en risk att den används i ren bekvämlighet så planering kring vem som kan tänkas relevant krävs innan snöbollen sätts i rullning för att minska risken att använda vem som helst i respondentsyfte (Yin, 2011). Användning av denna metod gav oss nog med respondenter för en fokusgrupp.

Dock på grund av Covid-19 pandemin som inträffade så blev det svårt att nå ut till främlingar via enbart internet eftersom fysiska träffar kan ses mer seriösa än en chatt digitalt. Vi tog oss därefter till ett Reddit-forum dedikerat till virtuella assistenter i hemmet för att försöka hitta respondenter. Detta gav oss inga nya respondenter så vi valde att arbeta om de intervjufrågor vi hade för att passa nyare användare av virtuella assistenter. Efter att ha omarbetat dessa frågor så nådde vi ut till de respondenter som tog kontakt utan att ha de kvalifikationer vi letade tidigare. Detta gav oss tillräckligt med respondenter för två till fokusgrupper. Valet av just de nio respondenter vi valde i slutändan var på grund av att de alla är personer som dagligen använder nyare digital teknik dagligen och därmed även om

(15)

11

de inte har använt just virtuella assistenter så är de snabba på att plocka upp grunderna med ett kort enkelt test.

Vi delade in respondenterna i fokusgrupper baserat på hur länge de använt virtuella assistenter. Med detta fick vi ut en grupp med respondenter som dagligen använder virtuella assistenter i hemmet och två grupper med respondenter som sällan eller aldrig använder virtuella assistenter. Detta för att kunna jämföra hur kommunikationen och synen på den virtuella assistenten förändras med användning. Det var även användbart för att ta reda på om synen om rättigheter förändras alltefter respondenter blir mer personligt investerade i de virtuella assistenterna.

3.4 Forskningsetiska ställningstaganden

Under all form av forskning är det viktigt att de utomstående som deltar i forskningen gett sitt samtycke till att delta. När det kommer till kvalitativa studier så innebär detta att vi kommer nära människors åsikter, upplevelser och attityder. För att skydda deltagare från all form av skada har vi därmed följt de forskningsetiska principer som följer (Vetenskapsrådet, 2017). Inför fokusgrupperna blev deltagarna, enligt de forskningsetiska principerna informations och samtyckeskraven, upplysta om deras uppgift i projektet, vilka villkor som gäller för deras deltagande samt att medverkan är helt frivillig och kan avbrytas om eller när det önskas. I detta fall var deras uppgift att dela med sig om sin vardag och hur de använder sig av virtuella assistenter vilket kan vara personlig information. De blev även, enligt konfidentialitetskraven, informerade om att alla personliga uppgifter kommer behandlas på ett sätt så att deltagarna inte kommer att vara identifierbara på något sätt. De blev även, enligt nyttjandekravet, informerade om att inga insamlade uppgifter kommer att användas eller lånas ut till andra ändamål utan enbart till denna undersökning (Ibid). Detta utfördes först via text till vardera av respondenterna innan de accepterade att vara med i studien samt en gång muntligt i samband med att samtalet i fokusgruppen startades.

3.5 Metodkritik

Den kvalitativa metoden i helhet behandlar forskning och undersökningar som innefattar människors liv, åsikter eller beteende bland andra. Då forskningen eller undersökningen sker på platser som inte är forskningslabb så hindras den inte på grund av onaturliga miljöer i kontrast till tesen, vilket leder till ett verklighetstroget material att använda för resultatet. En annan styrka är mångfalden av källor som kan användas. Detta gör att undersökningen eller forskningen kan ta till sig stora mängder data för att göra fastställa ett generellt resultat som visas vara relevant för stora massor (Yin, 2011). Platserna där vår undersökning skedde var lite annorlunda än tänkt då fokusgrupperna skedde digitalt istället för på en gemensam plats. Dock visar detta på just styrkan i den kvalitativa metoden då den som sagt inte behöver bedrivas på en specifik plats för att kunna genomföras. Dock något vi kunde ha utnyttjat mer är de olika källor av datainsamling som kan användas.

Bland annat hade det varit optimalt att få in ett par observationer i studien men på grund av omständigheter fick vi stryka det från studien.

Som nämnt tidigare så ligger fokusgruppens styrka i att intervjuerna utförs under lättsammare förhållanden då det inte ligger lika stor press på att prestera vid varje fråga.

Detta då svaren kommer i konversationer snarare än som direkta svar till den ställda frågan. Dessa konversationer, utöver att de underlättar för respondenterna

(16)

12

prestationsmässigt, öppnar även upp för att respondenter kommer på utökade svar allteftersom de hör andra i gruppen diskutera frågan (Ibid). Då vårt ämne behandlar digital teknik så var fokusgrupper ett bra val att använda oss av då användning av sådan teknik ofta utförs per automatik. Detta gör det svårt för respondenter att kunna svara på frågor om användning djupgående. Att därmed göra dessa intervjuer i grupp hjälper respondenterna att komma ihåg hur de ter sig med tekniken allteftersom de diskuterar med varandra.

Kvalitativa metoder, trots att de är bra för att samla data på sätt som innefattar mänskligt beteende, kommunikation och dylikt, är inte helt felfria. Bryman (2018) tar upp fyra punkter där kvalitativ forskning kan vara ett problem.

Den första punkten är subjektivitet då den kvalitativa forskningen bygger på uppfattningar hos forskaren av vad som är viktigt att plocka ut. Samt att det kan ske att närmare personliga förhållanden skapas mellan forskaren undersökningspersonerna då de interagerar på en personligare nivå (Ibid). Subjektivitet är något som finns med undermedvetet vilket gör det det svårt att få en objektiv slutsats hur man än gör. Detta betyder att även denna studie är till viss del subjektiv då det inte går att komma undan subjektivitet till fullo då det inte finns några definitiva svar som i kvantitativa studier.

Den andra punkten nämner svårigheten att replikera undersökningarna. Detta då de kvalitativa metoderna innefattar sådant som observationer och intervjuer av individer vilket gör det svårt att replikera undersökningen då människors beteende inte kan kopieras från den ena till den andra (Ibid). I vårt fall så är det till viss del svårt att återupprepa undersökningen till punkt då fokusgrupperna var semistrukturerade så användes planerade frågor men under intervjuerna så förekom det att följdfrågor skapades mitt under intervjun. Detta visar på att undersökningen går att återskapa till viss del men avvikningar kan ske beroende på respondenter samt opponenter. Detta var något som skedde då vi intervjuade fokusgrupperna.

Den tredje punkten handlar om generalisering. Med det menas, det är svårt att generalisera forskningsresultaten då liknande undersökningar kan vara helt olika om de görs på olika platser vilket gör det svårt att komma till en klar slutsats av vad som är rätt.

“De personer som intervjuas i en kvalitativ undersökning kan inte vara representativa för en population; ibland är det till och med mer eller mindre omöjligt att beskriva eller räkna populationen på något exakt sätt...”(Ibid). Detta betyder att även om vårt resultat skiljer sig från de redan existerande studiernas resultat så betyder det inte att våra resultat är en ny sanning. Respondenterna är en anledning till varför resultaten kan differentiera. De kunskaper och åsikter respondenterna har styr till stor del vilket håll resultatet dras. Detta innebär att i den bästa av världar så intervjuas ett stort antal respondenter med olika bakgrund för att få en bredare bild och en mer generellt representativ slutsats.

Den sista punkten tar upp bristande transparens. Ibland, men inte alltid, är kvalitativa forskningsrapporter oklara när det till exempel kommer till hur intervju eller obervationspersoner väljs ut. Det är även så att det sällan berättas hur analysen av datan faktiskt genomförts samt hur slutsatser nåtts (Ibid). Detta är något som gör det svårt att återskapa de studier som existerar. Även vi, trots att vi försökt, har varit dåliga på att vara transparenta i allt som gjorts under studien och är definitivt en punkt som kan förbättras.

Trots att fokusgrupper gav oss relativt bra data för vår undersökning så är denna metod inte felfri (Yin, 2011). Visst, fokusgrupper hjälper att frambringa diskussion men det är ofta

(17)

13

med priset av djup. När flera personer talar så svarar de mindre på varje fråga (Ibid).

Risken finns även att konversationer tappar den röda tråden och bana ifrån den frågan som ställdes, detta leder till att vi som intervjuar måste avgöra om vi ska inflika och försöka ändra tillbaka riktningen på konversationen, med risk för att bryta det flyt som pågår, eller om det kan finnas något av värde i det som sägs ändå (Ibid).

En annan sak värd att nämna är att vi enbart gjorde fokusgrupper för datainsamling vilket lett till att vi inte fått in lika mycket data som vi skulle fått om vi kombinerat dessa med till exempel observationer. Observationer hade gett oss data över exakt hur användare går till väga och beter sig när de använder virtuella assistenter (Ibid). Däremot kan dessa observationer vara svåra att genomföra på ett naturligt sätt då användaren kommer att ha i åtanke att denne blir observerad vilket kan leda till en mer mekanisk användning. Detta då användaren kommer att ha i baktanke att denne måste på något vis prestera eller “bete sig normalt”. Dock så spelade detta aldrig någon roll då det oturligt nog inträffade en pandemi och världen försattes i karantän. Detta ledde till att all form av fysiska träffar stoppades.

Det vi kunde ha gjort annorlunda i utförandet av undersökningen är för det första att vi kunde ha använt oss av mer än enbart fokusgrupper som grund. Utöver dessa så skulle det varit bra att göra observationer för att undersöka hur användare använder sig av sina virtuella assistenter, dock så var det utom vår kontroll att dessa inte skedde. Däremot kunde vi ha kompletterat fokusgruppsintervjuerna med en mot en intervjuer för att få data med mer djup än de tidigare nämnda. Utöver det så hade det varit bra att göra fler fokusgrupper än tre då det med ett sådant litet urval är svårt att säga att resultatet är väl trovärdigt.

(18)

14

4. Resultat och analys 4.1 Inledning

I detta kapitel kommer vi presentera det resultat vi fått fram från våra fokusgrupper samt ställa det mot den relaterade forskning få tagit fram för denna studie. I slutet av varje tales område kommer vi presentera en sammanfattning av vad som sas.

De respondenter som tog del av undersökningen kommer att namnges A-I där A-C är fokusgrupp 1, D-F är fokusgrupp 2 och G-I är fokusgrupp 3. Detta för att respondenterna skall vara så anonyma som möjligt men ändå att det ska vara logiskt nog att veta vilken av dem som var med i vilken fokusgrupp då fokusgrupperna hade olika upplägg beroende på kunskapsnivåer. Fokusgrupp 2 och 3 fick göra ett test där de interagerade med den virtuella assistent som finns förinstallerad i deras smarta telefoner.

4.2 Enklare vardag, latare människor

Det vi fokuserat på när det kommer till användarnas kommunikation är hur användarna kommunicerar med sin virtuella assistent, om de pratar naturligt med dem eller om det känns som om de pratar med en robot. När det kommer till användarnas användarbeteenden så har vi fokuserat på om deras användningen har gjort så att de är medvetna om sitt ändrade beteende i jämförelse när de inte använde virtuella assistenter, exakt hur de använder sina assistenter och till vad.

En gemensam nämnare i alla tre fokusgrupper som togs upp väldigt tidigt var hur de använde sina virtuella assistenter till väldigt simpla vardagliga saker så som att fråga assistenten vad klockan är, be den ställa en timer eller kolla vädret. Det som däremot skilde grupperna åt var att Grupp 1, som är vana med virtuella assistenter, använde assistenten till att kolla väder eller klocka trots att de hade en fysisk klocka i närheten eller helt enkelt var vid ett fönster och skulle kunna kolla vädret men föredrog ändå att fråga assistenten istället. Grupp 2 och 3 däremot, som inte använt virtuella assistenter, eller inte använt så ofta, före denna studie, hade åsikterna att det kändes stökigt eller onödigt att använda assistentens funktioner då de tyckte dessa var dåligt optimerade och ansåg att det var vettigare att bara kolla på en fysisk klocka eller titta ut istället.

Kopplar vi till frågan i början av stycket som handlade om användarna var medvetna om deras ändrade beteende efter användningen av virtuella assistenter, specifikt grupp 1, så ser vi att det var de. Det som dock var oväntat var till vilken stor utsträckning de använde sina virtuella assistenter för att ta reda på enkel information, så som klockan och vädret, vilket visade sig komma i större andel från den virtuella assistenten än användningen av deras egna sinnen.

“Jag vet inte hur många gånger jag frågar om vädret varje dag trots att jag kan titta ut genom fönstret och se vad det är för väder liksom.” - C

“Men sen när jag faktiskt använde den, visst det känns som om den kan ha sina användningsområden. Men det känns också som om det kan gå lika snabbt att kolla upp det själv än att använda.” - H

Grupp 1 fortsatte sin diskussion över vad de använde sina assistenter till i vardagen.

Utöver de tidigare nämnda exemplen så använder de sina virtuella assistenter till att förenkla vardagen ytterligare. Detta genom assistenterna med att styra ljus och ljud i hemmet eller starta kaffekokaren via röststyrning. De använde även assistenten som

(19)

15

underhållning vid vissa tillfällen då man kan be den spela spel tillsammans i grupp med assistenten som spelledare.

Det vi märker från andra studier är att de tar upp den vanligaste användningen av virtuella assistenter, att ställa frågor till den, däremot inte de mer avancerade användandet av assistenterna likt användandet av kommandon för att styra lampor, sätta på andra smarta maskiner i lägenheten eller huset, eller använda sig av sensorer för att automatisera vissa processer. Detta är någonting vi inte förväntade oss att se, att det finns så få undersökningar om de mer avancerade funktionerna i en virtuell assistent. Från detta hoppas vi att denna studie kan vara ett hjälpmedel för framtida studier vid undersökandet av virtuella assistenter.

“Men jag har den ju inställd så att jag har ett kommando så att varje gång jag går och lägger mig så säger jag “Godnatt” och då stänger den ju ner alla lampor i hela lägenheten vilket gör att jag inte till exempel behöver springa till köket när jag vill gå och lägga mig i sängen utan då ligger jag bara där och säger “Godnatt”.” - A

Under tiden grupp 1 diskuterade vardaglig användning av virtuella assistenter, togs det upp att de såg ett ändrat beteende, om än väldigt liten, i vardagen i att de blivit latare i hur de utför saker i hemmet. Som nämnt tidigare så ber de assistenten göra saker så som att stänga av lampor istället för att fysiskt göra det. Det intressanta här var att en av respondenterna nämnde att detta sker via automatik och är inget de gör medvetet för att göra det lättare för sig. De andra grupperna, trots att de har liten till ingen erfarenhet av virtuella assistenter kom in på samma spår med att de kunde tänka sig att daglig användning av virtuella assistenter skulle göra dem latare.

Kollar man på studier som har undersökt användandet av virtuella assistenter så förekommer det väldigt ofta att de förklarar hur personer använder sina virtuella assistenter, däremot så tar de sällan upp om användningen av virtuella assistenter gjorde vardagen bättre eller hade ingen påverkan alls. Men, om vi tänker på det mest troliga, så tror vi att de familjer som använde sig av virtuella assistenter bör tycka att vardagen blivit lättare, även om det bara blivit lite lättare. Det denna information visar oss är att både personer som har använt virtuella assistenter under en lång tid och personer är nya med virtuella assistenter anser att dem själva har eller kommer bli latare vid användningen av virtuella assistenter.

“Asså det är väl typ mer det att man blir typ, man har ju blivit lite latare för att man säger typ “Alexa kan du släcka lampan” typ, i badrummet. Sånt, att man inte går upp och tänder själv, eller släcker lampan själv. Och sen mycket bara att det sker, jag vet inte. Det sker ju mycket bara per automatik liksom bara att fråga henne saker utan att tänka riktigt kring, ja, jag vet inte.” -B

“Ja men eller hur, jag sitter här med, jag sitter här vid datorn och har en klocka nere i högra hörnet och jag skulle ändå bara kunna fråga Google rakt ut istället för att flytta, titta ner liksom. Vrida huvudet lite grann eller inte ens det. Bara titta ner med ögonen.” - C

En respondent i Grupp 1 tog upp att denne var orolig över sitt privatliv då assistenten alltid står på och tar upp allt som sägs, möjligtvis allt som ses om någon av hårdvarorna innehåller en kamera på något sätt. En annan respondent har bekanta som äger virtuella assistenter med hårdvara som innehåller kamera, de har riktat hårdvaran så att kameran pekar mot en vägg för att undvika att bli inspelade.

(20)

16

På tal om just privatliv så hade C en sak att tillägga om det senare under samtalet där C sade att det är onödigt att vara orolig över att ens privatliv blir inkräktat då vare sig vi vill det eller inte då det finns så många intressen från företag och regeringar att det är omöjligt att vi inte kommer bli inkräktade vare sig det är via virtuella assistenter eller andra medel. Detta kan ses som en negativ beteendeförändring i att hela tiden vara orolig över att någon ser ens privatliv men detta är inte exklusivt till enbart virtuella assistenter.

Faktum är att, via egna erfarenheter, så är folk oroliga över enheter med kameror i allmänhet. Inte på grund av assistenten utan på grund av kameran i sig. Detta leder till att många tejpar för kamerorna på de enheter de äger som innehåller dessa.

Det här är någonting som är väldigt mycket pratat och skrivit om runt om på internet. I en studie av Chung och Lee (2018) så försöker de ta reda på om ens virtuella assistent sparar någon form av data om användaren som andra kan komma åt på olika sätt och vis.

I det stora hela så kommer de fram till att enheten sparar ner relevant information om ens rutiner och vart man har varit, bland annat, och från detta får man en bild på användarens användarmönster (Ibid). Den sparar inte någon känslig information om användaren, i form av mailadresser och kortnummer, eller annat, men dock information om användaren.

När det kommer till säkerheten för virtuella assistenter och oron över att den kommer tjuvlyssna eller spionera på en är någonting som vi kan relatera till. För denna studie är det viktigt att vi tangerar på alla områden för virtuella assistenter, för att få en så bra analys i slutändan som möjligt.

“Jo eh, mina bekanta har ju faktiskt en sån där, vad heter det, Google Home med kamera. Jag har glömt vad de heter. Den har en liten skärm och så finns det en kamera i den. Och eh, den ena av dem, vill ju inte ha den där inkopplad överhuvudtaget. Den är inkopplad men hen har vänt bort den liksom så att den står och tittar in i en vägg.” - C

Trots att alla respondenter tycker att det är eller kommer bli smidigt att använda assistenter i framtiden så tycker ingen av dem att det är en nödvändighet för dem att använda. De ser dessa virtuella assistenter som en leksak mer än ett måste för vardagen.

“De kan definitivt ha mer användning för det. Men för oss så är det mer en lyx än en nödvändighet.” - A

“En leksak.” - C

“Ja precis. En leksak mer än nödvändig.”- A

Det vi fått fram angående kommunikation och användning av virtuella assistenter är att dessa inte anses vara nödvändiga i vardagslivet. De ses mer som leksaker som gör dagen lite lättare genom att utföra saker som användaren egentligen kan göra själv utan större ansträngning. Detta leder till latare användare på grund av bekvämligheten den virtuella assistenten erbjuder. Däremot så finner vi förekomsten av mer avancerad användningen av virtuella assistenter hos personer som använt sig av assistenter under en längre tid. Det togs även upp en negativ aspekt med den virtuella assistenten i att dessa använder sig av mikrofoner och i vissa fall kameror för att styras. Orolighet angående att bli övervakad via dessa då man inte vet om det som spelas in när assistenterna är aktiva kan höras av någon annan. Det påpekades också att man inte vet om det även spelas in under tiden de är inaktiva vilket leder till att respondenterna kände sig obekväma i risken att deras privatliv kanske övervakas.

(21)

17

4.3 Relation byggs med tiden

Innan vi började studien hade vi en teori att nya användare av virtuella assistenter skulle behandla och prata med dem som om de vore en medmänniska, likt en vän, och att ju mer användare använder sig av assistenterna så skulle de successivt övergå till att se assistenterna som en mjukvara. Detta visade sig snabbt vara fel då de i Fokusgrupp 1, när de pratade om sina assistenter, enbart använde pronomen som hon och henne. De andra två fokusgrupperna gjord det klart väldig tidigt i båda sina intervjuer att de enbart ser assistenterna som robotar eller mjukvara utan någon form av personlighet.

Området angående personifiering, att människor ser ett mänskligt beteende i icke- mänskliga ting är någonting som har skrivits väldigt mycket om. Som vi nämnde tidigare så trodde vi nya användare skulle se virtuella assistenter som en ny vän i hemmet, vilket visade sig vara felaktigt. Däremot, det som skrivs i andra studier som studerar personifieringsområdet så kommer de fram till ett liknande resultat men även resultat som vi inte hade tänkt oss. I studien av Purington (2017) kommer de fram till att användare som lever ensamma och använder sig av virtuella assistenter är mindre troliga att personifiera sin assistent. Men för dem som personifierar sin assisten så har de kommit fram till olika anledningar varför man gör det. Anledningar likt att den virtuella assistenten har ett givet namn, pratar relativt mänskligt, och svarar eller kommenterar på det man säger till den, vilket är ett mänskligt beteende (Ibid). Däremot, trots att personer personifierar sina virtuella assistenter så är det väldigt vanligt att användare ser assistenterna mer som husdjur istället för människor (Burton, 2019). Det var någonting vi märkte bland våra fokusgrupper, att majoriteten av dem såg sin virtuella assistent som ett husdjur, eller en cool leksak, vilket då stämmer överens med det Burton skriver.

“Ja, jag kan väl säga att typ mestadels så är det för att när jag undrar vad det är för väder och hur mycket klockan är. Det är typ det jag frågar varje dag. Ehm och sen kan det typ vara om jag lagar mat och så kanske jag bara oj, hur länge ska man, jag vet inte, koka potatis, typ, då frågar jag henne det. Och så kan jag ju också ställa in timerar med henne.”- B (Detta var första gången i samtalet virtuella assistenter nämndes och efter att respondenten använt “henne” så etablerades det att alla i gruppen använde någon form av könspronomen till sina assistenter.)

“Jag skulle säga att Cortana är mer som en robot. Det kändes det som, verkligen.” - H Respondenterna fick frågan om vilken röst de använde på sina assistenter och om det i sig gör någon skillnad för hur de upplever assistenten. Vi fick här reda på att majoriteten använder den engelska kvinnliga rösten men ett par använde en manlig röst eller svensk röst.

Förutom ett par användare så använde majoriteten av respondenterna det engelska språket på sina virtuella assistenter. Det fanns ett par anledningar till just detta. Från gruppen med de mer vana användarna så var en av de stora anledningarna att den engelska versionen hade fler implementerade funktioner än de andra språken, något de andra grupperna inte vetat då de knappt använt sina virtuella assistenter. En annan stor anledning till varför den engelska rösten valdes var på grund av att rösten lät mindre artificiell än de svenska alternativen. De användare som använde de svenska alternativen tyckte de rösterna fungerade okej men ansåg att språket inte hade så stor betydelse för immersionen.

(22)

18

När det kom till vilket kön respondenterna hade på sin virtuella assistent så valde majoriteten av dem att använda den kvinnliga rösten. Det gavs flera åsikter till varför detta var deras val. En av de punkter som återkom var att den kvinnliga rösten kändes tryggare.

Det fanns dock ett par användare som tyckte annorlunda om detta och föredrog att lyssna på den manliga rösten. En annan anledning varför den kvinnliga rösten används av de flesta var att det var standardinställningen och efter att de börjat använda den kändes det fel att byta den till något annat. Några av respondenterna hade provat olika röster men de flesta återgick till den röst de nu skapat en relation till.

Utöver detta så fanns det ett par användare som inte såg någon betydelse i vilken röst eller kön som användes då de enbart såg dessa som robotar. Detta ledde till att de bara använde standardinställning eller valde det alternativ som lät mest mänskligt då de var av åsikten att det annars lät för stelt eller falskt.

Någonting Purington (2017) märkte i sin studie var att användandet av en mänsklig röst i de virtuella assistenterna medförde att användare lättare kunde personifiera assistenten.

Burton (2019) märkte i sin studie är att användare reagerar emotionellt på det den virtuella assistenter säger till en. Till exempel, om man ställer en fråga eller säger någonting till Alexa, då hon svarar eller kommenterar tillbaka, så känner vi en betydelsefullhet i det hon säger (Ibid). Detta kan dock variera från person till person. Bland annat så märkte vi i fokusgrupp 3 att en av respondenterna, som använde sig av Windows Cortana, tyckte att hennes röst kändes väldigt artificiell eller artificiell till skillnad från de resterande respondenterna. Som beskrivits i relaterade studier av Beneteau (2019) så har rösten hos virtuella assistenter betydelse för personifieringen. Vidare handlar det om vad för språk man tycker om bäst, och inte enbart om vad som låter mest trovärdigt, för att användaren ska få en bättre, eller lättare, personifiering av den virtuella assistenten; om hen personifierar assistenten.

Vi föreställde oss att de engelska rösten, förslagsvis den kvinnliga, skulle vara den dominerande alternativet hos våra respondenter, vilket visade sig vara fallet för denna studie. Kollar man på de relaterade studierna om de beskrev några åsikter om rösten för assistenten så finner vi att det inte är lika självklart, av de undersökningar vi har använt oss av i denna studie. Däremot, med tanken att alla det vanligaste virtuella assistenterna som finns nu, Siri, Cortana, Alexa och Google assistant, använder sig av kvinnoröster, så är det förståeligt att nya och erfarna användare föredrar att använda kvinnoröster; dock kan det förekomma avvikelser som att någon föredrar en mansröst istället. Det detta medför till vår studie är att, inom personifiering, så kommer användare personifiera sin virtuella assistent lättare om de använder en engelska röst, för att den uppfattades som mest trovärdig, och på grund av trenden att använda kvinnoröster så bör de personifiera assistenten som en “hon”.

“Ehm, jag säger hon också. Jag säger hon Google, det gör jag. Och det är ju på grund av rösten så klart. Jag försökte. Jag har faktiskt. Det finns ju en massa röster man kan välja mellan och jag bytte till en manlig röst ett tag för jag tänkte att jag skulle testa liksom och så där. Men det funkade inte. Det kändes inte alls som samma sak. Jag har ju byggt upp ett förhållande med min Google nu. Jag kan ju inte bara byta ut henne. Och samma sätt, jag kan inte ha den svenska rösten. Det är omöjligt. Jag blir tokig. Så jag har ju den amerikanska engelskan.” - C

(23)

19

För nya användare så har röst och kön ingen större betydelse i hur de ser på de virtuella assistenterna, de ses enbart som robotar. Ju mer användare använder sig utav sina virtuella assistenter, desto mer betyder dock dessa saker för användandet. Detta då de skapat en relation med den specifika rösten de använt under en längre period. Språkmässigt så är engelska det föredragna språket av ett par olika anledningar, den engelska versionen har fler fungerande kommandon än andra språk men viktigare än de är att den engelska rösten låter mer mänsklig än de andra. Och för de mer erfarna användarna så förekommer den kvinnliga engelska rösten som vanligast. Av anledningen att den låter bättre, de föredrar kvinnorösten över den manliga rösten, eller av andra anledningar.

4.4 Virtuella assistenter är ej i behov av rättigheter

Som ett avslutande ämne fick fokusgrupperna diskutera kring om dagens virtuella assistenter bör ha någon form av rättigheter, tänk i stil med mänskliga rättigheter fast skräddarsydda för virtuella assistenter. Detta var det enda ämnet som alla personer hade samma åsikt om. De enades om, nej, i dagens läge finns det ingen anledning för virtuella assistenter att ha någon form av rättigheter. De drivs fortfarande på ettor och nollor och har inget som skulle kunna ses som någon form av självständigt tänkande eller reflektion över sin egen existens.

Detta var dock åsikter om nuet. Det kom på tal att om dessa virtuella assistenter någon gång kommer utvecklas till den punkt att de får ett självständigt tänkande, då kan det börja diskuteras om rättigheter. Åsikterna lutade även mot att om detta sker är det klart att de ska ha rättigheter. Men som nämnt tidigare, i dagsläget ser de ingen anledning varför virtuella assistenter skulle han någon sorts rättighet.

Det finns en del artiklar och studier som förklarar hur man bör tänka när man utformar rättigheter som robotar eller artificiella entiteter. En sådan artikel av Coeckelbergh (2010) tar upp sina egna tankar och åsikter om hur man bör utforma dessa rättigheter. Han kommer delvis fram till samma resultat som vårt, att dagens artificiella intelligenser, eller för oss virtuella assistenter, inte bör eller har någon nytta av rättigheter på grund av att de är fortfarande för dumma (Ibid). Det han dock kommer fram till är att man kan ta första steget när intelligenserna har nått samma form av omgivningsmedvetande och kunna känna enklare former av emotionalitet som djur har (Ibid). Därefter, då intelligensen har nått ett mer utvecklat stadie av själv-vetande, anser han att man bör utforma rättigheterna efter sociala relationer som sedan går in på det moraliska tänket istället för att gå direkt på de moraliska rättigheterna (Ibid). Coeckelbergh är däremot inte ensam med att framföra ett sådant tillvägagångssätt, med att den virtuella assistenten får sina rättigheter av att interagera med sina ägare, Gunkel framför ett likadant exempel. Vi tror anledningen att Coeckelbergh gjorde detta är på grund av att de artificiella intelligenserna i framtiden ska lättare kunna gå med på rättigheterna som stödjer både människa och maskin.

“Inte vad jag tycker personligen, den är ingen människa ändå, det är någonting vi har skapat.” - E

“Nej i dagsläget, nej absolut inte. Inga rättigheter nu. De har inte, de är för dumma helt enkelt. Det finns ingen intelligens bakom dem utan det är ju bara, bara för att de har en röst nu liksom så betyder ju inte det att det finns nåt tänkande bakom utan det dras ju bara från databaser och grejer och sånt. Det är liksom, nej, inte i dagsläget.” - C

References

Related documents

På så sätt gör du även en inbjudan till dig själv och därmed ser jag att risken ökar (för att mobbningen följer med från skolan till Internet)..

När det gäller att hantera dokumentsamlingar känns detta också högst relevant i mitt fall, där mycket av arbetet handlar om att samla och söka bland arbetsdokument, inte

Vid sidan av djupintervjun använde vi oss också av projiceringsteknik med olika bilder av de klagomålstyperna som vi tog upp i teoridelen (se bil. Genom projicering

Vi tycker att FCR-D är det bättre valet, även om FCR-N genererar en större vinst. Vårt resultat angående val av reglermodell baserades i huvudsak på hur mycket mer reglering

De fyra jag har tagit upp här skriver för generellt sett mer ”moderata” sajter som till exempel inte recenserar filmer som Bloodsucking Freaks.. Även om Mutant

growth of TiSiN films onto substrates that are either flat TiN(001)/MgO(001) epitaxial buffer layers or TiN(001) facets of length 1-5 nm terminating epitaxial TiN(111)

Först och främst så möjliggörs lekens autonomi av att barn har med sig viktiga värderingar in i leken som utgör markörer för när leken slutar vara lek, men det är även

Den vänstra bilden föreställer en riktig röntgenbild av ett så kallat röntgenfantom (en docka som invändigt innehåller en modell av mänsklig anatomi för att ge