• No results found

Fokusgrupp 1 &

In document Maskin eller läkare? (Page 45-53)

Nedan presenteras data från transkriberingen som har samlats in via två fokusgrupper. Båda fokusgrupperna diskuterade följande ämnen: Artificiell intelligens, Artificiell intelligens inom sjukvården, Artificiell intelligens och applikationer samt sjukvårdens framtid. Genom ett kodningsschema kunde två teman identifieras; erfarenheter och attityd. Temat “erfarenhet” sammanställer respondenternas tidigare kunskap och uppfattning om Artificiell intelligens, vård på distans samt en digitaliserad vård. Temat “attityd” beskriver hur respondenterna förhåller sig till att artificiell intelligens ska kunna implementeras i vården samt vad de har för inställning till att själva använda sig av en applikation med maskininlärning.

I Fokusgrupp 1 och 2 undersöktes inställningen till diagnostisering med maskininlärning med hjälpt av Scenario-based design. Fokusgrupp 1 får scenario 1 “BEATA” tilldelad till sig, där attityder till vårdapplikationer som använder maskininlärning diskuteras mellan respondenterna. Fokusgrupp 2 med får scenario 2 “SAM” tilldelat till sig. Även här diskuteras attityder till vårdapplikationer som använder maskininlärning. I fokusgrupp 1 var respondent 1:2 och 1:3 passiva medan resterande respondenter var aktiva i diskussionen. I fokusgrupp 2 var det jämnare aktivitet bland respondenterna. Där var 2:1 och 2:3 mest aktiva medan respterande var mer passiva.

4.2.1

Erfarenhet

Nedan presenteras resultat från tema erfarenhet. Kategorierna som identifierades inom temat erfarenhet med kodningsschemat var uppfattning och tidigare användning av vårdapplikationer. Koderna som identifierades för kategorierna var artificiell intelligens, vårdapplikationer och diagnostisering med AI. Inledningsvis presenteras en fråga i både fokusgrupp 1 och 2 gällande vad de tänker på när de hör Artificiell intelligens. Det uppkommer snabbt ord som “robotar”, “maskiner” och “framtiden” i båda grupper. Respondent 2:3 menar att artificiell intelligens kommer utvecklas och bli mer lik människan. Respondent 1:4 upplever en rädsla över ordet Artificiell intelligens och resonerar kring om det kan komma att ersätta bland annat serviceyrken och skapa konkurrens:

“Det är väl dagens eller framtidens teknologi. Det ersätter olika yrken som serviceyrken eller att det kan vara till hjälp men också att det kan vara konkurrens.”

Det var varierat i grupperna hur pass mycket kunskap de olika respondenterna hade kring Artificiell intelligens. Respondent 2:1 menar hen har svårt att definiera begreppet då hen inte har någon större medvetenhet om ämnet. Respondenten menar att hen har så pass lite kunskap inom ämnet att hen inte vet om hen ska tänka på en robot som åker runt eller något annat. (Respondent 2:1) Respondent 2:2 upplever att Artificiell intelligens innebär datorer och maskiner som ersätter människor.

Enligt respondenten 2:1 kan artificiell intelligens inte koda känslomässiga saker utan endast hård fakta såsom statistik och siffror. Respondent 2:3 anser däremot att artificiell intelligens klarar av mer än bara fakta. Hen argumenterar att vi går åt det hållet i utvecklingen där tanken är att artificiell intelligens ska bli mer lik människan och kunna mer än en dator. Hen förklarar det som att tekniken kan dra egna slutsatsen trots att den inte har all information. (Respondent 2:3) Respondent 2:4 inflikar att det är obehagligt att den är självlärande och saknar empati, då den enligt hen kan vara ett hot mot mänskligheten.

När fokusgrupperna sedan blir tillfrågade om de har kunskap om artificiell intelligens inom sjukvården var det en större variation av medvetenhet hos respondenterna. Fokusgrupp 2 hade generellt sett mycket lite kunskap om artificiell intelligens inom sjukvården då de flesta respondenter inte visste att det används idag. Fokusgrupp 1 upplevdes ha mer kunskap inom ämnet. Respondent 1:4 inleder med att säga att hen har kunskap om det men inte i vilken utsträckning det används. Hen spekulerar kring att det används till simpla arbetsuppgifter som att ge ut medicin men även till att operera. (Respondent 1:4) Respondent 1:5 fortsätter argumentet med att det kan vara positivt att använda sig utan en robot i en operation istället för en människa som kanske har jobbat i fjorton timmar och är trött. Respondent 1:1 menar att hen har kunskap om att tekniken idag används för att analysera, ställa diagnoser och i kirurgi.

Vidare blev gruppen tillfrågad om tidigare erfarenheter av att använda sig av vårdapplikationer. Erfarenheterna var olika i respektive fokusgrupp. Respondent 2:3 förklarar att hen använder vårdapplikationer frekvent då det är enklare att gå till samt att hen inte gillar att gå till läkaren. Vidare förklarar respondent 2:3 att hen använder både vårdapplikationerna Kry och Min doktor just för att slippa mötet med en människa. Respondenten berättar vidare att hen har chattat med en läkare via nätet och inte visste om det var en människa bakom mötet eller inte. Respondenten menar att hen känner tillit till de här applikationerna på grund av ett gott rykte från närstående som har använt tjänsterna. (Respondent 2:3) Respondent 2:4 berättar att hen aldrig tidigare har använt sig av en vårdapplikation och inte heller vill göra det i framtiden:

“Men jag personligen har aldrig använt Kry eller någon sådan app och skulle nog aldrig göra det.”

(Respondent 2:4)

Respondent 1:5 har också en skeptisk attityd till applikationen Kry. Hen känner ingen tillit till applikationen men har ändå en positiv attityd till vårdapplikationer om de skulle kompletteras med artificiell intelligens. (Respondent 1:5)

“Jag bara tänker på kry nu och det är jag inte ett jättestort fan av för de känns bara som de pungar ut massa mediciner hit och dit men om det nu skulle finnas den typen av teknologi skulle den kunna ducka eller undkomma alla kryphålen som faktiskt finns så skulle jag säkert lita på det. Men det är isåfall om teknologin utvecklas liksom.”

(Respondent 1:5)

4.2.2

Attityd

Nedan presenteras resultat från tema attityd. Kategorierna som identifierades med kodningschemat var inställning och uppfattning. Koderna som identifierades för varje kategori var vårdapplikation, diagnostisering med AI och datautlämning.

En diskussion i fokusgrupp 1 uppstod mellan respondent 1:1 och respondent 1:4 om artificiell intelligens i framtiden borde ersätta läkaren eller fungera som ett komplement till läkaren. Respondent 1:4 anser att det inte är meningen att tekniken ska ersätta en människa utan istället fungera som ett komplement till en fysisk läkare. Hen menar att det inte har implementerats i vården för att konkurrera ut läkare och sjuksköterskor. Respondent 1:1 menar vidare att artificiell intelligens kan ersätta människan om det utförs ett bättre arbete och ger bättre resultat. Respondent 1:4 instämmer med att det är positivt att ha en robot istället för en människa i sjukvården ifall risken för sjukdomar minskar. Respondent 1:4 är generellt positiv till att implementera artificiell intelligens inom sjukvården då det är väldigt hög arbetsbelastning men att det kan vara obehagligt för patienter som inte är så bekanta med den nya teknologin:

“Det kan ju vara nyttigt i och med att det är ganska hög belastning i sjukvården. Men det kan ju också vara läskigt för patienter som kanske inte är så bekanta med den här nya teknologin.“

Däremot verkar samma respondent ha en kritisk inställning till det då hen inte känner tillit till artificiell intelligens då tekniken kan dra för snabba slutsatser och ge felaktiga resultat. (Respondent 1:4) Respondent 1:3 ställer sig, precis som respondent 1:1, positiv till artificiell intelligens inom sjukvården och menar att mänskliga läkare kan riskera att glömma information och är mer kapabla till att göra misstag. Detta är en återkommande diskussion i fokusgrupp 2. Respondent 2:1 anser att hen inte hade litat på ett besked om en allvarlig diagnos om det kom från artificiell intelligens då hen menar att det kan bli fel i systemet. Respondent 2:4 instämmer med att hen hade litat på en människas ord mer än endast en dator. Respondent 2:1 spekulerar vidare kring om det inte kan uppstå färre fel om man använder artificiell intelligens:

“Å andra sidan kan jag tänka att en robot, för att den inte är en person, att det blir rätt av den anledningen. Det är ingen person som kan dra en slutsats som är från personens egna erfarenheter. Eller tidigare arbeten eller så. Jag tänker typ att alla saker som har ersatts med maskiner så blir det generellt mindre fel. Om vi tänker i en produktion bara, då blir det mindre fel för att maskinerna inte kan göra lika mycket fel som en människa som kanske bara är trött.”

(Respondent 2:1)

Vidare diskuterar respondenterna kring att känna tillit till en läkare och alla instämmer med att man skulle känna mer tillit till en människa än ett system med artificiell intelligens. Behovet av mänsklig närvaro tycks vara viktig för fler respondenter i båda fokusgrupper, speciellt där besked om allvarligare symptom skulle uppkomma. Om det däremot handlar om att man behöver söka mer vård än vad ett foto kan avgöra så är det viktigare med mänsklig kontakt (respondent 2:3).

Respondent 2:4 lyfter att attityden till en diagnostisering med maskininlärning även beror på vilken diagnos det är:

“Blodvärden och sånt hade jag inte brytt mig om men jag hade inte velat en robot eller skärm skulle säga att jag hade cancer.”

(Respondent 2:4)

Detta blev även tydligt i diskussionen kring fråga 5 (se bilaga 1) där respondenterna blev tillfrågade om de kan tänka sig använda en AI-applikation istället för att gå till vårdcentralen. I fokusgrupp 1 känner merparten av respondenterna en rädsla kring att en undersökning på

distans ska bli felaktig. Respondent 1:1 hävdar att hen inte hade velat använda en vårdapplikation med maskininlärning då hen inte hade litat på att diagnosen var korrekt.

Respondent 1:5 hävdar att personlig kontakt är viktig för att läkaren ska kunna klämma eller känna på kroppen vid behov då patienten själv kanske inte svarar rätt på hur den egentligen mår. Respondent 1:1 instämmer och menar att det är en utsatt situation för patienten när den söker sig till vården och att det kan upplevas lugnande att möta en människa. I fokusgrupp 2 menar respondent 2:2 att AI är att föredra då den inte är dömande som en människa kan vara, vilket visar på högt förtroende till AI.

“Men samtidigt tänker jag att den inte kan döma en på något sätt utan den är programmerad så att den har all kunskap istället för en läkare som kan döma en.”

(Respondent 2:2)

I fokusgrupp 2 är den generella attityden till att använda en vård-applikation med AI istället för att besöka en fysisk vårdcentral positiv, där merparten kan tänka sig att använda denna typ av applikation. Respondent 2:4 argumenterar att hen inte skulle kunna tänka sig att uppsöka vård på distans. Respondent 2:3 i fokusgrupp 2 antydde på att vara positivt inställd till vård på distans då hen i dagsläget använder applikationen KRY. Respondent 2:1 och respondent 2:2 menar att det är svårt att få en läkartid snabbt och därför skulle välja att använda en applikation framför ett fysiskt läkarbesök.

Respondent 2:1 som var mer skeptisk till ämnet till en början menar att hen efter denna diskussion ställer sig positiv till att använda en vårdapplikation med AI:

“Jag skulle också kunna tänka mig det. Också nu efter jag tänkte att den kan ha mer kompetens än bara en person. Så ju mer vi pratar om det, det känns bra!”

(Respondent 2:1)

För samtliga respondenter i både fokusgrupp 1 och 2 är det fysiska mötet viktigt när det kommer till att känna tillit till läkaren. Flera av de respondenter som har en skeptisk attityd till AI-applikationer inom vården tycks ändå kunna tänka sig att använda tekniken om den är prövad och fungerar. Respondent 2:4 är skeptisk till att använda sig av en vårdapplikation och menar att det handlar om hur legitim applikationen är:

“Det finns så mycket skitappar som man vet bara är lurendrejeri, man vet ju också hur enkelt det är att göra en app. Så man hade velat veta vem som stod bakom appen. Det hade spelat stor roll.”

(Respondent 2:4)

4.2.3

Scenario 1 – BEATA (med fokusgrupp 1)

När scenario BEATA (se bilaga 2) introduceras för fokusgrupp 1 är samtliga respondenter skeptiska till tekniken. Respondent 1:2 inleder med sin åsikt:

Om det är en läkare som kan analysera den datan och kan ta beslut utifrån den, då känns det ju tryggt. Om läkaren har koll på datan och vet vad den innebär, men inte att ai i sig kommer med ett beslut.

(Respondent 1:2)

Samtliga respondenter instämmer med att de inte litar på att diagnosen är korrekt förrän en läkare bekräftat den. Respondent 1:1 och respondent 1:5 är eniga med att de trots en diagnos från applikationen BEATA hade vänt sig till en fysisk läkare för att ta nya prover. Samtliga respondenter är överens om att den mänskliga läkaren bör ha det sista ordet. Respondent 1:4 menar att det är onödigt att “slösa tid” på en applikation istället för att besöka en fysisk läkare direkt. Vidare resonerar respondenten kring att hen vill få en diagnos av en människa. (Respondent 1:4)

”Jag tänker att man kanske slösar tid om man har en app som ska göra ett jobb för att ställa diagnoser om man ändå kunde ha gått till läkaren, att det inte är trovärdigt, om det inte skulle fungera menar jag, då kanske man hellre från början går till en doktor. Det kan ju bli felslag även där såklart. Det kanske blir en onödig extragrej om man ändå vill ha någon som kan ansvar och är en människa.”

Respondent 1:4

Slutligen presenteras del 2 av scenario BEATA där respondenterna får höra en negativ aspekt kring utlämnande av data. Respondenterna får höra att datan kan säljas till en tredje hand vilket kan leda till negativa konsekvenser. Här blir det tydligt att attityden till delning av data förändras. Attityden i merparten av respondenterna blir negativ till datautlämning. Respondent 1:1 menar att hen inte skulle tacka ja till en applikation där data kan användas i politiska syften och menar att informationssamling överlag är obehagligt. Respondent 1:5 hade till en början en

positiv inställning till att dela med sig av data då hon inte ansåg att den var personlig. Däremot blev hon skeptiskt till det om det skulle innebära höga kostnader (Respondent 1:5).

4.2.4

Scenario 2 – SAM (med fokusgrupp 2)

Efter uppläsning av scenario SAM (se bilaga 3) upplevdes respondenterna mer fundersamma än innan, då teorin kunde implementeras i en verklig händelse. Respondent 2:4 svarade direkt att sjukhuset var en självklarhet på grund av bristande tillit till resultatet i applikationen. Respondenten resonerar att hen hade kunnat använda applikationen men åka direkt till sjukhuset efter ändå:

”Jag hade direkt åkt till sjukhuset. Eller så hade jag testat appen för att det var kul men jag hade inte litat på resultatet så jag hade antagligen åkt till sjukhuset efteråt ändå”

(Respondent 2:4)

Respondent 2:1 uppfattades mer positiv till att använda applikationen vid ett scenario där hon är i ett främmande land. Hen resonerar kring att det är tryggt om det är en svensk applikation som folk använder än att åka till ett sjukhus där det kan bli missförstånd i kommunikationen. (Respondent 2:1)Respondent 2:3 antydde att beslutet berodde på hur välkänd applikationen var och att det inte kändes tillförlitligt att lämna ut personuppgifter till vilken applikation som helst då det inte går att veta var de hamnar. Vidare menar respondent 2:3 att det beror på hur välkomnande landet kändes och om det fanns en trygghet där. Om det stod mellan ett land som upplevs otryggt eller en välkänd applikation så hade valet legat i applikationen. (Respondent 2:3)

Respondent 2:4 resonerar vidare kring trygghet och tillit till applikationen och menar att mycket handlar om vem som står bakom den samt hur den ser ut. Respondent 2:1 hade känt tillit till applikationen om den var välkänt och används av folk i nära omgivningen. Resterande respondenter instämmer med uttalandet och respondent 2:1 fortsätter resonemanget med att hen helst hade velat se någon välkänd organisation eller sjukhus stå bakom applikationen för att det skulle kännas extra tryggt.

”Asså gärna någonting man känner igen, typ Karolinska sjukhuset, något tryggt typ.”

Respondent 2:2 menar att det räcker med att det är ett stort företag som är välkänt sedan tidigare, oavsett om det är exempelvis Ica eller annat välkänt företag, för att det ska kännas tillförlitligt. Respondent 2:3 instämmer och menar att varumärket är viktig för tillförlitligheten till applikationen men anser att ryktet om den är viktigare. Respondent 2:3 tar upp aspekten om att lämna ut sina privata personuppgifter:

”Antagligen hade man behövt skriva in alla sina personuppgifter och sånt och det vill man inte skriva i vilken app som helst. Man vet inte vart de personuppgifterna hamnar liksom.”

Respondent 2:3

Gruppen är ense om att om applikationen hade känts tillförlitlig så hade en diagnostisering av den också känts trovärdig. Vid vidare förklaring, med komplement av bilder, från en studie av författarna Holmström et al. (2017) visar gruppledaren hur metoden av att scanna stool-samples och därefter få en diagnos går till, så upplevdes respondenterna en aning chockade. Deltagarna upplevdes få en mer positiv attityd och respondent 2:3 reflekterade kring om det gick att kombinera tekniken datautvinning och mänskligt bemötande:

”Det hade känts dubbelt så tryggt. Att det fortfarande är teknologin som får fram resultatet men att jag blir förmedlad av en människa.”

(Respondent 2:3)

Respondenterna diskuterar fram ett optimalt användande och kommer fram till att de vill att maskininlärning ska få fram resultatet men att en läkare hade behövt dubbelkolla att det stämde innan de fick svar. Slutligen efter att ha fått ny kunskap om vårdapplikationer som använder artificiell intelligens blir deltagarna tillfrågade ytterligare en gång om de hade kunnat tänka sig att använda en vårdapplikation som använder maskininlärning och samtliga deltagare svarade mer övertygande med ett “ja”.

5

Diskussion

Nedan följer uppsatsens diskussion där studiens insamlade data samt teori diskuteras. Det som diskuteras är huruvida individen ställer sig till att få en diagnos genom en vårdapplikation som använder sig utan maskininlärning för att samla och analysera hälsodata. I diskussionen presenteras de rädslor som finns kring att få en diagnos med maskininlärning samt diskussion kring huruvida maskininlärning kan effektivisera vården eller inte. Detta är intressant att diskutera då det leder oss till diskussionen om framtidsutsikter för användandet av vårdapplikationer som använder maskininlärning. Det diskuteras även kring attityder till andra vårdapplikationer som inte använder maskininlärning. Eftersom vårdapplikationer med maskininlärning ännu inte är etablerat på marknaden är det intressant att diskutera detta.

In document Maskin eller läkare? (Page 45-53)

Related documents