• No results found

Emotionsigenkänning inom och mellan emotionsfamiljer

N/A
N/A
Protected

Academic year: 2021

Share "Emotionsigenkänning inom och mellan emotionsfamiljer"

Copied!
36
0
0

Loading.... (view fulltext now)

Full text

(1)

Emotionsigenkänning inom och mellan emotionsfamiljer

En jämförelse mellan hjälpande professioner och ett bekvämlighetsurval

Jacob Blomberg

Examensuppsats för Psykologprogrammet Huvudområde: Emotion

Högskolepoäng: 30 hp Termin/år: 10/2020 Handledare: Anders Flykt Examinator: Ingrid Zakrisson

Kurskod/registreringsnummer: PS080A Utbildningsprogram: Psykologprogrammet

(2)

2

Abstract

Syftet med studien var att undersöka skillnader angående icke-verbal emotionsigenkänning inom och mellan emotionsfamiljer mellan individer ur ett bekvämlighetsurval och individer som är yrkesverksamma eller studerande inom hjälpande professioner. Totalt 321 deltagare deltog i studien. Förmågan till icke-verbal emotionsigenkänning (ERA) mättes med det datoriserade testet Emotion Recognition Assessment in Multiple modalities (ERAM). Emotionsfamiljerna i ERAM utgjordes av ilska, glädje, sorg och rädsla som var och en bestod av en högintensiv och en

lågintensiv emotion som delade gemensamma teman. Resultatet från fyra variansanalyser visade att yrkesverksamma och studerande inom hjälpande professioner var bättre på att identifiera de fyra testade emotionsfamiljerna och gjorde färre förväxlingar jämfört med bekvämlighetsurvalet.

Förväxlingsmatriser för de testade modaliteterna visuell (enbart video), auditiv (enbart ljud) och visuell-auditiv (både video och ljud) visade däremot att det inte fanns några betydande skillnader mellan grupperna angående vilka emotioner som mest frekvent förväxlades med varandra.

(3)

3

Emotionsigenkänning inom och mellan emotionsfamiljer

En jämförelse mellan hjälpande professioner och ett bekvämlighetsurval

En av de vanligaste aktiviteter vi människor ägnar oss åt är att tolka och förhålla oss till de personer som finns i våra liv (Hall et al., 2016). Att kunna göra korrekta bedömningar av andras beteenden och avsikter är en mycket viktig egenskap i våra privatliv såväl som i professionella sammanhang (Hall et al., 2016; Lazarus, 1991, s. 412). Om vi misstolkar andras beteenden och avsikter riskerar vi att bryta mot sociala regler och agera på sätt som kan leda till negativa

konsekvenser för oss själva och för andra (Lazarus, 1991, s. 412). Förmågan att göra bedömningar och göra slutledningar av andra människors beteenden kan beskrivas med termen interpersonal accuracy, som kan översättas till interpersonell precision. Interpersonell precision är ett

samlingsbegrepp som innefattar flera olika komponenter som alla utgör olika delar av de bedömningar vi gör av andra människors beteenden och avsikter (Hall et al., 2016).

En komponent som tycks vara central för samtliga områden av interpersonell precision är Emotion Recognition Ability (ERA, se t.ex. Hall et al., 2009; Bänziger, 2016; Schlegel et al., 2017).

ERA avser förmågan att identifiera och avläsa vilken känsla (emotion) en annan person upplever eller uttrycker baserat på icke-verbalt beteende (Bänziger, 2016). Icke-verbalt beteende innefattar ansiktsuttryck, kroppsspråk och röstuttryck, utan den information som kommuniceras via språk (Bänziger et al., 2009). ERA tycks till viss del kunna vara föränderlig (Bänziger, 2016; Scherer, 2009a) och kan potentiellt förbättras med träningsinterventioner.

ERA har historiskt sett studerats med statiska stimuli, exempelvis med fotografier av människors ansikten som uttryckt olika emotioner (Bänziger, 2016). De senaste åren har

teknikutvecklingen gjort det möjligt att använda test med dynamiska stimuli som illustrerar icke- verbala emotionella uttryck (Bänziger et al., 2009). Vanliga exempel på dynamiska stimuli inom forskningsfältet är video- och ljudinspelningar av personer som uttrycker emotioner (Bänziger, 2016). Dynamiska stimuli gör det möjligt att tydligt illustrera ansiktsmimik och kroppsrörelser (Bänziger et al., 2009; Pitterman & Nowicki, 2004), samt röstuttryck som röstintensitet och tonläge

(4)

4

(Laukka & Elfenbein, 2012), vilket antas öka den ekologiska validiteten av mätinstrumenten jämfört med test som enbart använder fotografier (Bänziger, 2016). Exempel på utformade

mätinstrument för ERA enligt Flykt et al. (in press) är PONS (Hall, 1984, 2001), DANVA (Baum &

Nowicki, 1998; Nowicki & Duke, 1994), MiniPONS (Bänziger et al., 2011) och ERAM (Flykt et al., in press). Akronymen ERAM står för Emotion Recognition Assessment in Multiple modalites, vilket är ett datoriserat test för att mäta ERA (Flykt et al., in press) baserat på ett urval av

emotionella uttryck från Geneva Multimodal Emotion Portrayals database (GEMEP, Bänziger &

Scherer, 2010; Bänziger et al., 2012). ERAM är utformat för att mäta försöksdeltagarnas ERA i modaliteterna visuell (video utan ljud), auditiv (ljud utan video) och visuell-auditiv (både video och ljud, Flykt et al., in press; Holding et al., 2017; Hovey et al., 2017).

Trots att det finns många olika tester för att mäta vår förmåga att identifiera och utläsa emotioner hos andra finns det ingen konsensus kring en enhetlig teori för vad emotioner faktiskt är.

Inom emotionsforskningen råder en debatt mellan framförallt tre olika perspektiv: det biologiska, det socialkonstruktivistiska och appraisal-perspektivet (Scherer, 2009b; Hall et al., 2016).

Det biologiska perspektivet härstammar från Darwins teorier kring emotioner (Darwin, 1872/1998) och utgår från att vi är biologiskt utrustade med ett begränsat antal distinkta

grundläggande emotioner som var och en karaktäriseras av ett specifikt mönster av fysiologiska och uttryckta responser (Ekman, 1992). Emotionella uttryck anses framförallt ha funktionen att

signalera emotionella tillstånd till andra (Hall et al., 2016). De olika grundläggande emotionerna anses uppkomma från separata neurala nätverk och ha olika fysiologiska egenskaper (Ekman, 1992), vilket antyder att de olika sätt emotionerna uttrycks på lätt bör kunna skiljas från varandra (A. Flykt, personlig kommunikation, 18 september, 2020).

Det socialkonstruktivistiska perspektivet definierar emotioner som psykologiska konstrukt (Russel, 2003). Alla emotionella tillstånd anses ha två underliggande dimensioner som består av valens och intensitet (Russel, 2003; Hall et al., 2016). Begreppet valens beskriver om emotionen upplevs som positiv eller negativ och begreppet intensitet beskriver styrkan i den upplevda

(5)

5

emotionen. Alla andra skillnader mellan olika emotioner anses vara psykologiska konstrukt som varierar mellan kulturer och individer, beroende av kontext. Emotioner kategoriseras därför inte in i grupper som ilska, glädje, sorg eller rädsla. Istället kategoriseras emotioner efter olika core affects, som kan översättas till kärnaffekter, som upplevs i olika valenser och intensiteter (Hall et al., 2016).

Därmed blir kontexten avgörande för att kunna skilja mellan olika emotionsuttryck med liknande valens och intensitet (A. Flykt, personlig kommunikation, 18 september, 2020).

Appraisal-perspektivet beskriver emotioner som resultatet av appraisal, som kan översättas till bedömning, av händelser vi upplever (Sander et al., 2007; Scherer, 2009b; Scherer & Ellgring, 2007). En persons bedömningar av en händelse eller situation skapar en emotionell reaktion som baseras på det som har hänt (Scherer et al., 2001, s. 3). Appraisal-perspektivet härstammar från Aristoteles, Descartes, Spinoza och Hume (Scherer, 2009b). Perspektivet etablerades i modern emotionsforskning av Arnold (1960, citerad i Shields & Kappas, 2006) och vidareutvecklades av Lazarus (1991). Enligt Lazarus (1991) definieras olika emotioner av deras core relational themes, vilket är en samling med gemensamma teman som givit upphov till emotionerna. Varje emotion har därmed ett eget core relational theme som enbart associeras med den specifika emotionen.

Exempelvis är core relational theme för emotionen glädje enligt Lazarus att göra rimliga framsteg mot att förverkliga ett mål. För emotionen sorg är core relational theme att ha upplevt en

oåterkallelig förlust (Lazarus, 1991, s. 122-124). Core relational themes är oberoende av vilken intensitet emotionerna uttrycks med. Det antyder att det kan vara svårt att urskilja emotioner med samma core relational themes och olika intensitet från varandra (A. Flykt, personlig

kommunikation, 18 september, 2020).

En annan central fråga inom emotionsforskningen är hur emotioner ska kategoriseras.

Majoriteten av emotionsforskare är överens om att varje emotion delar fler likheter med vissa emotioner och färre likheter med andra (Sauter, 2017). Ett sätt att operationalisera likheterna och skillnaderna mellan olika emotioner är konceptet emotionsfamilj (Ekman, 1992). En emotionsfamilj är en samling av olika emotioner som delar gemensamma egenskaper med varandra. De

(6)

6

gemensamma egenskaperna bildar teman som kan innefatta visuella uttryck som ansiktsrörelser och kroppsspråk, auditiva uttryck som tonläge och ljudstyrka, och liknande bedömningsprocesser för de händelser som ligger bakom emotionernas uppkomst (Ekman et al., 1980; Kamiloğlu et al., 2020).

De olika teman som finns inom en emotionsfamilj är unikt för just den emotionsfamiljen och skiljer sig distinkt från andra emotionsfamiljer (Ekman, 1992). Det råder dock ingen konsensus kring vilka de olika emotionsfamiljerna är och hur uppdelningen mellan dem bör göras. En vanlig

kategorisering av emotionsfamiljer inom emotionsforskningen är enligt Ekmans (1992) teorier kring grundemotioner, men emotionsfamiljer kategoriseras även på andra sätt (se t.ex. Sacharin et al., 2012).

Enligt Ekman (1999, s. 45-60) beror variationer av emotionsuttryck inom en emotionsfamilj sannolikt på flera olika faktorer. Variationerna kan bero på emotionens intensitet, om emotionen upplevs kontrollerad eller inte, om emotionsuttrycket är konstgjort eller en spontanreaktion, och vilka händelser som framkallade emotionen. Exempelvis identifierade Ekman och Friesen (1975, citerad i Ekman, 1992) över 60 ansiktsuttryck av varierande intensitet för emotionsfamiljen ilska.

Alla de identifierade ansiktsuttrycken delade gemensamma konfigurationer av muskelrörelser som distinkt skilde sig åt från de andra emotionsfamiljerna. De fann att inom emotionsfamiljen ilska delade de olika emotionerna ansiktsuttryck som sänkta och ihopdragna ögonbryn, höjda övre ögonlock och ihopdragna muskler i läpparna. Styrkan i de olika muskelrörelserna skilde sig inom emotionsfamiljerna vilket relaterar till intensiteten i den upplevda emotionen (Ekman et al., 1980).

Studier har visat att det finns skillnader på gruppnivå för hur väl vi uppfattar olika intensiteter i emotionsuttryck. Hoffmann et al. (2010) fann att kvinnor är bättre på att identifiera emotioner med låg intensitet från ansiktsuttryck jämfört med män. De fann däremot inga signifikanta

könsskillnader för identifiering av emotioner med hög intensitet från ansiktsuttryck. Resultatet indikerar att kvinnor är bättre på att uppfatta subtila nyanser av emotioner som förmedlas via ansiktsuttryck, men att skillnaderna försvinner ju starkare intensitet emotionerna som uttrycks har.

Kvinnor presterar generellt bättre än män vid identifiering av icke-verbala uttryck. I en metaanalys

(7)

7

av Thompson och Voyer (2014) visades kvinnor ha en liten fördel jämfört med män (d = 0.19) vid identifiering av icke-verbala uttryck i de tre modaliteterna visuell, auditiv och visuell-auditiv.

När vi identifierar icke-verbala emotionsuttryck händer det att vi förväxlar en uttryckt emotion med en annan och därmed tar vi fel på vilken emotion som förmedlas till oss. För att få ökad förståelse hur vi tolkar emotioner är det nödvändigt att undersöka vilka systematiska förväxlingar som görs inom och mellan olika emotionsfamiljer. Med systematiska förväxlingar menas att specifika emotioner återkommande förväxlas med andra emotioner med en högre frekvens än slumpmässiga förväxlingar (Elfenbein et al., 2002). Vilka emotioner förväxlas oftast med varandra? Den intuitiva tanken att emotioner med liknande expressiva uttryck oftast förväxlas med varandra har bekräftats av forskning (Elfenbein et al., 2002; Bänziger et al., 2012).

Förväxlingar sker därför oftare inom emotionsfamiljer än mellan emotionsfamiljer, men det gäller inte för alla emotioner (Bänziger et al., 2012). Emotioner verkar även förväxlas oftare med andra emotioner som har samma valens (Banse & Scherer, 1996), men även här finns det undantag.

Bänziger et al. (2012) visade att valensöverskridande förväxlingar sker i olika grad beroende på vilken modalitet (Visuell / Auditiv / Visuell-auditiv) emotionen uttrycks i. I deras studie förväxlades exempelvis stolthet (positiv valens) ofta både med irritation (negativ valens) och förakt (negativ valens) när försöksdeltagarna fick lyssna på ljudklipp där emotionerna porträtterades (auditiv modalitet). I samma studie förväxlades intresse (positiv valens) ofta med irritation (negativ valens) när försöksdeltagarna fick se emotionerna porträtteras via videofilm utan ljud (visuell modalitet).

För vidare läsning kring emotionsigenkänning för negativ respektive positiv valens rekommenderas Dernfors (2020) och Ondris (2020).

För att kunna studera förväxlingar inom emotionsfamiljer vid mätning av ERA använder mätinstrumentet ERAM (Flykt et al., in press; Holding et al., 2017; Hovey et al., 2017) fyra emotionspar med olika intensitet inom samma emotionsfamilj. I ERAM består emotionsfamiljen ilska av emotionerna ilska (hög intensitet) och irritation (låg intensitet); emotionsfamiljen glädje består av emotionerna glädje (hög intensitet) och välbehag (låg intensitet); emotionsfamiljen sorg

(8)

8

består av emotionerna förtvivlan (hög intensitet) och sorg (låg intensitet); emotionsfamiljen rädsla består av emotionerna rädsla (hög intensitet) och ängslan (låg intensitet, se t.ex. Bänziger et al., 2012). Notera att samtliga ovannämnda emotionsfamiljer delar namn med en av de emotioner som ingår i emotionsfamiljen.

Trots att det har gjorts många studier kring icke-verbala uttryck som visar att

emotionsfamiljer generellt urskiljs väl från varandra, så har relativt få studier undersökt hur väl vi kan urskilja emotioner inom emotionsfamiljer (Bänziger et al., 2009). Bänziger et al. (2012) fann i deras studie att förväxlingar inom emotionsfamiljer varierar beroende på vilken modalitet (Visuell / Auditiv / Visuell-auditiv) emotionerna uttrycks i. För emotionerna ilska, sorg, rädsla och ängslan var den vanligaste förväxlingen motsvarande lågintensiv eller högintensiv emotion i samma emotionsfamilj i samtliga modaliteter. För emotionerna förtvivlan och ängslan var den vanligaste förväxlingen motsvarande lågintensiv eller högintensiv emotion i samma emotionsfamilj enbart i modaliteterna visuell-auditiv respektive visuell. Emotionerna glädje och välbehag, som ingår i samma emotionsfamilj, förväxlades sällan med varandra, vilket gällde för samtliga modaliteter.

Istället förväxlades glädje med nöje och förtvivlan i den auditiva modaliteten och välbehag förväxlades med ömhet i den visuella modaliteten (Bänziger et al., 2012). Hur väl vi identifierar emotionsuttryck och vilka emotioner vi oftast förväxlar med varandra tycks därför bero på vilken emotion som uttrycks och vilken information som finns tillgänglig för oss när vi gör bedömningen.

Inom vården uttrycker vårdtagare sina behov både verbalt och med icke-verbala uttryck som ansiktsuttryck, kroppsspråk, röstintensitet och tonläge (Ruben, 2016). Vårdtagare kan av flera olika anledningar ha problem med att tydligt sätta ord på sina behov, och enbart antyda vad de behöver hjälp med genom icke-verbalt beteende när de kommunicerar med vårdgivare (Piccolo et al., 2005).

För att kunna tolka vårdtagarnas behov, sinnesstämning och önskemål som uttrycks icke-verbalt krävs det att vårdgivare uppfattar mer subtil information än enbart den typ av information som förmedlas med verbal kommunikation (Ruben, 2016). För att kunna tolka vårdtagarnas icke-verbala uttryck effektivt och för att göra så få förväxlingar med andra emotioner som möjligt krävs en god

(9)

9

förmåga för att identifiera emotionsuttryck (Bänziger, 2016; Ruben, 2016). ERA anses därför vara en viktig förmåga för personer som arbetar som professionella hjälpare (Ruben, 2016). I begreppet professionella hjälpare innefattas i detta sammanhang yrkesgrupper som logopeder, läkare,

psykologer, sjukgymnaster, sjuksköterskor och socionomer. Eftersom ERA tycks vara en

föränderlig förmåga som påverkas av träningsinterventioner (Bänziger, 2016; Scherer, 2009a) är det möjligt att professionella hjälpare och studenter inom hjälpande yrken utvecklar sin ERA i sitt yrke och under sin utbildning.

Sammanfattningsvis visar tidigare forskning att systematiska förväxlingar inom och mellan emotionsfamiljer förekommer vid identifiering av andra individers icke-verbala emotionsuttryck och att emotionsigenkänning (ERA) är en relevant förmåga för professionella hjälpare. Syftet med föreliggande studie var därför att undersöka vilka skillnader som finns mellan professionella hjälpare och ett bekvämlighetsurval angående emotionsigenkänning inom och mellan olika emotionsfamiljer över tre olika modaliteter. För att kunna se om det fanns någon betydelsefull skillnad mellan professionella hjälpare och ett bekvämlighetsurval borde eventuella

interaktionseffekter vara konsistenta över de olika modaliteterna, grupperna, samt intensiteterna som inkluderades i studien. Studiens frågeställningar var därmed:

- Finns det någon skillnad mellan professionella hjälpare (yrkesverksamma och studenter) och ett bekvämlighetsurval angående vilka förväxlingar (felsvar) som görs inom och mellan

emotionsfamiljer vid identifiering av uttryckta emotioner i olika modaliteter (visuell, auditiv och visuell-auditiv)?

- Finns det någon skillnad mellan professionella hjälpare (yrkesverksamma och studenter) och ett bekvämlighetsurval angående identifiering av olika emotionsfamiljer (ilska, glädje, sorg och rädsla)?

Metod Försöksdeltagare och Urval

Data som användes i föreliggande studie utgör en del av ett större forskningsprojekt och

(10)

10

samlades in under perioden 2010 – 2019 (se t.ex. Scherer et al., 2010). Rekrytering av

försöksdeltagare begränsades till personer mellan 18 – 67 år. Totalt analyserades data från 321 försöksdeltagare som delades in i två grupper – bekvämlighetsurval respektive professionella hjälpare och studenter. Försöksdeltagarna i gruppen bekvämlighetsurval rekryterades utifrån tillgänglighet och utgjordes av 191 personer. Försöksdeltagarna i gruppen professionella hjälpare och studenter var antingen yrkesverksamma inom ett hjälpande yrke eller studerade till ett

hjälpande yrke och utgjordes av 130 personer. Yrkesgrupperna för professionella hjälpare utgjordes av logopeder, läkare, psykologer, sjukgymnaster, sjuksköterskor och socionomer. Studentgrupperna för hjälpande yrken utgjordes av psykologstudenter, sjuksköterskestudenter och socionomstudenter.

Erhållen data var avkodad av anonymitetsskäl.

Mätinstrument

Försöksdeltagarnas förmåga till emotionsigenkänning mättes med det datoriserade testet Emotion Recognition Assessment in Multiple modalities (ERAM) utvecklat av Bänziger och Laukka (rapporterat i Flykt et al., in press; Holding et al., 2017; Hovey et al., 2017). ERAM administrerades via dator med Authorware (Adobe Systems, Inc., San Jose, CA). Vid testning användes tätslutande hörlurar med ett frekvensomfång på minst 20 – 20,000 hertz och datorskärmar. Insamling av demografisk data som ålder, utbildning och yrkesinriktning gjordes avidentifierat. Det inspelade materialet kommer från Geneva Multimodal Emotion Portrayal (GEMEP; Bänziger et al., 2012).

Skådespelarna i materialet uttryckte emotioner utifrån Stanislavskijs system (Moore, 1984;

Bänziger & Scherer, 2007). ERAM avser att mäta förmåga till emotionsigenkänning (ERA) där försöksdeltagarna ska försöka identifiera den emotion som blir presenterad för dem och sedan välja det alternativ som passar bäst utifrån en lista som innehåller samtliga emotioner som uttrycktes under testningen. Testet utgörs av 72 video- och ljudklipp där tio semi-professionella skådespelare uttryckte emotionerna: ilska, irritation, glädje, välbehag, förtvivlan, sorg, rädsla, ängslan, avsmak, intresse, lättnad och stolthet. Videoklippen innehåller närbilder av skådespelarnas ansikte och överkropp där de uttrycker de utvalda emotionerna icke-verbalt via ansiktsuttryck, kroppsspråk och

(11)

11

röstuttryck. Ljudklippen innehåller skådespelarnas röster där de uttrycker de utvalda emotionerna via tonläge och röstintensitet med hjälp av ett pseudospråk. Pseudospråket utgörs av två olika meningar som används för samtliga emotioner för att förhindra att verbal information påverkar testresultatet. Varje video- och ljudklipp varade mellan 1-5 sekunder som presenterades i tre olika modaliteter: visuellt (endast videouppspelning), auditivt (endast ljuduppspelning) samt visuellt och auditivt (både video- och ljuduppspelning). De tre modaliteterna innehöll 24 stycken klipp vardera.

Testet tog cirka 15 minuter att genomföra. För varje korrekt identifierad emotion gavs 1 poäng och för varje felsvar gavs 0 poäng. Förväxling av uttryckt emotion leder till felsvar. Maximal poäng för ERAM är 72. Maximal poäng för varje modalitet är 24. Maximal poäng för varje enskild emotion i varje enskild modalitet är 2. En hög poäng på ERAM antas indikera en hög förmåga för ERA.

Procedur

Försökspersoner rekryterades via annonsering på internet och anslagstavlor. Testningen av försöksdeltagarna skedde individuellt med en försöksledare på olika universitetscampus i Sverige eller på någon annan plats där testningen kunde utföras ostört. Innan testet genomfördes fick

försöksdeltagaren ta del av ett informationsblad med forskningsprojektets syfte och ge samtycke för deltagande i studien. Samtliga försöksdeltagare fick samma instruktioner av försöksledaren.

Försöksdeltagaren fick genomföra övningsuppgifter tillsammans med försöksledaren i testrummet för att säkerställa att försöksdeltagaren förstått hur testet skulle utföras. När övningsuppgifterna hade genomförts lämnade försöksledaren rummet och försöksdeltagaren fick genomföra testet.

Försöksdeltagarnas förmåga att korrekt identifiera känslouttryck samt svarstid registrerades.

Försöksdeltagarna fick inga instruktioner om att svara så snabbt som möjligt och det fanns inga begränsningar för hur lång tid försöksdeltagarna fick på sig att svara efter att ett känslouttryck hade presenterats.

Etiska Överväganden

Tidigare datainsamling, från vilka data i föreliggande studie kommer, har tagit hänsyn till vetenskapsrådets forskningsetiska principer på krav som ställs på humanistisk-samhällsvetenskaplig

(12)

12

forskning (Vetenskapsrådet, 2017). Deltagande i studien ansågs inte utgöra någon uppenbar risk för försöksdeltagarna, men man bortsåg inte från att ett visst psykologiskt eller emotionellt lidande av att ta del av stimuli där personer uttrycker känslor skulle kunna förekomma. För att minimera potentiella risker fick försöksdeltagarna ta del av ett informationsblad angående

forskningsprojektets syfte och instruktioner för hur datainsamling för studien skulle gå till. Skriftligt informerat samtycke erhölls av samtliga försöksdeltagare. Försöksdeltagarna informerades att de kunde avböja att delta eller avbryta studien när som helst utan att ange orsak och utan påföljd.

Data anonymiserades genom användning av individuella koder som kopplade samman olika testresultat utan att data kunde spåras till uppgifter som kunde identifiera försöksdeltagare.

Föreliggande studie gjordes, och ska endast användas, i vetenskapligt syfte inom ramen för uppsatsarbeten och forskningsprojekt på Mittuniversitetet.

Rådata som utgjorde underlaget för föreliggande studie erhölls via handledare för examensarbetet vilken också är ansvarig forskare för det övergripande forskningsprojektet.

Författaren till föreliggande studie har inte deltagit i rekrytering av försöksdeltagare eller samlat in data, men har bearbetat och analyserat data för ett urval av de emotioner som ingick i ERAM enligt beskrivning nedan.

Databearbetning

Rådata för ERAM från tidigare datainsamlingar användes och bearbetades för att passa studiens frågeställning. Försöksdeltagarnas data sorterades i grupptillhörighet. Professionella hjälpare och studenter inom hjälpande yrken slogs samman och utgjorde en grupp och

bekvämlighetsurvalet utgjorde en grupp. Av de 12 uttryckta emotionerna som ingick i ERAM valdes åtta emotioner ut för analys. De åtta emotionerna som analyserades var ilska, irritation, glädje, välbehag, förtvivlan, sorg, rädsla och ängslan för samtliga modaliteter. De åtta emotionerna som analyserades i föreliggande studie valdes för att samtliga antingen var en högintensiv eller lågintensiv version av samma emotionsfamilj (Bänziger et al., 2012). Ilska och irritation delades in i emotionsfamiljen ilska. Glädje och välbehag delades in i emotionsfamiljen glädje. Förtvivlan och

(13)

13

sorg delades in i emotionsfamiljen sorg. Rädsla och ängslan delades in i emotionsfamiljen rädsla.

Emotionerna avsmak, intresse, lättnad och stolthet exkluderades för att de inte utgjorde en del av av en emotionsfamilj, d.v.s. de saknade antingen en högintensiv eller lågintensiv version av samma emotionsfamilj i mätinstrumentet ERAM.

Design och Analys

För att försöka besvara studiens frågeställningar utfördes fyra stycken 2 grupp x 3 modalitet x 2 intensitet variansanalyser med mixad design där oberoendevariablerna var grupptillhörighet som hade två lägen (Bekvämlighetsurval / Professionella hjälpare och studenter), stimulusmodalitet som hade tre lägen (Visuell / Auditiv / Visuell-auditiv) och intensitet av känsla som hade två lägen (Hög / Låg). Beroendevariabeln var antal korrekta svar i ERAM, vilket antogs motsvara träffsäkerhet i ERA. Försöksdeltagarnas resultat från ERAM sorterades efter grupp och modalitet, vilket

presenteras i tre förväxlingsmatriser. Där det är mer än en frihetsgrad för den experimentella variansen är frihetsgraderna Greenhouse-Geisser-korrigerade för en ökad läsbarhet.

Resultat

När försökspersonerna svarade fel på de uttryckta emotionerna i ERAM valde de andra emotioner som svarsalternativ istället. Vilka svarsalternativ som angavs vid felsvar antas inte vara helt slumpmässiga. För att illustrera vilken andel som svarade rätt på de uttryckta emotionerna och vilken andel som förväxlade de uttryckta emotionerna med andra alternativ presenteras resultatet från ERAM i tre olika förväxlingsmatriser, som uppdelade efter vilken modalitet emotionerna uttrycktes i.

Visuell Modalitet

Redovisning av förväxlingsmatris för visuell modalitet (se Tabell 1) visar att för

emotionerna ilska, välbehag, förtvivlan och ängslan var den vanligaste förväxlingen motsvarande hög- eller lågintensivt alternativ i samma emotionsfamilj för båda grupperna. Det mest frekvent valda svarsalternativet och den vanligaste förväxlingen för varje uttryckt emotion är det samma för båda grupperna. Vad som kan observeras är att för emotionen rädsla angavs felsvaret förtvivlan mer

(14)

14

frekvent än rätt svar för båda grupperna.

Tabell 1

Förväxlingsmatris för visuell modalitet visar procentuellt resultat från avläsningar av de uttryckta emotionerna för bekvämlighetsurvalet (Bekväm.) och gruppen professionella hjälpare och studenter inom hjälpande yrken (Hjälpande.). Format och uppdelning likt Laukka et al. (2016). Korrekt avläsning av uttryckta emotioner visas i de diagonala cellerna markerade i fetstil. Beräknat för åtta emotioner baserat på 12 emotioner från ERAM. Kategorin Total representerar andelen avläsningar inom de åtta beräknade emotionerna. Visuell modalitet är videoklipp uppspelat på datorskärm utan ljud

Auditiv Modalitet

Redovisning av förväxlingsmatris för auditiv modalitet (se Tabell 2) visar att för

emotionerna ilska, välbehag, förtvivlan och ängslan var det vanligaste felsvaret motsvarande hög- eller lågintensivt alternativ i samma emotionsfamilj för båda grupperna. Det mest frekvent valda svarsalternativet för varje uttryckt emotion är det samma för båda grupperna, med undantaget för emotionen sorg där felsvaret ängslan angavs mer frekvent än rätt svar för bekvämlighetsurvalet. För

(15)

15

emotionen glädje angavs felsvaret förtvivlan mer frekvent än rätt svar för båda grupperna.

Tabell 2

Förväxlingsmatris för auditiv modalitet visar procentuellt resultat från avläsningar av de uttryckta emotionerna för bekvämlighetsurvalet (Bekväm.) och gruppen professionella hjälpare och studenter inom hjälpande yrken (Hjälpande.). Format och uppdelning likt Laukka et al. (2016). Korrekt avläsning av uttryckta emotioner visas i de diagonala cellerna markerade i fetstil. Beräknat för åtta emotioner baserat på 12 emotioner från ERAM. Kategorin Total representerar andelen avläsningar inom de åtta beräknade emotionerna. Auditiv modalitet är ljudklipp uppspelat med tätslutande hörlurar utan video

Visuell-auditiv Modalitet

Redovisning av förväxlingsmatris för visuell-auditiv modalitet (se Tabell 3) visar att för emotionerna ilska, välbehag, förtvivlan, rädsla och ängslan var det vanligaste felsvaret motsvarande hög- eller lågintensivt alternativ i samma emotionsfamilj för båda grupperna. Det mest frekvent valda svarsalternativet och den vanligaste förväxlingen för varje uttryckt emotion är det samma för båda grupperna.

(16)

16

Tabell 3

Förväxlingsmatris för visuell-auditiv modalitet visar procentuellt resultat från avläsningar av de uttryckta emotionerna för bekvämlighetsurvalet (Bekväm.) och gruppen professionella hjälpare och studenter inom hjälpande yrken (Hjälpande.). Format och uppdelning likt Laukka et al. (2016).

Korrekt avläsning av uttryckta emotioner visas i de diagonala cellerna markerade i fetstil. Beräknat för åtta emotioner baserat på 12 emotioner från ERAM. Kategorin Total representerar andelen avläsningar inom de åtta beräknade emotionerna. Visuell-auditiv modalitet är video- och ljudklipp uppspelat på datorskärm med tätslutande hörlurar

Variansanalyser Emotionsfamilj ilska

En mixad 2 grupp (Bekvämlighetsurval / Professionella hjälpare och studenter) x 3

modalitet (Visuell / Auditiv / Visuell-auditiv) x 2 intensitet (Ilska / Irritation) variansanalys visade en huvudeffekt av grupp (se Tabell 4) där professionella hjälpare var bättre (M = 1.32, SD = 0.67) än bekvämlighetsurvalet (M = 1.05, SD = 0.68). Dessutom visades en interaktionseffekt av

Modalitet x Intensitet x Grupp (se Tabell 4). Efterföljande Bonferronikorrigerade parvisa jämförelser (se Tabell 5) visade att båda grupperna var bättre på att avkoda det högintensiva

(17)

17

emotionella uttrycket ilska jämfört med det lågintensiva emotionella uttrycket irritation med undantaget att professionella hjälpare och studenter var lika bra på att avkoda irritation som ilska för den visuella modaliteten (se Figur 1). För övriga effekter se Tabell 4.

Figur 1

Medelvärde för antal korrekta svar på ERAM utifrån intensitet och stimulusmodalitet enligt grupptillhörighet

Tabell 4

Effekter av variansanalys för emotionerna ilska och irritation

F p η p ²

Grupp 57.039 < .001 .152

Modalitet 32.936 < .001 .094

Modalitet x Grupp 3.506 .031 .011

Intensitet 198.293 < .001 .383

Intensitet x Grupp 0.010 .919 .000

Modalitet x Intensitet 28.781 < .001 .083

Modalitet x Intensitet x Grupp 3.985 .020 .012

(18)

18

Tabell 5

Bonferronikorrigerade parvisa jämförelser för emotionerna ilska och irritation

Grupp Ilska Irritation t Cohen's d p

Bekvämlighetsurval Visuell Visuell 3.660 0.204 .018

Auditiv Auditiv 8.212 0.458 < .001

Visuell-auditiv Visuell-auditiv 9.283 0.518 < .001 Professionella hjälpare

och studenter Visuell Visuell 1.839 0.103 .41

Auditiv Auditiv 4.977 0.278 < .001

Visuell-auditiv Visuell-auditiv 10.387 0.580 < .001

Emotionsfamilj glädje

En mixad 2 grupp (Bekvämlighetsurval / Professionella hjälpare och studenter) x 3 modalitet (Visuell / Auditiv / Visuell-auditiv) x 2 intensitet (Glädje / Välbehag) variansanalys visade en liten huvudeffekt av grupp (se Tabell 6) där professionella hjälpare var bättre (M = 1.30, SD = 0.71) än bekvämlighetsurvalet (M = 1.21, SD = 0.72). Ingen interaktionseffekt visades av Modalitet x Intensitet x Grupp (se Tabell 6, se Figur 2 för avsaknad av trevägsinteraktion).

Figur 2

Medelvärde för antal korrekta svar på ERAM utifrån intensitet och stimulusmodalitet enligt grupptillhörighet

(19)

19

Tabell 6

Effekter av variansanalys för emotionerna glädje och välbehag

F p η p ²

Grupp 7.202 .008 .022

Modalitet 85.374 < .001 .211

Modalitet x Grupp 0.231 .791 .001

Intensitet 104.057 < .001 .246

Intensitet x Grupp 4.360 .038 .013

Modalitet x Intensitet 217.616 < .001 .406

Modalitet x Intensitet x Grupp 0.747 .473 .002

Emotionsfamilj sorg

En mixad 2 grupp (Bekvämlighetsurval / Professionella hjälpare och studenter) x 3

modalitet (Visuell / Auditiv / Visuell-auditiv) x 2 intensitet (Förtvivlan / Sorg) variansanalys visade en huvudeffekt av grupp (se Tabell 7) där professionella hjälpare var bättre (M = 1.09, SD = 0.73) än bekvämlighetsurvalet (M = 0.89, SD = 0.73). Ingen interaktionseffekt visades av Modalitet x Intensitet x Grupp (se Tabell 7, se Figur 3 för avsaknad av trevägsinteraktion).

Figur 3

Medelvärde för antal korrekta svar på ERAM utifrån intensitet och stimulusmodalitet enligt grupptillhörighet

(20)

20

Tabell 7

Effekter av variansanalys för emotionerna förtvivlan och sorg

F p η p ²

Grupp 20.604 < .001 .061

Modalitet 24.730 < .001 .072

Modalitet x Grupp 1.355 .259 .004

Intensitet 70.454 < .001 .181

Intensitet x Grupp 20.344 < .001 .060

Modalitet x Intensitet 2.528 .081 .008

Modalitet x Intensitet x Grupp 0.170 .842 .001

Emotionsfamilj rädsla

En mixad 2 grupp (Bekvämlighetsurval / Professionella hjälpare och studenter) x 3

modalitet (Visuell / Auditiv / Visuell-auditiv) x 2 intensitet (Rädsla / Ängslan) variansanalys visade en liten huvudeffekt av grupp (se Tabell 8) där professionella hjälpare var bättre (M = 1.02, SD = 0.76) än bekvämlighetsurvalet (M = 0.92, SD = 0.76). Ingen interaktionseffekt visades av Modalitet x Intensitet x Grupp (se Tabell 8, se Figur 4 för avsaknad av trevägsinteraktion).

Figur 4

Medelvärde för antal korrekta svar på ERAM utifrån intensitet och stimulusmodalitet enligt grupptillhörighet

(21)

21

Tabell 8

Effekter av variansanalys för emotionerna rädsla och ängslan

F p η p ²

Grupp 6.844 .009 .021

Modalitet 153.993 < .001 .326

Modalitet x Grupp 1.060 .346 .003

Intensitet 7.702 .006 .024

Intensitet x Grupp 5.242 .023 .016

Modalitet x Intensitet 66.566 < .001 .173

Modalitet x Intensitet x Grupp 1.880 .154 .006

Diskussion

Nedan presenteras en sammanfattning av resultatet utifrån de två frågeställningarna, följt av resultatdiskussion, metoddiskussion och slutligen en kort sammanfattande diskussion.

Sammanfattning av resultat

Avseende frågeställningen om det finns någon skillnad mellan grupperna angående förväxlingar inom och mellan emotionsfamiljer vid identifiering av uttryckta emotioner i de tre modaliteterna (visuell, auditiv och visuell-auditiv) visade resultatet att det fanns procentuella skillnader hur ofta förväxlingar gjordes, men att grupperna i hög grad gjorde samma typ av förväxlingar för samtliga emotioner i de tre modaliteterna. Det enda undantaget där grupperna skildes åt angående det alternativ med högst svarsfrekvens var för den uttryckta emotionen sorg i den auditiva modaliteten, men den procentuella skillnaden var för liten för att ha någon praktisk eller teoretisk signifikans.

Avseende frågeställningen om det fanns någon skillnad mellan grupperna angående identifiering av olika emotionsfamiljer (ilska, glädje, sorg och rädsla) visar resultatet att professionella hjälpare och studenter var bättre på att identifiera samtliga emotionsfamiljer

sammanslaget över de tre modaliteterna jämfört med bekvämlighetsurvalet. Störst skillnad mellan grupperna fanns för emotionsfamiljen ilska där huvudeffekten av grupp var 15.2%, vilket anses vara en stor effekt (se t.ex. Draper, 2020, för bedömning av effektstorlekar). Näst störst skillnad mellan grupperna fanns för emotionsfamiljen sorg där huvudeffekten av grupp var 6.1%, vilket anses vara

(22)

22

en medelstor effekt. Det var minst skillnad mellan grupperna för emotionsfamiljerna glädje och sorg, där huvudeffekterna av grupp var 2.2% respektive 2.1%, vilket anses vara små effekter.

Resultatdiskussion

Förväxlingar inom och mellan emotionsfamiljer

För emotionerna ilska, välbehag, förtvivlan och ängslan var de vanligaste förväxlingarna motsvarande hög- eller lågintensivt alternativ i samma emotionsfamilj för båda grupperna i samtliga modaliteter. För emotionerna irritation, glädje och sorg var de vanligaste förväxlingarna utanför deras emotionsfamilj i samtliga modaliteter för båda grupperna. Det innebär att både inom emotionsfamiljer och utanför emotionsfamiljer bestod de vanligaste förväxlingarna av hög- och lågintensiva emotioner, samt emotioner med positiv och negativ valens. Resultatet indikerar att det inte finns några skillnader mellan grupperna och inte några tydliga teman för vilken typ av

emotioner som oftast förväxlas inom eller utanför sina emotionsfamiljer. Vilka förväxlingar som görs tycks inte bero på om emotionerna som uttrycks är hög- eller lågintensiva. Det tycks inte heller bero på om emotionerna har en positiv eller en negativ valens.

För emotionen rädsla var det vanligaste felsvaret ängslan enbart i modaliteten visuell-auditiv för båda grupperna. Rädsla och ängslan är hög- respektive lågintensiva emotioner inom samma emotionsfamilj. Det indikerar att förväxlingar inom emotionsfamiljer kan vara vanligare när en bedömning görs utifrån fler informationskanaler och förväxlingar mellan emotionsfamiljer kan vara vanligare när en bedömning görs utifrån färre informationskanaler. Emotioner av olika intensitet inom samma emotionsfamilj har visats innefatta liknande emotionella uttryck (Ekman, 1992;

Bänziger et al. 2012). Modaliteten visuell-auditiv (både video och ljud) gav mer information för att bedöma emotionsuttrycken än modaliteterna visuell (enbart video) och auditiv (enbart ljud). Mer information bör göra det lättare att göra en korrekt bedömning av emotionsuttrycken. Mer information antas därför låta bedömaren komma närmare ett korrekt svar och därmed hamnar de förväxlingar som görs mer frekvent inom samma emotionsfamilj än utanför emotionsfamiljen, men det fanns två undantag. Det första undantaget gäller för emotionen sorg, där båda grupperna fick en

(23)

23

något högre andel rätt svar i modaliteten visuell jämfört med modaliteten visuell-auditiv. Det andra undantaget gäller för emotionen välbehag, där båda grupperna fick en något högre andel rätt svar i modaliteten auditiv jämfört med modaliteten visuell-auditiv. Resultatet talar emot att samtliga emotioner blir lättare att identifiera ju mer information som finns tillgänglig. En möjlig förklaring till de två undantagen kan vara att det auditiva uttrycket för sorg och det visuella uttrycket för välbehag är svårare att korrekt identifiera och att de stör lösningsstrategierna deltagarna använder sig av i visuell respektive auditiv modalitet. Det finns även en möjlighet att olika försöksdeltagare har olika typer av lösningsstrategier för att tolka icke-verbala emotionsuttryck (Bänziger et al.

2009). Om det är fallet kan olika lösningsstrategier vara olika effektiva beroende på i vilken modalitet emotionerna uttrycks.

I den visuella modaliteten var rädsla den emotion som var svårast för båda grupperna att identifiera då andelen som svarade rätt var 26% för bekvämlighetsurvalet respektive 33% för professionella hjälpare och studenter, vilket var lägst andel rätt svar av alla testade emotioner.

Rädsla var lättare att identifiera för båda grupperna i den auditiva modaliteten då andelen som svarade rätt var 52% för bekvämlighetsurvalet respektive 59% för professionella hjälpare och studenter. Resultatet indikerar att båda grupperna använde sig mer framgångsrikt av auditiv information jämfört med visuell information vid identifiering av rädsla. Biguet (2020) visade att samtliga försöksdeltagare fick färre rätta svar i auditiv modalitet jämfört med visuell och visuell- auditiv modalitet. Emotionsuttrycket för rädsla tolkas därför att skilja sig från de övriga

emotionerna som ingår i ERAM i det avseendet.

I den visuella modaliteten förväxlade båda grupperna den uttryckta emotionen rädsla i högre grad med emotionen förtvivlan än hur många som svarade rätt. Det visuella uttrycket för rädsla tolkas därmed ha flera likheter med det visuella uttrycket för förtvivlan, men att de auditiva uttrycken för emotionerna skiljer sig mer från varandra.

I den auditiva modaliteten förväxlade båda grupperna den uttryckta emotionen glädje med förtvivlan mer frekvent än rätt svar för båda grupperna. Trots att glädje och förtvivlan har olika

(24)

24

valens och kan anses ha uttryck som är mycket olika varandra indikerar resultatet på att de auditiva uttrycken för de båda emotionerna är relativt lika varandra.

För emotionen sorg angavs felsvaret ängslan mer frekvent än rätt svar för

bekvämlighetsurvalet i den auditiva modaliteten, medan det vanligaste svaret för professionella hjälpare och studenter var det korrekta alternativet sorg. Därmed var det auditiva uttrycket för sorg det enda uttryck för samtliga modaliteter där det vanligaste svarsalternativet skildes åt mellan de båda grupperna. Andelen rätt svar som skilde sorg och ängslan för bekvämlighetsurvalet var enbart 1% och resultatet anses därför inte vara av varken teoretisk eller praktisk signifikans.

Irritation var den emotion som i högst grad förväxlades med de exkluderade emotionerna, som inte utgjorde en del av ett par i samma emotionsfamilj (avsmak, intresse, lättnad och stolthet), för båda grupperna i modaliteterna auditiv och visuell-auditiv. Bänziger et al. (2012) visade i deras studie att irritation ofta förväxlas med intresse i den auditiva modaliteten, vilket troligtvis också är fallet i föreliggande testning. Emotionerna avsmak, intresse, lättnad och stolthet analyserades inte i föreliggande studie p.g.a. att ingen av dem utgjorde en del av ett par inom samma emotionsfamilj i mätinstrumentet ERAM och ansågs därför inte vara nödvändiga för att besvara forskningsfrågorna.

Identifiering av emotionsfamiljer

Gruppen professionella hjälpare och studenter var bättre på att identifiera samtliga emotionsfamiljer och gjorde färre förväxlingar jämfört med bekvämlighetsurvalet. De mest betydande skillnaderna mellan grupperna fanns vid identifiering av emotionsfamiljerna ilska och sorg. Vid identifiering av emotionsfamiljerna glädje och rädsla är skillnaderna mellan grupperna små och tycks därför inte påverkas i lika hög grad av de orsaker som påverkar identifiering av emotionsfamiljerna ilska och sorg. Variansanalysen för emotionsfamiljen ilska visade även en interaktionseffekt av modalitet, intensitet och grupp. Efterföljande Bonferronikorrigerade parvisa jämförelser visade att professionella hjälpare och studenter var lika bra på att avkoda irritation och ilska för den visuella modaliteten. Bekvämlighetsurvalet var däremot sämre på att avkoda irritation än ilska. Effektstorleken var dock enbart 1.2% och anses vara för liten för ha någon praktisk eller

(25)

25

teoretisk signifikans (Draper, 2020).

Eftersom ERA tycks vara en föränderlig förmåga som kan påverkas av

träningsinterventioner (Bänziger, 2016; Scherer, 2009a) är det möjligt att professionella hjälpare och studenter inom hjälpande yrken utvecklar sin ERA i sitt yrke och under sin utbildning. Det kan antas att vårdtagare ofta uttrycker emotioner med negativ valens inför vårdgivare, vilket också kan bidra till träningseffekter för professionella hjälpare. Träningseffekterna skulle därför kunna förklara skillnaderna mellan grupperna för emotionsfamiljerna ilska och sorg. Däremot kan det argumenteras att emotionsuttryck inom emotionsfamiljen rädsla också är vanligt förekommande inom vården. Om träningseffekter för professionella hjälpare var den enda skillnaden mellan de två grupperna i studien, kan det antas att det varit större skillnad mellan grupperna för samtliga

emotionsfamiljer med negativ valens, vilket även innefattar emotionsfamiljen rädsla.

En annan faktor som kan påverka resultatet är selektionseffekter där personer som utbildar sig och är verksamma inom hjälpande yrken kan ha en medfödd talang för emotionsperception som har påverkat deras yrkesval. Däremot har det visats vara svårt att avgöra om hjälpande yrken i högre grad rekryterar personer med hög ERA eller om de individerna utvecklar den förmågan i sin

yrkesroll (Scherer & Scherer, 2011).

Det är inte enbart eventuella träningseffekter och selektionseffekter som potentiellt kan förklara skillnaderna mellan grupperna. Studier har visat att det finns små könsskillnader i

emotionsperception för icke-verbala uttryck, där kvinnor tenderar prestera bättre än män (Hoffmann et al., 2010; Thompson & Voyer, 2014). Demografisk data för könstillhörighet fanns inte att tillgå för den data som analyserats i föreliggande studie. Därför går det inte att se om de skillnader som finns för identifiering av emotionsfamiljer mellan grupperna kan förklaras av kön. Däremot går det att se hur könsfördelningen ser ut i Sverige för de yrkesgrupper som utgjorde gruppen

professionella hjälpare, vilket kan ge en indikation för hur könsfördelningen sett ut i föreliggande studie. Gruppen professionella hjälpare utgjordes av yrkesgrupperna logoped, läkare, psykolog, sjukgymnast, sjuksköterska och socionom. Enligt Statistiska centralbyrån (2019) utgjorde kvinnor

(26)

26

en majoritet i samtliga av de ovannämnda yrkesgrupperna i Sverige år 2017. Det kan indikera att det fanns en högre andel kvinnor än män gruppen professionella hjälpare och studenter inom hjälpande yrken jämfört med bekvämlighetsurvalet. I det fallet skulle könsfördelningen mellan grupperna kunna vara en alternativ förklaring till varför gruppen professionella hjälpare och

studenter var bättre på att identifiera emotionsfamiljerna ilska och sorg än bekvämlighetsurvalet, då kvinnor generellt är bättre på att identifiera icke-verbala emotionsuttryck. Även om

könsfördelningen mellan yrkesgrupperna på en nationell nivå möjligtvis kan ge en indikation kring hur könsfördelningen såg ut i gruppen professionella hjälpare och studenter i föreliggande studie går det inte att dra några slutsatser om det påverkat resultatet.

Metoddiskussion

Den data som användes i föreliggande studie samlades inte in av författaren. Erhållen data var avkodad av anonymitetsskäl och därför saknas demografiska data som t.ex. könsidentitet som eventuellt kan givit förklaringsvärde för resultatet. Omständigheter kring Covid-19 gjorde att den studie och datainsamling som först planerats inte kunde utföras. Restriktioner för att stoppa

smittspridningen av coronaviruset förhindrade testning med försöksdeltagare, som planerats att äga rum på Mittuniversitets campus. De personer som anmält sig för att delta i studien kunde inte utföra testet på distans. Därför formulerades nya frågeställningar som kunde studeras med redan insamlad data. Eftersom författaren till föreliggande studie inte deltagit i datainsamlingen kan författaren personligen inte säkerställa att allt har utförts enligt etiska riktlinjer, men det är svårt att se hur något skulle avvikit från de etiska riktlinjerna. Studien har ingått i ett forskningsprojekt där ansvarig forskare och upphovsman funnits tillgänglig för etiska resonemang.

Gruppen professionella hjälpare och studenter inom hjälpande yrken bildade en gemensam grupp. Det går att argumentera för att den gruppen utgörs av personer med olika mycket erfarenhet av att hjälpa vårdtagare och därför bör utgöras av två grupper istället för en. Enligt Biguet (2020) presterar professionella hjälpare något bättre inom ERA jämfört med studenter inom hjälpande yrken, men enbart för den visuella modaliteten. Därför är det möjligt att om professionella hjälpare

(27)

27

och studenter inom hjälpande yrken hade delats upp i två separata grupper i föreliggande studie så kunde det funnits skillnader i resultat från variansanalyserna angående den visuella modaliteten.

När försöksdeltagarna ska välja en etikett som passar bäst in på den uttryckta emotionen utifrån ett begränsat antal svarsalternativ finns det en risk att de använder sig av

uteslutningsmetoder istället för genuin emotionsigenkänning (Bänziger et al., 2009). I ERAM finns det ett stort antal olika svarsalternativ, vilket antas minska risken för att försöksdeltagarna använder sig av uteslutningsmetoder och faktiskt testar försöksdeltagarnas ERA (Banse & Scherer, 1996).

I testmaterialet från GEMEP uttrycker skådespelare emotioner som simuleras utifrån

Stanislavskijs system (Bänziger & Scherer, 2007) för att emotionsuttrycken ska vara så genuina och verklighetstrogna som möjligt (Moore, 1984). Om stimulimaterial med helt spontana och genuina emotionsuttryck användes istället för skådespelares simulerade uttryck skulle den ekologiska validiteten möjligtvis förbättras, men det anses vara mycket problematiskt att producera den typen av stimuli för testning. Därför anses simulerade emotionsuttryck från skådespelare vara det bästa alternativet vid den här typen av forskning (Bänziger et al., 2012).

Skådespelarna i materialet från GEMEP är från fransktalande Schweiz (GEMEP; Bänziger et al., 2012) och har därför en talmelodi som skiljer sig från svensktalande. Trots att de auditiva uttrycken framställdes med hjälp av ett pseudospråk (fiktiva ord), är det tänkbart att en talmelodi som skiljer sig från försöksdeltagarnas talmelodi kan påverka resultatet för den auditiva och visuell- auditiva modaliteten.

En stor majoritet av försöksdeltagarna antas vara svenska medborgare. Därför bör

generaliserbarheten av resultatet i föreliggande studie till andra kulturer begränsad. Materialet från GEMEP framställdes av europeiska fransktalande semi-professionella skådespelare (GEMEP;

Bänziger et al., 2012). Generaliserbarheten av resultatet till andra kulturer är begränsas även av detta då det tycks finnas skillnader hur väl emotioner identifieras, trots att uttrycken framställs med ett pseudospråk (Scherer et al., 2001). För att öka den ekologiska validiteten av studier i framtiden med liknande mätinstrument bör fler skådespelare inkluderas med olika etniciteter, kulturer och

(28)

28

språk.

Sammanfattande Diskussion

Syftet med denna utforskande studie var att undersöka några av de potentiella skillnader i emotionsigenkänning som kan finnas mellan personer som har utbildning och yrkeserfarenhet inom hjälpande professioner jämfört med ett bekvämlighetsurval. Resultatet indikerar att det finns

skillnader mellan grupperna angående identifiering av emotionsfamiljer och att de olika

förväxlingar som görs är relativt lika för de båda grupperna. Det är inte fastställt om de skillnader som fanns mellan grupperna vid identifiering av de olika emotionsfamiljerna kvarstår om

emotionsfamiljerna utgörs av andra hög- och lågintensiva emotioner än de specifika emotioner som ingår i studien. Framtida studier inom området rekommenderas därför att inkludera ett större antal med emotioner av varierande intensitet inom samma emotionsfamilj.

Avsikten med studien var inte att utförligt undersöka frågan huruvida erfarenhet och utbildning inom hjälpande professioner påverkar emotionsigenkänning, utan istället

förhoppningsvis ge upphov till nya infallsvinklar inom forskningsområdet för framtida studier.

Därmed är det inte kartlagt om de skillnader som fanns mellan grupperna framförallt berodde på utbildning och yrkserfarenhet inom hjälpande professioner eller om resultatet påverkats av andra faktorer. Trots de ovannämnda metodologiska begränsningarna kan studien anses bidra till rådande forskningsläge.

Framtida studier inom forskningsfältet för emotionsigenkänning rekommenderas att framställa och använda stimulimaterial från skådespelare från flera olika kulturer med olika förstaspråk för att öka resultatens generaliserbarhet. För att öka den ekologiska validiteten

rekommenderas även utveckling av nya testmetoder som inriktas på att göra stimulimaterialet så likt verkliga situationer som möjligt. För att lyckas med det kan emotionsigenkänningstester förslagsvis framställas med hjälp av virtual reality-teknik. Fortsatta studier inom emotionsigenkänning anses vara motiverat då ökad kunskap inom området potentiellt kan bidra till att utveckla utbildning för flera hjälpande professioner och förbättra patientcentrerad vård.

(29)

29

Referenser

Arnold, M. B. (1960). Emotion and Personality. Psychological Aspects, Vol. 1. New York:

Columbia University Press.

Banse, R., & Scherer, K. R. (1996). Acoustic profiles in vocal emotion expression. Journal of Personality and Social Psychology, 70(3), 614–636.

https://doi.org/10.1037/00223514.70.3.614

Baum, K. M., & Nowicki, S. (1998). Perception of emotion: Measuring decoding accuracy of adult prosodic cues varying in intensity. Journal of Nonverbal Behavior, 22(2), 89-107.

https://doi.org/10.1023/A:1022954014365

Biguet, B. (2020). Skillnader i emotionsigenkänning. En jämförelse mellan hjälpande professioner och ett bekvämlighetsurval [Opublicerad examensuppsats]. Institutionen för psykologi och socialt arbete, Mittuniversitetet.

Bänziger, T., & Scherer, K. R. (2007). Using actor portrayals to systematically study multimodal emotion expression: The GEMEP corpus. In A. C. R. Paiva, R. Prada, & R. W. Picard (Eds.), Affective computing and intelligent interaction (pp. 476–487). Springer.

https://doi.org/10.1007/978-3-540-74889-2_42

Bänziger, T., Grandjean, D., & Scherer, K. R. (2009). Emotion recognition from expressions in face, voice, and body: the multimodal emotion recognition test (MERT). Emotion, 9(5), 691.

Bänziger, T., & Scherer, K. R. (2010). Introducing the geneva multimodal emotion portrayal (gemep) corpus. In K. R. Scherer, T. Bänziger, & E. B. Roesch (Eds.), Blueprint for

(30)

30

affective computing: A sourcebook (pp. 271–294). Oxford, UK: Oxford University Press.

Bänziger, T., Scherer, K. R., Hall, J. A., & Rosenthal, R. (2011). Introducing the MiniPONS: A short multichannel version of the profile of nonverbal sensitivity (PONS). Journal of Nonverbal Behavior, 35(3), 189–204. https://doi.org/10.1007/s10919-011-0108-3

Bänziger, T., Mortillaro, M., & Scherer, K. R. (2012). Introducing the geneva multimodal

expression corpus for experimental research on emotion perception. Emotion, 12(5), 1161- 1179. doi:http://dx.doi.org.proxybib.miun.se/10.1037/a0025827

Bänziger, T. (2016). Accuracy of judging emotions. I J. A. Hall, M. Mast, & T. V. West (Red.), The Social Psychology of Perceiving Others Accurately (s. 23-51). Cambridge University Press.

Darwin, C. (1872). The expression of the emotions in man and animals. London, UK: Murray (3rd edn, ed. P. Ekman, London, UK: HarperCollins, 1998)

Dernfors, E. (2020). Tolkning av negativa emotioner: en jämförelse mellan hjälpande professioner och ett bekvämlighetsurval [Opublicerad examensuppsats]. Institutionen för psykologi och socialt arbete, Mittuniversitetet.

Draper, S. W. (2020). Effect Size. https://www.psy.gla.ac.uk//~steve/best/effect.html

Ekman, P., & Friesen, W. V. (1975). Unmasking the face: A guide to recognizing emotions from facial clues. Prentice-Hall, Oxford.

Ekman, P., Friesen, W. V., & Ancoli, S. (1980). Facial signs of emotional experience. Journal of

(31)

31

Personality and Social Psychology, 39(6), 1125-1134.

doi:http://dx.doi.org.proxybib.miun.se/10.1037/h0077722

Ekman, P. (1992). An argument for basic emotions. Cognition & Emotion, 6, 169–200.

doi:10.1080/0269993920841106

Ekman, P. (1999). Basic Emotions. In T. Dalgleish, M. Power (Eds.), Handbook of Cognition and Emotion. Sussex UK: John Wiley & Sons Ltd.

Elfenbein, H. A., Mandal, M. K., Ambady, N., Harizuka, S., & Kumar, S. (2002). Cross-cultural patterns in emotion recognition: Highlighting design and analytical

techniques. Emotion, 2(1), 75-84. doi:http://dx.doi.org.proxybib.miun.se/10.1037/1528- 3542.2.1.75

Flykt, A., Hörlin, T., Linder, F., Wennstig, A., Sayeler, G., Hess, U., & Bänziger, T. (in press).

Exploring emotion recognition and the understanding of others’ unspoken thoughts and feelings when narrating self-experienced emotional events. Journal of nonverbal behaviour.

Hall, J. A. (1984). Nonverbal sex differences: Communication accuracy and expressive style.

Baltimore: The Johns Hopkins University Press.

Hall, J. A. (2001). The PONS test and the psychometric approach to measuring interpersonal sensitivity. In J. A. Hall & F. J. Bernieri (Eds.), Interpersonal sensitivity: Theory and measurement (pp. 143–160). Mahwah, NJ: Erlbaum.

https://doi.org/10.4324/9781410600424

(32)

32

Hall, J. A., Andrzejewski, S. A., & Yopchick, J. E. (2009). Psychosocial correlates of interpersonal sensitivity: A meta-analysis. Journal of Nonverbal Behavior, 33(3), 149-180.

doi:http://dx.doi.org.proxybib.miun.se/10.1007/s10919-009-0070-5

Hall, J. A., Mast, M. S., & West, T. W. (2016). The social psychology of perceiving others accurately. Cambridge: Cambridge University Press.

Hoffmann, H., Kessler, H., Eppel, T., Rukavina, S., & Traue, H. C. (2010). Expression intensity, gender and facial emotion recognition: Women recognize only subtle facial emotions better than men. Acta Psychologica, 135(3), 278-283.

doi:http://dx.doi.org.proxybib.miun.se/10.1016/j.actpsy.2010.07.012

Holding, B. C., Laukka, P., Fischer, H., Bänziger, T., Axelsson, J., & Sundelin, T. (2017).

Multimodal emotion recognition is resilient to insufficient sleep: Results from cross- sectional and experimental studies. Sleep, 40(11). https://doi.org/10.1093/sleep/zsx145

Hovey, D., Henningsson, S., Cortes, D. S., Bänziger, T., Zettergren, A., Melke, J., Fischer, H., Laukka, P., & Westerberg, L. (2017). Emotion recognition associated with polymorphism in oxytocinergic pathway gene ARNT2. Social Cognitive and Affective Neuroscience, 13(2), 173-181.

Kamiloğlu, R. G., Fischer, A. H., & Sauter, D. A. (2020). Good vibrations: A review of vocal expressions of positive emotions. Psychonomic Bulletin & Review, 27(2), 237-265.

doi:http://dx.doi.org.proxybib.miun.se/10.3758/s13423-019-01701-x

(33)

33

Lazarus, R. S. (1991). Emotion and adaptation. Oxford University Press.

Laukka, P., & Elfenbein, H. A. (2012). Emotion appraisal dimensions can be inferred from vocal expressions. Social Psychological and Personality Science, 3(5), 529–536.

Laukka, P., Elfenbein, H. A., Thingujam, N. S., Rockstuhl, T., Iraki, F. K., Chui, W., & Althoff, J.

(2016). The expression and recognition of emotions in the voice across five nations: A lens model analysis based on acoustic features. Journal of Personality and Social

Psychology, 111(5), 686-705. doi:http://dx.doi.org.proxybib.miun.se/10.1037/pspi0000066

Moore, S. (1984). The Stanislavski system: The professional training of an actor: digested from the teachings of Konstantin S. Stanislavski. Penguin books.

Nowicki, S., & Duke, M. P. (1994). Individual differences in the nonverbal communication of affect: The diagnostic analysis of nonverbal accuracy scale. Journal of Nonverbal Behavior, 18(1), 9–35. https://doi.org/10.1007/BF02169077

Ondris, A. (2020). Igenkänning av positiva emotioner. En jämförelse mellan hjälpande professioner och ett bekvämlighetsurval [Opublicerad examensuppsats]. Institutionen för psykologi och socialt arbete, Mittuniversitetet.

Piccolo, L. D, Goss, C., & Zimmermann, C. (2005). Erratum to “The third meeting of the Verona network on sequence analysis. Finding common grounds in defining patient cues and concerns and the appropriateness of provider responses” [Patient Educ Couns 57 (2005) 241–244]. Patient Education and Counseling, 59(1), 111.

(34)

34

https://doi.org/10.1016/j.pec.2005.04.018

Ruben, M. A. (2016). Interpersonal accuracy in the clinical setting. I J. A. Hall, M. Mast, & T. V.

West (Red.), The Social Psychology of Perceiving Others Accurately (s. 287-308).

Cambridge University Press.

Russell, J. A. (2003). Core affect and the psychological construction of emotion. Psychological Review, 110(1), 145-172. doi:http://dx.doi.org.proxybib.miun.se/10.1037/0033-

295X.110.1.145

Pitterman, H., & Nowicki, S., Jr. (2004). A test of the ability to identify emotion in human standing and sitting postures: The diagnostic analysis of nonverbal accuracy-2 posture test

(DANVA2-POS). Genetic, Social, and General Psychology Monographs, 130(2), 146-162.

doi:http://dx.doi.org.proxybib.miun.se/10.3200/MONO.130.2.146-162

Sander, D., Grandjean, D., Kaiser, S., Wehrle, T., & Scherer, K. R. (2007). Interaction effects of perceived gaze direction and dynamic facial expression: Evidence for appraisal theories of emotion. European Journal of Cognitive Psychology, 19(3), 470-480.

Sacharin, V., Schlegel, K., & Scherer, K. R. (2012). Geneva emotion wheel rating study (Report).

Geneva, Switzerland: University of Geneva, Swiss Center for Affective Sciences.

(PDF) Geneva Emotion Wheel Rating Study.

(35)

35

Sauter, D. A. (2017). The nonverbal communication of positive emotions: An emotion family approach. Emotion Review, 9(3), 222-234.

doi:http://dx.doi.org.proxybib.miun.se/10.1177/1754073916667236

Scherer, K. R., Banse, R., & Wallbott, H. G. (2001). Emotion inferences from vocal expression correlate across languages and cultures. Journal of Cross-Cultural Psychology, 32(1), 76-92.

http://dx.doi.org.proxybib.miun.se/10.1177/0022022101032001009

Scherer, K.R., Schorr, A., & Johnstone, T. (Eds.) (2001). Appraisal processes in emotion: Theories, methods, research. Oxford: Oxford University Press

Scherer, K., & Ellgring, H. (2007). Are facial expressions of emotion produced by categorical affect programs or dynamically driven by appraisal? Emotion, 7(1), 113-130.

Scherer, K. R. (2009a). Emotions are emergent processes: they require a dynamic computational architecture. Philosophical Transactions of The Royal Society B Biological

Sciences, 364(1535):3459-74. https://doi.org/10.1098/rstb.2009.0141

Scherer, K. R. (2009b). Emotion theories and concepts (psychological perspectives). Oxford companion to emotion and the affective sciences (eds Sander, D., & Scherer, K. R.), pp.

145–149. Oxford, UK: Oxford University Press.

Scherer, K. R., Bänziger, T., & Roesch, E. (Eds.). (2010). A Blueprint for Affective Computing: A sourcebook and manual. Oxford University Press.

Scherer, K. R., & Scherer, U. (2011). Assessing the ability to recognize facial and vocal expressions

(36)

36

of emotion: Construction and validation of the emotion recognition index. Journal of Nonverbal Behavior, 35(4), 305-326.

Schlegel, K., Vicaria, I. M., Isaacowitz, D. M., & Hall, J. A. (2017). Effectiveness of a short

audiovisual emotion recognition training program in adults. Motivation and Emotion, 41(5), 646-660. doi:http://dx.doi.org.proxybib.miun.se/10.1007/s11031-017-9631-9

Shields, S. A., & Kappas, A. (2006). Magda B. Arnold's contributions to emotions

research, Cognition and Emotion, 20:7, 898-901, DOI: 10.1080/02699930600615736

Statistiska centralbyrån (2019). Yrkesregistret med yrkesstatistik 2017.

https://www.scb.se/contentassets/1fe7f957920f4eaf97bddcc0270553f2/am0208_2017a01_s m_am33sm1901.pdf

Thompson, A. E., & Voyer, D. (2014). Sex differences in the ability to recognise non-verbal displays of emotion: A meta-analysis. Cognition and Emotion, 28(7), 1164-1195.

doi:http://dx.doi.org.proxybib.miun.se/10.1080/02699931.2013.875889

Vetenskapsrådet. (2017). God forskningssed. Stockholm: Vetenskapsrådet

References

Related documents

Det andra som framhävs i studien som besvarar vilka faktorer som beaktas i beslutsprocessen är vikten av att beakta mänskliga faktorer. Utifrån analysen identifierade vi olika

När det gäller nationella regler får medlemsstaterna i syfte att säkerställa en högre skyddsnivå och upprätthålla och införa regler avsedda att bekämpa

[r]

KSLA anser att utredningsforslaget om handelsmetoder i livsmedelskedjan förbättrar möjligheterna till en bättre riskspridning och ansvarstagande i hela livsmedelskedjan

NNR har valt att inte kommentera alla delar i förslaget utan begränsar sitt remissvar till de delar av förslaget som innebär en överimplementering av Europaparlamentets och rådets

Sámiid Riikkasearvi (SSR) har beretts tillfälle att lämna synpunkter på departementsskrivelsen Genomförande av EU:s direktiv om otillbörliga handelsmetoder mellan företag

En sådan möjlighet eller rätt till överprövning av tillsynsmyndighetens beslut och andra alternativa rättsmedel tycks inte finnas tillgängliga för en klagande enligt

Visita anser sammantaget att tillämpningsområdet för den svenska lagstiftningen på aktuellt område inte ska vara vidare än vad UTP-direktivet kräver och avstyrker