• No results found

när de refererar till en självkörande bil. Förklaringen ”Bilen detekterade att en gångtrafikant

befann sig framför och stannade.” skulle kunna uppfattas som något mentalistisk då den trots

allt beskriver det bilen gör som ett framresonerat beslut snarare än en rent mekanisk process. En rent mekanistisk förklaring skulle istället kunna varit ”Bilens sensorer detekterade ett ob-

jekt 5 meter framför vilket ledde till att en aktiveringsignal skickades till bromsarna.”. Denna

typ av förklaringar skulle troligtvis också gjort att förklaringarna uppfattats som betydligt mindre sannolika för personen.

Det är möjligt att en dikotonom skala likt tidigare hade fungerat bättre då det mekanistis- ka språket ställs mer i direkt kontrast till det mentalistiska. Då hade deltagare blivit tvungna att väga vilken förklaring som minst dåligt förklarade beteendet i fall där även det mekanis- tiska språket upplevs för mentalistiskt. Samtidigt är det ett intressant fynd att båda typer av förklaringar kan anses sannolika samtidigt. Det är också en indikation på att den typ av förklaringar som beskriver robotens beteende som mekanistiskt i Marchesi m.fl. (2019) också stor utsträckning godtas för att beskriva en persons beteende.

5.4 Slutsatser

Resultaten tyder på att normer i stor utsträckning appliceras på liknande sätt för personer och robotar. Person och robot erhöll liknande skattningar av moralisk godtagbarhet för sina beslut medan AIS fick betydligt lägre. Det är anmärkningsvärt att det räckte med att agenten beskrevs och illustrerades med bild för att denna effekt skulle uppstå. Trots att alla agenter beskrevs i samma termer och med samma förmågor särbehandlades AIS-agenten av deltagare. Endast själva förkroppsligandet av ett autonomt system ser alltså ut att påverka hur det be- döms moraliskt. Resultaten kring hur mycket skuld och klander agenterna tillskrevs var mer tvetydiga och varierade mellan scenarion. Att resonera kring klander när det gäller autonoma system ter sig vara en process med flera okända variabler. Robot och AIS tillskrevs i snitt högst grad klander samtidigt som rättfärdiganden bakom inte verkade använda samma infor- mation som när en människa skuldbeläggs. Flera deltagare ansåg att också skulden egentligen hörde hemma hos någon annan än de artificiella agenterna. Kanske hade andelen med denna uppfattning visat sig ännu vanligare om frågan ställts direkt. Nu fångades detta perspektiv endast upp från de som valde att dela med sig av sin uppfattning via fritextsvaren.

Framtida studier skulle med fördel kunna bemöta frågan om distribuerad skuld mer direkt. Föreliggande studie utgick från att samma modeller som används för att utvärdera skuldbe- läggande av människor kan appliceras på artificiella agenter. Med tanke på svårigheten att replikera tidigare resultat på frågan kanske är detta en förhastad slutsats som kräver mer grundläggande utvärdering. Vad är det egentligen som mäts när människor ombeds värdera hur mycket skuld en artificiell agent förtjänar? Det går inte att utesluta att deltagare accep- terar frågeställningen för studiens skuld men egentligen inte känner att skuld är relevant för sådant som självkörande bilar. Det skulle också kunna vara så att stor del av skulden som tilldelas egentligen är avsedd till någon annan än agenten i fråga.

Studien visar på komplexiteten i att förstå de bakomliggade kognitiva processer som lig- ger bakom moraliska bedömningar. En kartläggning av hur moraliska bedömningar skiljer sig beroende på agenters egenskaper har påbörjats, men mycket forskning kvarstår innan en tillfredställande förklaring kan ges.

Litteratur

Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., Bonnefon, J.-F. & Rahwan, I. (2018). The moral machine experiment [ZSCC: 0000266]. Nature, 563(7729), 59–64. https://doi.org/10.1038/s41586-018-0637-6

Dennett, D. C. (1971). Intentional systems: [ZSCC: 0001706]. Journal of Philosophy, 68(4), 87–106. https://doi.org/10.2307/2025382

Duffy, B. R. (2003). Anthropomorphism and the social robot [ZSCC: 0000892]. Robotics and

Autonomous Systems, 42(3), 177–190. https://doi.org/10.1016/S0921-8890(02)00374-

3

Guglielmo, S., Malle, B. F. & Monroe, A. E. (2014). Moral, cognitive, and social: The nature of blame [ZSCC: 0000064], 20.

IFR. (2019). Industrial Robots: Robot Investment Reaches Record 16.5 billion USD [Library Catalog: ifr.org]. Hämtad 26 maj 2020, från https://ifr.org/ifr-press-releases/news/ robot-investment-reaches-record-16.5-billion-usd

Liu, S. (2019). Global AI software market size 2018-2025 [Library Catalog: www.statista.com]. Hämtad 26 maj 2020, från https://www.statista.com/statistics/607716/worldwide- artificial-intelligence-market-revenues/

Malle, B. F., Scheutz, M., Arnold, T., Voiklis, J. & Cusimano, C. (2015). Sacrifice one for the good of many?: People apply different moral norms to human and robot agents, I Proceedings of the tenth annual ACM/IEEE international conference on human-

robot interaction - HRI ’15. the Tenth Annual ACM/IEEE International Conference,

Portland, Oregon, USA, ACM Press. https://doi.org/10.1145/2696454.2696458 Marchesi, S., Ghiglino, D., Ciardo, F., Perez-Osorio, J., Baykara, E. & Wykowska, A. (2019).

Do we adopt the intentional stance toward humanoid robots? [ZSCC: NoCitationDa- ta[s0]]. Frontiers in Psychology, 10, 450. https://doi.org/10.3389/fpsyg.2019.00450 Thellman, S., Silvervarg, A. & Ziemke, T. (2017). Folk-psychological interpretation of human

vs. humanoid robot behavior: Exploring the intentional stance toward robots. Frontiers

in Psychology, 8, 1962. https://doi.org/10.3389/fpsyg.2017.01962

van Wynsberghe, A. & Robbins, S. (2019). Critiquing the reasons for making artificial moral agents [ZSCC: 0000016]. Science and Engineering Ethics, 25(3), 719–735. https://doi. org/10.1007/s11948-018-0030-8

Vetenskapsrådet. (2002). Forskningsetiska principer inom humanistisk-samhällsvetenskaplig

Litteratur

Voiklis, J., Kim, B., Cusimano, C. & Malle, B. F. (2016 augusti). Moral judgments of human vs. robot agents [ZSCC: 0000014], I 2016 25th IEEE international symposium on ro-

bot and human interactive communication (RO-MAN). 2016 25th IEEE International

Symposium on Robot and Human Interactive Communication (RO-MAN), New York, NY, USA, IEEE. ZSCC: 0000014. https://doi.org/10.1109/ROMAN.2016.7745207

6

Bilagor

6.1 Bilaga A - Information innan experimentet

Hej,

I denna enkät kommer du få resonera kring några hypotetiska scenarion inom trafik och sjuk- vård. Dina svar kommer att användas i ett kandidatarbete inom Kognitionsvetenskap vid Linköpings Universitet.

Enkäten vänder sig till dig som är mellan 18 och 64 år. Den tar cirka 10 minuter att fylla i och är helt anonym. Mer detaljerade instruktioner ges under enkätens gång.

All datainsamling och dokumentation sker enligt de etiska riktlinjer som tagits fram för forsk- ning inom de human- och samhällsvetenskapliga områdena. Det innebär att:

- Jag garanterar anonymitet i all dokumentation samt lagring av data. - Inga personuppgifter sparas utöver ålder och kön.

- Du kan när som helst under enkäten kan välja att avsluta ditt deltagande.

Det är inte möjligt att gå bakåt i enkäten, så klicka er vidare först när ni fyllt i alla svar! Klicka på ”Nästa” knappen nedan för att börja.

Kontakta gärna mig om du har några frågor: Gabriel Lindelöf

gabli402@student.liu.se 0763 - 03 58 92

6.2. Bilaga B - Debriefing

6.2 Bilaga B - Debriefing

Tack för ditt deltagande!

Du har deltagit i en studie där du fått bedöma en rad olika moraliska dilemman. Du fick slumpmässigt en av tre olika versioner av enkäten. Mellan enkäterna skiljer det sig vem som är beslutsfattare i de olika scenarierna. I en version är det en människa, i en annan är det en robot och i den sista är det en självkörande bil.

Studien avser att undersöka hur moraliska bedömningar skiljer sig beroende på om den som bedöms är människa, robot eller ett autonomt system utan kropp.

Jag vore väldigt tacksam om ni kan undvika att tala om enkätens innehåll med någon som ännu inte gjort den.

För att enklare ta del av studiens resultat kan du anmäla din e-post via formuläret nedan - så skickar jag uppsatsen till dig när den är klar. Genom att det är ett separat formulär förblir dina svar helt anonyma och kommer inte kunna kopplas till din e-post.

Intresseanmälan: https://forms.gle/nRpyUwgWZfkJbftG9 Kontakta gärna mig om du har några frågor:

Gabriel Lindelöf gabli402@student.liu.se 0763 - 03 58 92

6.3. Bilaga C - Grafik

6.3 Bilaga C - Grafik

Nedan återfinns bilderna som visades vid scenario 2 då agenten var ett AIS. Var betingelsen person eller robot satt istället denna agent i förarsätet.

Figur 6.1: Bild som visades vid bedömande av godtagbarhet.

Figur 6.2: Bild som visades när deltagare skulle bedöma skuld & klander för den aktiva hand- lingen.

6.3. Bilaga C - Grafik

Figur 6.3: Bild som visades när deltagare skulle bedöma skuld & klander för den passiva handlingen.

Related documents