• No results found

Nya teknologier, global risk och mänsklighetens framtid. AI-risk och AI-etik 28 april 2020 MVE420: AI

N/A
N/A
Protected

Academic year: 2022

Share "Nya teknologier, global risk och mänsklighetens framtid. AI-risk och AI-etik 28 april 2020 MVE420: AI"

Copied!
92
0
0

Loading.... (view fulltext now)

Full text

(1)

MVE420:

Nya teknologier, global risk och m¨ansklighetens framtid AI-risk och AI-etik

28 april 2020 Olle H¨aggstr¨om

(2)

Vad ¨ar artificiell intelligens (AI)?

(3)

Vad ¨ar artificiell intelligens (AI)? Om definitioner tvista de l¨arde...

(4)

Vad ¨ar artificiell intelligens (AI)? Om definitioner tvista de l¨arde, men de flesta f¨orslag inbegriper i n˚agon m˚an automatiserat beslutsfattande.

(5)

Vad ¨ar artificiell intelligens (AI)? Om definitioner tvista de l¨arde, men de flesta f¨orslag inbegriper i n˚agon m˚an automatiserat beslutsfattande.

(6)

Kort historik:

(7)

Kort historik:

I AI har id´ehistoriska r¨otter som g˚ar l˚angt tillbaka, t.ex.

Golem-legenden, Mary Shelleys Frankenstein, och Ada Lovelace.

(8)

Kan en dator t¨anka egna tankar?

(9)

Kan en dator t¨anka egna tankar?

(10)

Kan en dator t¨anka egna tankar?

vs

(11)

Kort historik:

I AI har id´ehistoriska r¨otter som g˚ar l˚angt tillbaka, t.ex.

Golem-legenden, Mary Shelleys Frankenstein, och Ada Lovelace.

(12)

Kort historik:

I AI har id´ehistoriska r¨otter som g˚ar l˚angt tillbaka, t.ex.

Golem-legenden, Mary Shelleys Frankenstein, och Ada Lovelace.

I Begreppet AI myntades av John McCarthy i samband med Dartmouth-konferensen 1956, som blev ett slags startskott f¨or AI-forskningen.

(13)

Kort historik:

I AI har id´ehistoriska r¨otter som g˚ar l˚angt tillbaka, t.ex.

Golem-legenden, Mary Shelleys Frankenstein, och Ada Lovelace.

I Begreppet AI myntades av John McCarthy i samband med Dartmouth-konferensen 1956, som blev ett slags startskott f¨or AI-forskningen.

I Sedan dess har intresset f¨or AI g˚att i v˚agor, med bl.a. tv˚a s˚a kallade AI-vintrar 1974–1980 och 1987–1993.

(14)

Kort historik:

I AI har id´ehistoriska r¨otter som g˚ar l˚angt tillbaka, t.ex.

Golem-legenden, Mary Shelleys Frankenstein, och Ada Lovelace.

I Begreppet AI myntades av John McCarthy i samband med Dartmouth-konferensen 1956, som blev ett slags startskott f¨or AI-forskningen.

I Sedan dess har intresset f¨or AI g˚att i v˚agor, med bl.a. tv˚a s˚a kallade AI-vintrar 1974–1980 och 1987–1993.

I M˚anga olika koncept f¨or att skapa AI har pr¨ovats, bl.a. neurala n¨atverk, algoritmer inspirerade av biologisk evolution, och det slags handkodning av begrepp och logiska sammanhang som kommit att kallas GOFAI (Good Old Fashioned AI).

(15)

Kort historik:

I AI har id´ehistoriska r¨otter som g˚ar l˚angt tillbaka, t.ex.

Golem-legenden, Mary Shelleys Frankenstein, och Ada Lovelace.

I Begreppet AI myntades av John McCarthy i samband med Dartmouth-konferensen 1956, som blev ett slags startskott f¨or AI-forskningen.

I Sedan dess har intresset f¨or AI g˚att i v˚agor, med bl.a. tv˚a s˚a kallade AI-vintrar 1974–1980 och 1987–1993.

I M˚anga olika koncept f¨or att skapa AI har pr¨ovats, bl.a. neurala n¨atverk, algoritmer inspirerade av biologisk evolution, och det slags handkodning av begrepp och logiska sammanhang som kommit att kallas GOFAI (Good Old Fashioned AI).

I Sedan ca 2013 befinner sig AI, mest tack vare deep

(16)
(17)
(18)

Kappl¨opningsmentaliteten

(19)

Kappl¨opningsmentaliteten

I Kinas centralregering om hur Kina 2030 “skall vara v¨arldens fr¨amsta centrum f¨or AI-innovation”.

(20)

Kappl¨opningsmentaliteten

I Kinas centralregering om hur Kina 2030 “skall vara v¨arldens fr¨amsta centrum f¨or AI-innovation”.

I Donald Trumps executive order den 11 februari 2019 om hur

“continued American leadership in AI is of paramount importance to maintaining the economic and national security of the United States”.

(21)

Kappl¨opningsmentaliteten

I Kinas centralregering om hur Kina 2030 “skall vara v¨arldens fr¨amsta centrum f¨or AI-innovation”.

I Donald Trumps executive order den 11 februari 2019 om hur

“continued American leadership in AI is of paramount importance to maintaining the economic and national security of the United States”.

I Europeiska unionens r˚ad efterlyser samma dag “en starkare utveckling, ett kraftfullare inf¨orande och en ¨okad anv¨andning av till¨ampningar f¨or artificiell intelligens i alla ekonomiska sektorer, i syfte att g¨ora Europa till en global ledare inom artificiell intelligens”.

(22)

Kappl¨opningsmentaliteten

I Kinas centralregering om hur Kina 2030 “skall vara v¨arldens fr¨amsta centrum f¨or AI-innovation”.

I Donald Trumps executive order den 11 februari 2019 om hur

“continued American leadership in AI is of paramount importance to maintaining the economic and national security of the United States”.

I Europeiska unionens r˚ad efterlyser samma dag “en starkare utveckling, ett kraftfullare inf¨orande och en ¨okad anv¨andning av till¨ampningar f¨or artificiell intelligens i alla ekonomiska sektorer, i syfte att g¨ora Europa till en global ledare inom artificiell intelligens”.

I Wallenberg/WASP om hur “akademin och industrin tillsammans ska f¨ors¨akra att Sverige ligger i framkant n¨ar det g¨aller forskning och utveckling inom artificiell intelligens”.

(23)

Av AI i framtiden kan vi bland annat v¨anta oss

I sj¨alvk¨orande bilar,

I kraftigt f¨orb¨attrade beslutsverktyg i medicinsk diagnosticering och p˚a m˚anga andra omr˚aden,

I en effektiviseringv˚ag som revolutionerar bransch efter bransch, och

I en stor andel av den ekonomiska tillv¨axten det n¨armaste

˚artiondet eller tv˚a.

(24)

Av AI i framtiden kan vi bland annat v¨anta oss

I sj¨alvk¨orande bilar,

I kraftigt f¨orb¨attrade beslutsverktyg i medicinsk diagnosticering och p˚a m˚anga andra omr˚aden,

I en effektiviseringv˚ag som revolutionerar bransch efter bransch, och

I en stor andel av den ekonomiska tillv¨axten det n¨armaste

˚artiondet eller tv˚a.

Men det finns ocks˚a risker...

(25)
(26)

“Having the capability to generate tremendous benefits for individuals and society, AI also gives rise to certain risks that should be properly managed.”

(27)

“Having the capability to generate tremendous benefits for individuals and society, AI also gives rise to certain risks that should be properly managed.”

(28)

“Having the capability to generate tremendous benefits for individuals and society, AI also gives rise to certain risks that should be properly managed. Given that, on the whole, AI’s benefits outweigh its risks, we must ensure to follow the road that maximises the benefits of AI while minimising its risks.”

(29)

N˚agra kategorier av risker (ej utt¨ommande lista)

I Autonoma vapensystem

I Manipulation

I Privatliv

I Automatiserad diskriminering

I Robotisering, arbetsmarknad och ekonomisk oj¨amlikhet

I Det ultimata AI-genombrottet

(30)

N˚agra kategorier av risker

I Autonoma vapensystem

(31)
(32)

Ur brevet: ”If any major military power pushes ahead with AI weapon development, a global arms race is virtually inevitable, and the endpoint of this technological trajectory is obvious:

autonomous weapons will become the Kalashnikovs of tomorrow.

Unlike nuclear weapons, they require no costly or hard-to-obtain raw materials, so they will become ubiquitous and cheap for all significant military powers to mass-produce. It will only be a matter of time until they appear on the black market and in the hands of terrorists, dictators wishing to better control their populace, warlords wishing to perpetrate ethnic cleansing, etc.

Autonomous weapons are ideal for tasks such as assassinations, destabilizing nations, subduing populations and selectively killing a particular ethnic group. We therefore believe that a military AI arms race would not be beneficial for humanity.”

(33)
(34)
(35)
(36)

Panel i Bryssel, oktober 2017

(37)

Panel i Bryssel, oktober 2017

Steven Pinker meddelade att det skulle kr¨avas en galning f¨or att konstruera n˚agot s˚a hemskt som “a swarm of robots designed to

(38)

N˚agra kategorier av risker

I Autonoma vapensystem

(39)

N˚agra kategorier av risker

I Autonoma vapensystem

I Manipulation

(40)
(41)
(42)
(43)

N˚agra kategorier av risker

I Autonoma vapensystem

I Manipulation

(44)

N˚agra kategorier av risker

I Autonoma vapensystem

I Manipulation

I Privatliv

(45)
(46)
(47)

N˚agra kategorier av risker

I Autonoma vapensystem

I Manipulation

I Privatliv

(48)

N˚agra kategorier av risker

I Autonoma vapensystem

I Manipulation

I Privatliv

I Automatiserad diskriminering

(49)
(50)
(51)
(52)

Vilken andel av dem som klassificerades som high-risk ˚aterf¨oll?

(53)

Vilken andel av dem som klassificerades som high-risk ˚aterf¨oll?

F¨or svarta: 1369/(1369 + 805) = 0.630

(54)

Vilken andel av dem som klassificerades som high-risk ˚aterf¨oll?

F¨or svarta: 1369/(1369 + 805) = 0.630 F¨or vita: 505/(505 + 349) = 0.591

(55)

Vilken andel av dem som klassificerades som high-risk ˚aterf¨oll?

F¨or svarta: 1369/(1369 + 805) = 0.630 F¨or vita: 505/(505 + 349) = 0.591

(56)
(57)

False positives rate:

(58)

False positives rate:

F¨or svarta: 805/(805 + 990) = 0.469

(59)

False positives rate:

F¨or svarta: 805/(805 + 990) = 0.469 F¨or vita: 349/(349 + 1139) = 0.235

(60)

False positives rate:

F¨or svarta: 805/(805 + 990) = 0.469 F¨or vita: 349/(349 + 1139) = 0.235 Ej r¨attvist!

(61)

False negatives rate:

(62)

False negatives rate:

F¨or svarta: 532/(532 + 1369) = 0.280

(63)

False negatives rate:

F¨or svarta: 532/(532 + 1369) = 0.280 F¨or vita: 461/(461 + 505) = 0.477

(64)

False negatives rate:

F¨or svarta: 532/(532 + 1369) = 0.280 F¨or vita: 461/(461 + 505) = 0.477 Ej r¨attvist!

(65)

L˚at A beteckna gruppen (h¨ar: rastillh¨orighet), l˚at Y vara den egenskap vi ¨onskar prediktera (h¨ar: ˚aterfallsben¨agenhet), och l˚at ˆY vara prediktorn (h¨ar: high-risk vs low-risk). D˚a finns tre

huvudkandidater f¨or vad som kan menas med att ˆY ¨ar r¨attvis:

(66)

L˚at A beteckna gruppen (h¨ar: rastillh¨orighet), l˚at Y vara den egenskap vi ¨onskar prediktera (h¨ar: ˚aterfallsben¨agenhet), och l˚at ˆY vara prediktorn (h¨ar: high-risk vs low-risk). D˚a finns tre

huvudkandidater f¨or vad som kan menas med att ˆY ¨ar r¨attvis:

I Y och A ¨ˆ ar statistiskt oberoende.

(67)

L˚at A beteckna gruppen (h¨ar: rastillh¨orighet), l˚at Y vara den egenskap vi ¨onskar prediktera (h¨ar: ˚aterfallsben¨agenhet), och l˚at ˆY vara prediktorn (h¨ar: high-risk vs low-risk). D˚a finns tre

huvudkandidater f¨or vad som kan menas med att ˆY ¨ar r¨attvis:

I Y och A ¨ˆ ar statistiskt oberoende.

I Givet Y ¨ar ˆY och A statistiskt oberoende.

(68)

L˚at A beteckna gruppen (h¨ar: rastillh¨orighet), l˚at Y vara den egenskap vi ¨onskar prediktera (h¨ar: ˚aterfallsben¨agenhet), och l˚at ˆY vara prediktorn (h¨ar: high-risk vs low-risk). D˚a finns tre

huvudkandidater f¨or vad som kan menas med att ˆY ¨ar r¨attvis:

I Y och A ¨ˆ ar statistiskt oberoende.

I Givet Y ¨ar ˆY och A statistiskt oberoende.

I Givet ˆY ¨ar Y och A statistiskt oberoende.

(69)

L˚at A beteckna gruppen (h¨ar: rastillh¨orighet), l˚at Y vara den egenskap vi ¨onskar prediktera (h¨ar: ˚aterfallsben¨agenhet), och l˚at ˆY vara prediktorn (h¨ar: high-risk vs low-risk). D˚a finns tre

huvudkandidater f¨or vad som kan menas med att ˆY ¨ar r¨attvis:

I Y och A ¨ˆ ar statistiskt oberoende.

I Givet Y ¨ar ˆY och A statistiskt oberoende.

I Givet ˆY ¨ar Y och A statistiskt oberoende.

Annat ¨an i triviala fall, eller om vi har enorm flax med siffrorna, ¨ar dessa tre egenskaper ¨omsesidigt uteslutande.

(70)

N˚agra kategorier av risker

I Autonoma vapensystem

I Manipulation

I Privatliv

I Automatiserad diskriminering

(71)

N˚agra kategorier av risker

I Autonoma vapensystem

I Manipulation

I Privatliv

I Automatiserad diskriminering

I Robotisering, arbetsmarknad och ekonomisk oj¨amlikhet

(72)
(73)
(74)

N˚agra kategorier av risker

I Autonoma vapensystem

I Manipulation

I Privatliv

I Automatiserad diskriminering

I Robotisering, arbetsmarknad och ekonomisk oj¨amlikhet

(75)

N˚agra kategorier av risker

I Autonoma vapensystem

I Manipulation

I Privatliv

I Automatiserad diskriminering

I Robotisering, arbetsmarknad och ekonomisk oj¨amlikhet

I Det ultimata AI-genombrottet

(76)

Alan Turing, 1951: “My contention is that machines can be constructed which will simulate the behaviour of the human mind very closely. [...] Let us now assume, for the sake of argument, that these machines are a genuine possibility, and look at the consequences of constructing them. [...] It seems probable that once the machine thinking method had started, it would not take long to outstrip our feeble powers. There would be no question of the machines dying, and they would be able to converse with each other to sharpen their wits. At some stage therefore we should have to expect the machines to take control.”

(77)
(78)
(79)
(80)

Omohundro–Bostrom-teori f¨or instrumentella vs slutliga m˚al

(81)

Omohundro–Bostrom-teori f¨or instrumentella vs slutliga m˚al

I Ortogonalitetstesen

(82)

Omohundro–Bostrom-teori f¨or instrumentella vs slutliga m˚al

I Ortogonalitetstesen

I Tesen om instrumentell konvergens

(83)

Omohundro–Bostrom-teori f¨or instrumentella vs slutliga m˚al

I Ortogonalitetstesen

I Tesen om instrumentell konvergens

I Sj¨alvbevarande

(84)

Omohundro–Bostrom-teori f¨or instrumentella vs slutliga m˚al

I Ortogonalitetstesen

I Tesen om instrumentell konvergens

I Sj¨alvbevarande

I Sj¨alvf¨orb¨attring

(85)

Omohundro–Bostrom-teori f¨or instrumentella vs slutliga m˚al

I Ortogonalitetstesen

I Tesen om instrumentell konvergens

I Sj¨alvbevarande

I Sj¨alvf¨orb¨attring

I Resursanskaffning

(86)

Omohundro–Bostrom-teori f¨or instrumentella vs slutliga m˚al

I Ortogonalitetstesen

I Tesen om instrumentell konvergens

I Sj¨alvbevarande

I Sj¨alvf¨orb¨attring

I Resursanskaffning

I Diskretion

(87)

Omohundro–Bostrom-teori f¨or instrumentella vs slutliga m˚al

I Ortogonalitetstesen

I Tesen om instrumentell konvergens

I Sj¨alvbevarande

I Sj¨alvf¨orb¨attring

I Resursanskaffning

I Diskretion

I albevarande

(88)

Toby Walsh (citerad av Tom Chivers i The AI Does Not Hate You:

Superintelliegnce, Rationality and the Race to Save the World):

If I tell you to go and make paperclips, and if you turn the planet into paperclips, killing everyone, I would say

“That wasn’t very smart, was it?”

(89)

Kn¨ackfr˚agan, som flera av de smartaste personer jag k¨anner arbetar p˚a, ¨ar hur vi l¨oser AI Alignment.

(90)
(91)
(92)

Ur Qvintensen 1/2020:

References

Related documents

Under arbetets gång har vi haft med en stor mängd data gällande AI:s definitioner, dess uppkomst och dess uppfattningar idag som erhållits från litteratur och vetenskapliga

En ny metod att spåra upp och behandla diabetiker med ögon- komplikationer beräknas till ca 35 milj kr för hela landet.. Det skall sättas i relation till de ca 155 milj

Artificial Neural Network, Convolutional Neural Network, Hyperparameter tuning, Single Shot Detection, Embedded Machine Learning, Python, Grid search, Random search,

We understood that the main barrier keeping AI neglected is the technical expertise needed in computer science and statistics to fully work with the technology.. This makes

The goal of the design process was to design the feature according to the guidelines, and to test it with users of Pipedrive to see whether they can understand, trust and

Jag kan i min studie som handlar om att analysera hur AI diskuteras i fackpressen, se att majoriteten av artiklar som publiceras och diskuteras på computersweden.idg.se är

Since the advent of Artificial Intelligence (AI) and Machine Learning (ML), researchers have asked how intelligent computing systems could interact with and relate to their users

• Why would self learning machines care about fundamental rights for humans?.. How to channel the forces