• No results found

Diskussionen om stark AI kräver ett annorlunda perspektiv på vad som är sociala aspekter på teknikens påverkan på kunskapsprocesserna. Som vi redan har påvisat finns det mycket kunskapssociologisk forskning som betonar att tekniken innehåller intressen eller förmedlar intressen som styr kunskapsprocesserna. Det är av yttersta vikt att inse att diskussionen om stark AI inte handlar om dessa kunskapsintressen. Det som är intressant med stark AI är att den tekniken, om den fungerar, faktiskt innebär att människornas intressen blir neutraliserade av tekniken i sig. Det är en vanlig uppfattning att tekniken i sig aldrig är neutral. Det är en uppfattning som hör mer samman med den svaga AI-tekniken. Den tekniken blir alltid bunden av att vara ett redskap för olika människor. Och eftersom den är skapad för att människan skall kunna utveckla en viss kapacitet som har att göra med en viss syn på en människas kapacitet, är den naturligtvis kopplad till en värdering av vad människan bör kunna skapa. Stark AI kräver dock inte en människa för att kunna fungera. Den distribuerade aspekt på stark AI som vi diskuterar i denna avhandling innebär visserligen att dessa AI-system blir beroende av det som finns i kontexterna. På så sätt kan man hävda att den inte blir neutral.

Vi bör dock framhålla att det inte är AI-tekniken i sig som i så fall är styrd av intressen. Det är i stället den mänskliga kulturen i form av texter och andra artefakter som är intressestyrd. Vi bör också framhålla att AI-tekniken medger att vi kan nå en mycket större kulturell kontext än den som bara är möjlig att nå för den människa som tack vare sitt eget medvetandes begränsning är hänvisad till det som finns i den kontext som hon själv tillhör. Människan kan under de senare omständigheterna, inte balansera upp de intressen som skapar den kontext hon befinner sig inom med de kontexter som har skapats av andra intressen.

Det Starka Programmet inom kunskapssociologin, som formulerats av David Bloor, har oftast använts för att visa på vilka kausala processer som bidragit till att en viss kunskap kunnat skapas. Att vi i denna avhandling tar upp detta program kan tolkas som att diskussionen om stark AI enbart skall föras som en diskussion om hur sociala processer skapar villkor för kunskap. En sådan diskussion brukar dock leda till att vi bara ser faror med AI-teknik. Diskussionen om stark AI bör istället handla om hur sociala processer påverkar själva den funktionalitet som skall jämföras med den funktionalitet som finns då människorna med sina medvetanden

skapar kunskap. Det Starka Programmet försöker å sin sida diskutera hur sociala faktorer i kausala processer skapar de villkor som gör att medvetandena blir benägna att komma fram till en viss kunskapsposition. Luhmann är mycket noga med att skilja funktionalitet från kausalitet. Vi ser här essensen i en sådan skillnad.

Funktionalitet är något som kan leda till att människan ser nya möjligheter därför att processerna inte är determinerande. Kausalitet styrs däremot av lagar. De processerna kan bara leda i en riktning. Kanske beror tekniksociologins aversion mot AI på att den tror att alla processer som innehåller tekniska redskap måste vara kausalt determinerade!

Fokuseringen på funktionalitet ger ett perspektiv på diskussionen om AI, som anger att vi skall jämföra AI-tekniken med verkliga människor och inte med en idealistisk uppfattning av vad människan gör. Den diskussionen bör utgå från att människor verkligen kan ta sig ur beroendet av intressen om de verkar under ideala förhållanden eller verkligen anstränger sig för att inte påverkas av intressen. I det perspektivet bör vi framhålla att frågan om stark AI handlar om huruvida programmen kan skapa kunskap på samma sätt som människor när de inte styrs av olika intressen. Frågan om stark AI måste då uttryckligen handla om huruvida tekniken kan fungera oberoende av intressen. Vi bör också säga att om tekniken kan fungera på det sättet, så finns det anledning att påstå att AI-systemen faktiskt har förutsättningar att fungera mer fristående från intressen än människor. Det som gör att människor ändå blir lockade av att låta sig styras av andra människor är naturligtvis att de har känslor som styr dem åt olika håll. Det är viktigt att vi skiljer mellan intressestyrning som handlar om att de praktiska förutsättningarna är sådana att människorna inte kan tänka sig fram till något annat än vad situationerna medger. Och sådan intressestyrning som handlar om att människornas tidigare erfarenheter lockar dem att tänka i samma banor som förut.

Stark AI blir naturligtvis påverkad av den första typen av intressestyrning eftersom den kulturella strukturen inom ett socialt system är färgat av den systemreferens som finns inom detta system.

Det bör vara i enlighet med känd erfarenhet att människor kör fast i gamla spår fastän de inte är tvingade. Det kan ha att göra med att människors medvetanden inte är ”programmerade” för att alltid försöka tänka i nya banor. Vi kommer senare att se att en fördel med AI-system är att de faktiskt kan kommunicera över ett område som är enormt mycket större än vad människor med deras begränsade medvetanden faktiskt kan. Det kan därför vara lättare att programmera datorer att hitta nya spår. Vi kommer att se att det är en aspekt på stark AI som faktiskt talar för att AI-systemen ur vissa aspekter kan fungera

”starkare” än vad människor kan just därför att de har lättare att nå utöver systemets gränser än vad människor kan. Fastän ett socialt system tenderar att styra även AI-redskapen har dessa redskap större möjligheter än människor att se över gränserna.

I sammanhanget kan vi nämna att till exempel Mertons kunskapssociologi brukar kritiseras för att den bara intresserar sig för vetenskapssamhällets formella processer. Vi behöver inte ta ställning till om detta är en riktig kritik mot Merton.

Vi kan hävda att kunskapssociologin som disciplin definitivt bör intressera sig för intressestyrning av kunskapsprocesserna. Vi bör framhålla att diskussionen om stark AI måste fokusera på funktionaliteten i kunskapsprocesserna om den skall kunna ta ställning till om AIs kapacitet kan jämföras med mänsklig intelligens. På så sätt måste diskussionen ligga närmare den analys av formella processer som Merton sysslade med än den som letar efter dolda intressen. Däremot bör den sociologi som letar efter dolda intressen vara intresserad av en diskussion som kan visa på att det finns sätt att göra de formella processerna mindre styrda av intressen.

Om vi kan visa på att AI-program kan fungera fristående från människor bör vi också ha presenterat en möjlig strategi för att göra kunskapsprocesserna mindre beroende av mänskliga intressen.

Luhmanns systemteori brukar stämplas som konservativ. Men det finns väldigt få skäl till att benämna den luhmannska teorin som konservativ. Teorin har hämtat inspiration från många andra teorier av vilka ett flertal kan sägas vara konservativa. Men det är påfallande att teorin, som den ser ut idag, till sina viktigaste beståndsdelar har hämtat influenser från tänkare som definitivt inte kan sägas tillhöra någon konservativ skola. Där ingår till exempel den andra ordningens cybernetik såsom den formulerades framför allt av Gregory Bateson. Den bygger dessutom på en uttalat ontologisk relativism som på intet sätt ryms inom en konservativ teoritradition.

Diskussionen om stark AI borde enbart föras utifrån dess egna premisser.

Men eftersom den sociologiska kritiken av AI, i hög grad har dominerat den sociologiska diskussionen om AI, måste vi diskutera den kritik mot AI som kommer från de bägge sociologierna; den MI-orienterade sociologin och den kunskapssociologi som fokuserar på intressen. Dessutom måste vi ta upp den generella kritiken av AI. Vi måste dock vara noga med att vi gör det därför att vi bör förhålla oss till kritiken och inte för att diskutera de alternativa program som framförs. När vi diskuterar dessa andra program kan vi därför inte redovisa allt som de teorierna innehåller. Vi kan bara redovisa det innehåll i dessa teorier som leder till en kritik mot AI. Däremot bör det vara till fördel för diskussionens klarhet om vi också kan visa på hur dessa kritiska sociologier kan utveckla sina positioner om de tar till sig vissa av de aspekter på funktionella sociala processer som AI-diskussionen visar på.

Vi bör nämna att en funktionalistisk analys av AI-teknikens kapacitet att skapa kunskap på egen hand blir mycket mera komplicerad än en diskussion av vilka intressen AI-tekniken eventuellt kan innehålla. Det handlar i praktiken om två helt olika discipliner. Den funktionella analysen av AIs kapacitet kräver att vi diskuterar frågor som har att göra med medvetandets kapacitet, med innehållet i kunskapsprocesser, och med frågan om kunskapen ontologiska karaktär. Frågan

om AIs eventuella intressestyrning kräver på det hela taget bara att vi empiriskt studerar vilka intressen som kan finnas inblandade.