• No results found

Tekniska lösningar på mänskliga problem Filterprogramvarorna, som i rättvisans namn ska påpekas inte har fått

fot-fäste i den svenska hanteringen av problemen, är bra exempel på tekniska lösningar på mänskliga problem. Vilka sidor är det tänkt att man ska filtrera bort? I marknadsföringen lyfts familjens eller skolans valfrihet fram men i praktiken är det inte särskilt stor valfrihet för kunden, om inte annat av praktiska skäl; programvaran vore inte till så stor nytta om varje kund i detalj måste definiera vad som ska filtreras, menar till exempel forskarna Price & Verhulst (2005). Istället bygger programmen på förutbestämda värderingar som ofta innefattar tanken att barn och unga inte ska ha tillgång till

mate-rial med någon som helst sexuell underton. Det är bara ett exempel på hur absurt det blir att försöka sig på en filtrering. En modern svensk familj eller skola skriver knappast under på att barn tar skada av att läsa om sex eller exponeras för naken hud, även om man är stark motståndare till sexism, pornografi och exploatering av sexualitet. Och här ställs problemen på sin spets; det går nämligen inte att definiera sexism, pornografi eller exploate-ring som parametrar för filteralgoritmerna, hur gärna vi än skulle vilja. Den här typen av teknik är inte utvecklad, men även om den vore det, skulle vi knappast vara överens om vad som är sexism, pornografi och exploatering. Nej, det finns inget som tyder på att några samhällen idag kan enas kring dessa avgörande frågor, utom möjligen på en sorts lägsta-nivå. Vi kan inte acceptera slaveri, våld och övergrepp men ovanför den nivån kommer skillna-derna. Exempelvis har den amerikanska fotografen Sally Mann anklagats för barnpornografi i sitt hemland, men här i Sverige har det fotografi hon tagit av sin lilla dotter som kissar på en berghäll en het sommardag hyllats för att det skildrar en flicka på samma sätt som pojkar skildrats i århundraden. Hur hade familjefiltret reagerat på den bilden?

Det finns mängder av olika filterlösningar, men gemensamt för dem är att

• man vill kunna styra användningen av datorerna och kanske framförallt internet,

• sådana här tekniska verktyg är ofta för trubbiga. Goda sidor filtreras bort för att de innehåller ord man har valt att låta programmet reagera för. Skolverkets sidor och Kamratpostens är exempel på goda webbplatser som filtreras bort i en känd filterprogramvara,

• man lätt invaggas i falsk säkerhet. Det känns tryggt för vuxna att veta att skolan har filter, men behovet av etiska samtal kvarstår. Vad gör elever om de hamnar vid en ofiltrerad dator om de är vana vid filter? Medve-tenheten måste erövras varje dag och kan inte byggas bort med något program,

• den ideologiska basen för filtreringen, alltså varför man väljer bort vissa sidor men inte andra, är inte synlig. Det gör att man som användare är utlämnad till den som skapat filtret.

Det finns en mycket mänsklig önskan att hitta genvägar till alla lösningar. Hade vi inte varit lata till naturen hade vi kanske inte uppfunnit hjulet. Det

här är någonting som marknadsförare utnyttjar för att sälja produkter vi inte egentligen behöver. Mänskliga problem tar tid och kraft att lösa. Det faktum att någon har en produkt att sälja förändrar inte denna omständighet. Ska vi få bort fusket, mobbningen eller att elever exponeras för olämpligt mate-rial på internet måste vi lägga ner många timmars arbete tillsammans med eleverna. De enda som tjänar på att vi köper tekniska lösningar är de företag som vill sko sig på vår osäkerhet. Howard Rheingold (2007) går så långt att han säger att den som censurerar internet inte uppmuntrar en god relation till sitt barn.

Vi har sett exempel på en del reaktioner på ungas nätanvändning och sett att det kanske inte alltid är så enkelt som man först kan tro. Det som verkar extremt obehagligt vid första anblicken kan vara sunt och rimligt när man fått tänka tankarna klart, och tvärtom. Generellt tycker jag att vi är dåliga på att låta våra tankar om unga och nätet passera genom vår värdegrund. Det är som om andra regler gäller så snart internet är inblandat. Det är nog inte många som skulle fundera på att läsa sitt barns dagbok bara för att barnet inte är hemma och ändå innehåller många så kallade familjefilter verktyg för att se vilka webbplatser barnet besökt.

Referenser

Aftonbladet (2003) ’Misstänkt våldtäkt efter träff på chatt’, www.aftonbladet.se/vss/nyheter/ story/0,2789,269827,00.html

Dagsavisen (2003) ’SMS-terror driver barn til selvmordsforsøk’, www.dagsavisen.no/innenriks/ article948433.ece

Drotner, K. (1999) ‘Dangerous Media? Panic Discourses and Dilemmas of Modernity’, Paeda-gogica Historica, 35(3), 593-619.

Dunkels, E. (2007) Bridging the Distance – Children’s Strategies on the Internet. Umeå univer-sitet.

Eriksson, M. (2008) Barns röster om våld: att tolka och förstå. Malmö: Gleerups.

James, A. & Prout, A. (1997) Constructing and Reconstructing Childhood: Contemporary Issues in the Sociological Study of Childhood. London: Routledge.

Li, Q. (2007) ‘New Bottle but Old Wine: A Research of Cyberbullying in Schools’, Computers in Human Behavior, 23(4), 1777-1791.

Lüders, M., Bae Brandtzæg, P. & Dunkels, E. (2009) ‘Risky Contacts’, in Livingstone, S. & Had-don, L. (eds) Kids Online. London: Policy Press.

Palmgren, A.-C. (2007) ’Idag är jag ingenting annat än en kropp’, i Lindgren, S. (red.) Unga och nätverkskulturer – mellan moralpanik och teknikromantik (s. 81-99). Stockholm: Ung-domsstyrelsen.

*Artikeln har tidigare publicerats i Elza Dunkels (2009) Vad gör unga på nätet? Malmö: Gleerups.

Price, M. & Verhulst, S. (2005) Self-regulation and the Internet. The Hague: Kluwer Law Interna-tional.

Rheingold, H. (2007) ‘Sack the Nanny, Talk to Your Kids’, The Sydney Morning Herald, 2007-09-25.

Shifman, L. & Varsano, H.M. (2007) ‘The Clean, the Dirty and the Ugly: A Critical Analysis of ‘Clean Joke’, Web sites’. First Monday, www.firstmonday.org/issues/issue12_2/shifman/ index.html

Veen, W. & Vrakking, B. (2006) Homo Zappiens – Growing up in a Digital Age. London: Network Continuum.

Reklam riktad till barn