• No results found

Statistiska verktyg

In document Investmentföretagens risktagande (Page 54-57)

4. Tillvägagångsätt

4.6 Statistiska verktyg

tillvägagångssätt då det inte alltid är specificerat vilka som tillhör ledningen. För att minimera inflytande av extremvärden använder vi naturliga logaritmen för insiderinnehaven. Se exempel nedan.

Tabell 4. Operationalisering hypotes e.

Risktagande kvartal 4 2011 (VaR) 10 % Totala insiderinnehav kvartal 4 2011 Ln (300 000) aktier Makroekonomiska variabler

Det finns inget samband mellan risken i investmentföretagets portfölj och industriproduktionen. (De övriga hypoteserna (g-m) återfinns i bilaga 2).

Vi vill ”lagga” samtliga makroekonomiska variabler ett kvartal med motivet att investmentföretag ska ha möjligheten att tolka innebörden av en ändrad variabel och på det sättet ha möjlighet att omfördela portföljen. I och med att vi får fram investmentföretagens risktagande med hjälp av kvartalsrapporten (slutet av perioden) känns det som ett bra tillvägagångsätt. För Industrivärden är de makroekonomiska variablerna inhämtade för månaderna 3,6,9 och 12 och för Svolder är de aktuella månaderna 8,11,2 och 5. Se exempel nedan.

Tabell 5. Operationalisering hypotes f-m.

Risktagande kvartal 4 2011 (VaR) 10 % Industri produktionen (SWE) kvartal 3 (månad nio) 2011 122 (Indexvärde)

4.6 Statistiska verktyg

4.6.1 Regressionsanalys

För att göra kvantitativa estimeringar av relationerna mellan investmentföretagens VaR och de variabler vi valt att inkludera i denna studie testar vi relationen dem emellan med hjälp av regressionsanalyser. En regressionsanalys är ett statistiskt försök att förklara hur rörelsen i en beroende variabel påverkas av rörelsen i en eller flera oberoende variabler. Stor del av ekonomisk forskning är fokuserad kring sambandet mellan orsak och effekt. Man ska dock inte bli lurad att tro att ett signifikant resultat från en regressionsanalys visar att det föreligger ett kausalitet samband, även om många ekonomiska relationer av naturen är kausala. (Studenmund, 2001, s. 7-8)

Vi har valt att först göra en multipel linjär regression separat för de företagspecifika variablerna (Behavioural Finance och Corporate Governance) och de makroekonomiska variablerna. Sedan har vi satt samman dessa i en stor modell för att undersöka hur risktagandet förklaras tillsammans av de olika perspektiven.

45 När en regressionsanalys används som modell gör forskaren sju antaganden om relationen mellan variablerna och relationen mellan variablerna och feltermen (). Vi observerar aldrig feltermen i verkligheten, utan den uppskattas istället som residualerna. Residualen är felet vår modell gör i den skattade regression, det vill säga differensen mellan det observerade värdet (y) och det skattade värdet (ŷ). De sju antaganden följer nedan:

1. Regressionsmodellen har linjära koefficienter, är korrekt specificerad och har en additiv felterm.

2. Feltermens medelvärde är noll.

3. De oberoende variablerna är inte korrelerade med feltermen.

4. Det förekommer inte någon korrelation mellan olika feltermer för olika observationer.

5. Feltermens har en konstant varians

6. En oberoende variabel är inte en linjär funktion av någon annan oberoende variabel.

7. Feltermen är normalfördelad.

Då vi använder oss av tidsseriedata är antagande nummer fyra ett av de viktigaste för vår studie. Antagandet säger att observationer av  inte är korrelerade med varandra, det vill säga att en observation av ett positivt  inte påverkar eller syns inte i observationen av  i nästa period. Om observationerna av  korrelerar med varandra föreligger en så kallad autokorrelation, eller seriellkorrelation. Autokorrelation får till följd att signifikansen för det statistiska testet överskattas, med andra ord kan ett icke signifikant resultat göras signifikant.(Studenmund, 2001, s.84-91, 322-324)

I vår multipla regression blir antagande nummer sex viktigt. Det säger att ingen av de förklarande variablerna är en perfekt linjär funktion av någon av de andra förklarande variablerna. Perfekt kollinearitet innebär att två förklarande variabler egentligen är samma eller att en variabel är en multipel av den andra och/eller att en konstant har lagt till en av variablerna. En metod att mäta multikollinearitet är att testa variance inflation factor (VIF). Ett VIF test undersöker till vilken grad en förklarande variabel kan förklaras av de andra förklarande variablerna, det vill säga att varje förklarande variabel har ett VIF. Hur svår multikollineariteten visas av hur stort VIF är, desto högre VIF desto större är multikollineariteten. (Studenmund, 2001, s.90-91, 256-257)

Var gränsvärdet för VIF går för att konstatera att det föreligger multikollineritet är omdiskuterat. En vanlig regel som förespråkas är regeln av tio, där ett VIF över tio implicerar ett multikollineritetproblem. O´Brien (2007, s.673-674) menar på att denna regel kan vara problematisk och att tröskelvärden på 10, 20 och 40 inte alltid rättfärdigar att plocka bort en variabel, utan istället måste ett helhetsperspektiv vägas in. Problemet med multikollineritet är att variansen ökar för parameterskattningen och att teckenet på parametern kan bli felaktig. Med utgångspunkt från att multikollineritet kan skapa stora problem väljer vi att använda oss av regeln av tio för VIF i våra multipla regressioner.

4.6.2 T-test

För att testa signifikansen i våra regressioner använder vi oss av ett T-test. T-test är det vanligast förekommande signifikanstest som används av ekonomer vid linjär regression.

46 Det är ett lätt test att använda men framförallt så är det ett lämpligt test att använda när 

är normalfördelad och när variansen av dess distribution måste estimeras. Formeln för T-testet ser ut som följer: (Studenmund, 2001, s.120-121)

Där t är T-värdet för regressionen, är riktningskoefficienten, är den riktningskoefficienten som nollhypotesen förutsätter och är standardavvikelsen för . Då våra nollhypoteser är utformade som att det inte finns något samband blir samtliga = 0 och därför kan formeln skrivas om till: (Studenmund, 2001, s.120-121)

4.6.3 Durbin-Watson

För att se om det föreligger någon autokorrelation i våra regressionsanalyser använder vi oss av det vanligt förekommande Durbin-Watson d testet . Om d är mellan noll och

två föreligger det en positiv autokorrelation och om d är mellan två och fyra föreligger det en negativ autokorrelation. Utifrån detta kan vi utläsa att variablerna inte är autokorrelerade om d är lika med två. (Studemund, 2001, s.325-326) I Mintab återfinns en funktion där residualerna kan användas för att se om det föreligger autokorrelation. Detta illustreras i figur 10, om de blå staplarna överstiger den röda gränslinjen tyder det på autokorrelation.

12 11 10 9 8 7 6 5 4 3 2 1 1,0 0,8 0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8 -1,0 Lag A u to co rr e la ti o n

Autocorrelation Function for RESI2

(with 5% significance limits for the autocorrelations)

Figur 10. Autokorrelation från Mintab.

4.6.4 Cochrane-Orcutt

I de fall då vi har en variabel som är signifikant och modellen visar upp tecken på autokorrelation justerar vi detta genom att använda oss av Cochrane-Orcutt metoden. När variabler inte är signifikanta korrigerar vi inte för autokorrelation, då signifikansen redan överskattas. Det första steget i Cochrane-Orcutt metoden är göra en regressionsanalys för residualerna (e), det ger oss ekvation (1) som ser ut som följer (Studemund, 2001, s.326-328):

( )

Vi får då ett skattat värde för  som vi kan använda i ekvation (2) där vi rensar för

”ren” (pure) autokorrelation. ”Oren” (impure) autokorrelation innebär att vi har en

In document Investmentföretagens risktagande (Page 54-57)

Related documents