• No results found

Modelldiagnostik

7 Metod

7.4 Modelldiagnostik

Modelldiagnostiken granskar ifall modellens antaganden håller och berättar vilka åtgärder som måste göras för att få tillförlitliga parameterestimat. Till näst presenteras fasteffektmodellens antaganden och därefter presenteras och utförs de nödvändiga modelldiagnostiktesten.

7.4.1 Fasteffektmodellens antaganden

Under dessa antaganden ger fasteffektmodellen tillförlitliga parameterestimat:

1. Modellen för varje specifikt företag skrivs enligt: 𝑦&% = 𝛽0𝑥&%0+ ⋯ + 𝛽$𝑥&%$+ µ8+ υ89 där βj betecknar de estimerade koefficienterna och µi betecknar den icke-observerade effekten.

2. Samplet är slumpmässigt data.

3. Det finns inga perfektlinjära samband mellan de förklarande variablerna och de förändras genom tiden.

4. Det förväntade värdet av den resterande idiosynkratiska delen υit är noll, givet förklarande variablerna i alla tidsperioder och icke-observerade effekten µi: 𝐸(υ89 | 𝑋&, µ8) = 0.

5. Var(υ89 | 𝑋𝑖, µ8) = Var(υit), för alla t = 1, ..., T.

6. Den resterande idiosynkratiska delen υi är inte korrelerarad med sig själv genom tiden: 𝐶𝑜𝑣(υ89, υ8: |Xi, µi) = 0.

7. Givet Xi och µi, är den resterande idiosynkratiska delen υit normalfördelad.

Ifall antaganden 1–6 håller så fylls kraven för att fasteffektmodellen skall vara den så kallade bästa linjära icke-snedvridna estimeraren (eng. best linear unbiased estimator, BLUE) och producera väntevärdesriktiga resultat. Det sjunde antagandet, normalitet, krävs inte för att estimaten skall vara väntevärdesriktig men det krävs för att möjliggöra statistiska slutsatser. (Wooldridge 2016, s. 457–468)

Antagande 1 och 2 uppfylls, se data- och metodkapitlet som bevis för dessa antaganden.

Antagande 3 uppfylls delvis, variablerna förändras genom tiden men ett test behöver utföras för att granska ifall det linjära sambandet mellan de förklarande variablerna.

Antagande 4 innebär att fasteffektmodellen kräver strikt exogenitet. Strikt exogenitet innebär att variablernas värde är oberoende av övriga variablers nuvarande, historiska eller framtida värden och att de bestäms utanför ekvationen (Brooks 2019, s. 300). Något som bryter mot detta antagande är exempelvis feedback eller ifall det används laggade beroendevariabler som oberoendevariablerna. Här används inte laggade beroendevariabler som oberoendevariabler, men feedback kan antas vara ett problem.

Feedback kan i detta fall tolkas som att företagets prestation också påverkar den relativa mängden passiva ägare. Av denna orsak så är variabeln för passiva ägare tidsfördröjd i samtliga regressioner.

För att undersöka de övriga antaganden som fasteffektmodellen ställer så måste några test för modelldiagnostik utförs, dessa görs för antaganden 5, 6 och 7 samt för det linjära sambandet mellan de förklarande variablerna från antagande 3.

7.4.2 Heteroskedasticitet

För att kontrollera ifall antagande 5 uppfylls så görs ett heteroskedasticitetstest.

Antagande 5 kräver att det inte förekommer någon heteroskedasticitet vilket innebär att homoskedasticitet bör råda. Homoskedasticitet innebär att variansen av den resterande idiosynkratiska delen υit i fasteffektmodellen är konstant. Testet som görs är ett BP (Breusch-Pagan) test för heteroskedasticitet och dess utförande ser ut enligt följande;

först körs den vanliga OLS regressionen för att estimera residualerna, detta innebär den resterande idiosynkratiska delen υit för fasteffektmodellen. Sedan görs en auxiliär regression med υit som beroende variabel vilket skapar en teststatistika som är asymptotiskt distribuerad med noll hypotesen homoskedasticitet och mothypotesen heteroskedasticitet. (Wooldridge 2016, s. 251)

När testet gjordes på alla undersökningens regressioner så förkastades noll hypotesen för alla modeller. Detta innebär ett problem med heteroskedasticitet vilket gör att fasteffektmodellens femte antagande inte håller. Detta är ett vanligt statistiskt problem (Brooks 2019, s. 15) och åtgärderna som krävs för att antagande 5 ska uppfyllas beskrivs i 7.4.6 Åtgärder för att nå modellens antaganden.

7.4.3 Autokorrelation

Det sjätte antagandet innebär att det inte får förekomma någon autokorrelation. Ifall det förekommer autokorrelation så är den resterande idiosynkratiska delen υit korrelerad med sig själv genom tiden i regressionerna. För ett testa modellerna för autokorrelation så görs ett Breusch-Godfrey test vilket är ett smidigt test som tillåter en granskning av samtliga tidsperioder samtidigt. Testet kontrollerar alltså om υit korrelerar med tidigare värden för υit. Noll hypotesen säger att samtliga korrelationer är noll medan mothypotesen är att en eller flera korrelationer inte är lika med noll. (Brooks 2019, s.

199)

När Breusch-Godfrey testet gjordes på undersökningens modeller så förkastades alla noll hypoteser, detta innebär att det finns problem med autokorrelation och åtgärder åt detta presenteras också i 7.4.6 Åtgärder för att nå modellens antaganden.

7.4.4 Normalitet

Normalitet gäller antagande 7 och krävs alltså för att möjliggöra statistiska slutsatser.

Modellen som används är en fasteffektmodell och därför innebär antagandet om normalitet att den resterande idiosynkratiska delen υit är normalfördelad. Detta mäts med ett Jarque-Bera test vilket är ett av de mest använda testen för normalitet. Bera och Jarque (1981) kollar i sitt test ifall koefficienterna för skevhet och överloppskurtosis tillsammans är lika med noll vilket visar på en normalfördelning. I testet innebär noll hypotesen att antagandet om normalitet håller medan mothypotesen innebär att antagandet inte håller. (Brooks 2019, s. 209–210)

När testet kördes på samtliga modeller så förkastades alla nollhypoteser, detta innebär att antagandet om normalitet inte håller. Dock kan det i detta fall hänvisas till de asymptotiska egenskaperna av vårt stora datasampel, det finns data för ungefär 3000 företagsår i regressionsmodellerna som utförs. Detta innebär att vi enligt centrala gränsvärdessatsen kan anta att antagandet för normalitet uppfylls. I praktiken innebär detta att modellerna asymptotiskt följer en lämplig distribution även om υit inte är normalfördelad. (Brooks 2019, s.210)

7.4.5 Multikollinearitet

Som det nämndes tidigare i det tredje antagandet så behöver det linjära sambandet mellan de förklarande variablerna granskas, det görs genom test för multikollinearitet genom en korrelationsmatris och ett VIF (förkortning: variation inflation factor) test.

Multikollinearitet innebär att korrelationen mellan modells oberoendevariabler är hög men inte perfekt, perfekt multikollinearitet bryter direkt mot antagande 3 och får inte förekomma i en fasteffektmodell.

Tabell 6 Korrelationsmatris över undersökningens variabler

Tabell 6 presenterar korrelationsvärden mellan undersökningens variabler i en korrelationsmatris. För att tolka dessa värden kan riktvärden från denna generella indelning användas; ≤0,35 = svagt korrelerade, 0,36–0,67 = måttligt korrelerade, 0,68–

,90 = starkt korrelerade och värden ≥ 0,90 = mycket starkt korrelerade (Taylor 1990, s.

37). Enligt dessa riktvärden är inga av undersökningens oberoendevariabler starkt eller mycket starkt korrelerade vilket pekar på att det inte finns problem med multikollinearitet.

Utöver detta görs även ett VIF test för att undersöka ifall det förekommer hög multikollinearitet som kan leda till problem i en modell. Höga VIF värden visar på hög multikollinearitet och enligt Wooldridge (2016) kan värdet 10 anses vara en bra gräns att använda sig av. Modellerna fick i de utförda testen värden mellan 1,1–2,6 vilket också tyder på att det inte finns problem med multikollinearitet.

7.4.6 Åtgärder för att nå modellens antaganden

Modelltesten har nu visar på problem med heteroskedasticitet och autokorrelation, detta innebär att antagande 5 och 6 inte uppfylls. Lyckligtvis finns det åtgärder som kan lindra dessa problem och möjliggör en konsekvent estimator trots närvaron av dessa problem.

Åtgärden som används kallas för HAC (förkortning: heteroskedasticity and autocorrelation-consistent) standardavvikelser. Metoden som används är enligt metoden ”Newey-West” och ger en konsekvent estimator vid närvaro av såväl heteroskedasticitet som autokorrelation. (Brooks 2019, s.203). Notera att

heteroskedasticiteten och autokorrelationen inte försvinner men problemen lindras vilket gör att modellens resultat blir pålitliga genom denna åtgärd. HAC standardavvikelser används i alla regressioner som utförs i undersökningen.