• No results found

Bevis av centrala gränsvärdessatsen : med hjälp av Levys sats

N/A
N/A
Protected

Academic year: 2021

Share "Bevis av centrala gränsvärdessatsen : med hjälp av Levys sats"

Copied!
21
0
0

Loading.... (view fulltext now)

Full text

(1)

Institutionen för naturvetenskap och teknik

Självständigt arbete

Bevis av centrala gränsvärdessatsen

med hjälp av Levys sats

(2)

Örebro universitet

Institutionen för naturvetenskap och teknik

Självständigt arbete för kandidatexamen i matematik, 15 hp

Självständigt arbete

Bevis av centrala gränsvärdessatsen

med hjälp av Levys sats

Hasan Mohamadi Januari 2017

Handledare: Marcus Sundhäll Examinator: Niklas Eriksen

(3)

Samanfattning

Centrala gränsvärdessatsen (CGS) är en av grundpelarna inom statistik och sannolikhetsteori. CGS säger att ”summan av ett stort antal oberoende likafördelade slumpmässiga variabler är approximativt normalfördelad”. Det finns olika bevis för CGS. I denna uppsats kommer jag att bevisa centrala gränsvärdessatsen genom att utnyttja karaktäristiska funktioner, eftersom karaktäristiska funktioner har bra egenskaper vilket vi kommer att få se när vi definerar dem. I detta arbete har jag kopplat samman olika pusselbitar som behövs för att kunna bevisa CGS. Genom att göra det så blir det enklare för läsaren att förstå CGS mer grundläggande.

Abstract

The Central Limit Theorem (CLT) is one of the pillars of statistics and pro-bability theory. CLT states that ”the sum of a large number of independent equally distributed random variables is approximately normally distributed”. There are different proofs for CLT. In this essay I will prove the central limit theorem by utilizing characteristic functions, since characteristic functions have good features, which we will see when defining them. In this paper I have linked various pieces of the puzzle needed to prove CLT. By doing so it becomes easier for readers to gain a deeper understanding of CLT.

(4)

Innehåll

1 Inledning 3

1.1 Experiment med ett mynt . . . 4

2 Måtteori 6

2.1 Sannolikhetsrum . . . 6

3 Levys kontinuitetssats 11

3.1 Bevis för Levys kontinuitetssats . . . 11

4 Centrala gränsvärdessatsen 15

(5)

Kapitel 1

Inledning

Uppsatsen är indelad i fyra kapitel. I första kapitlet behandlas CGS och det görs även ett litet experiment med ett mynt för att göra det lätt för läsaren som inte är bekant med CGS att förstå. I kapitel två behandlas måtteori, det beskrivs hur mått och sannolikhet hänger ihop och jag kommer även ha med andra viktiga definitioner och satser som behövs i kommande kapitel. I kapi-tel tre introduceras konvergens i fördelningen och sedan kommer ett bevis på Levys kontinuitetssats. I kapitel fyra bevisas CGS och sedan avslutas det med ett exempel. I naturen och i samhället är det många fenomen som tenderar att följa speciella mönster - vid observation ses en normalfördelning. Det kan som exempel vara kroppslängden eller vikten hos en population människor eller resultaten på en tenta. Observationsvärdena brukar finnas nära medel-värdet men ju fler observationsvärden desto bättre normalfördelning vilket illustreras i nedanstående figur.

Figur 1.1: Normalfördelningskurva. Bildkälla:[3]

Normalfördelningen blir mycket viktig i sannolikhetsteori och i statistik tack vare CGS. Den är användbar och förekommer i många tillämpningar. Målet i denna uppsats är att bevisa CGS genom att använda karaktäristiska funk-tioner som har fina egenskaper. Innan vi kommer till bevisen så måste vi behandla andra viktiga satser och definitioner. En av satserna som vi kom-mer att titta närmare på är Levys kontinuitetssats. Så vad säger egentligen CGS? Jo den säger att summan av ett stort antal oberoende

(6)

likafördela-de slumpmässiga variabler är approximativt normalförlikafördela-delad. CGS är en av de viktigaste resultaten inom sannolikhetsläran och statistik. Det fina med CGS är att det spelar ingen roll vilken fördelning de slumpmässiga variabler-na har från början, det enda som krävs är att variablervariabler-na är oberoende och har kända (ändliga) väntevärden och varianser. Då kommer ändå summan av slumpmässiga variabler vara approximativt normalfördelad.

1.1

Experiment med ett mynt

Låt oss göra ett experiment och kasta upp ett mynt. Vi antar att mynten är viktade dvs sannolikheten är lika stor att få krona eller klave. Vi betecknar kronan = ω1 och klaven = ω2. Vi kallar då ω1 och ω2 för element av en mängd som vi kallar för utfallsrum och vi betecknar som Ω = {ω1, ω2}. En händelse A är en mängd av utfall dvs en delmängd av Ω och vi betecknar som A ⊆ Ω. En slumpvariabel X : Ω → R är en funktion från Ω till R. Efter att vi har kastat vårt mynt så låter vi resultatet vara X(ω1) = 1 om det är krona och X(ω2) = 0 om det är klave. Sannolikheten att få en krona eller en klave är lika stora dvs P (X = 1) = P (X = 0) = 12 och väntevärdet av X räknas på följande sätt E(X) = 1 · P (X = 1) + 0 · P (X = 0) = 1 ·1 2 + 0 · 1 2 = 1 2.

Nu kastar vi mynten n gånger och låter händelsen A vara ”klave upp” med P(A) = p och komplementhändelsen Ac vara ”krona” med P(Ac) = 1 − p. Vi låter nu Xi vara en slumpmässig variabel som antar värdet 1 om A inträffar och 0 om Acinträffar, dvs Xi=  1, om A inträffar 0, om Acinträffar med väntevärden E(Xi) = 1 X k=0 kP(Xi= k) = 0 · P(Xi = 0) + 1 · P(Xi= 1) = 0 · P(Ac) + 1 · P(A) = p och variansen

V(Xi) = E((Xi− E(Xi))2 = E(Xi2) − (E(Xi))2 = 1 X k=0 k2P(Xi = k) − p2 = (02· P(Xi = 0) + 12· P(Xi = 1)) − p2 = p · (1 − p).

(7)

Om den slumpmässiga variabeln X är antal gånger som A inträffar bland n kastförsök, så blir X = X1+ X2+ X3+ · · · + Xn= n X i=1 Xi , E(X) = E n X i=1 Xi ! = n X i=1 E(Xi) = n · p och V(X) = V n X i=1 Xi ! = n X i=1 V(Xi) = n · p · (1 − p).

Antag att p = 12. För n = 1, så är X = X1och P(X = 0) = 12, P(X = 1) = 12. Fördelningen vid n = 1 dvs vid första försöket ser vi längst till vänster o.s.v. Vi ser tydligt när n = 100, dvs efter att vi har kastat myntet 100 gånger och sedan plottat ut resultaten, att fördelningen hos X börjar likna normalfördelningen då n växer. 0 0.2 0.4 0.6 0.8 1 0 0.1 0.2 0.3 0.4 0.5 n=1 0 2 4 6 8 10 0 0.05 0.1 0.15 0.2 0.25 n=10 0 10 20 30 40 50 0 0.02 0.04 0.06 0.08 0.1 0.12 n=50 0 20 40 60 80 100 0 0.02 0.04 0.06 0.08 n=100

(8)

Kapitel 2

Måtteori

Vad är ett mått? Ett mått kan beskrivas på följande sätt: en linje har en längd, en cirkel har ett område, en kon har en volym, etc. Begreppet mått är menat att ge oss en uppfattning om storleken på något. Vi ska senare se hur sannolikheter tolkas när det gäller mått.

2.1

Sannolikhetsrum

För att beskriva vilka delar av en given mängd Ω som går att mäta används sigma-algebra som betecknas F . För att lösa problem kan man splittra upp det in mindre beståndsdelar som sedan kan studeras separat. Detta kan inte göras hur som helst utan det måste se ut på ett visst sätt. F är det ma-tematiska sättet som används för att splittra ett objekt. Syftet är att göra problemet lättare att hantera.

Definition 2.1.1. Låt Ω vara en icke-tom mängd. Låt F vara en familj av delmängder av Ω och anta att F uppfyller följande kriterier:

(i) ∅ ∈ F , (ii) Om A ∈ F ⇒ Ac∈ F , (iii) Om Ai ∈ F , i = 1, 2 , · · · ⇒S∞ i=1Ai ∈ F . Då Ai är en uppräknelig sekvens av mängder. Då kallas F för en σ-algebra på Ω.

Lemma 2.1.1. Låt Ω vara en icke-tom mängd. Låt F vara en σ-algebra på Ω. Då

(i) Ω ∈ F , (ii) Tn

(9)

Exempel 2.1.1. Låt A vara en godtycklig händelse som är delmängd av utfallsrum Ω. Då är F = {∅, A, Ac, Ω} en σ-algebra.

Exempel 2.1.2. Låt Ω = {klave, krona} vara ett utfallsrum. Då fås F = {∅, klave, krona, {klave, krona}}.

Ett par (Ω, F ) där F är en σ-algebra på Ω kallas mätbart rum. Mängderna i F kallas mätbara. Det är till varje mätbar mängd vi småningom skall ge ett mått, speciellt en sannolikhet.

Definition 2.1.2. Ett mått µ på ett mätbart rum (Ω, F ) är en avbildning µ : F → [0, ∞] som uppfyller:

(i) µ(∅) = 0,

(ii) µ(A) ≥ 0, ∀A ∈ F ,

Om A1, A2, · · · ∈ F , AiT Aj = ∅ , där i 6= j och om A1, A2, · · · är uppräknelig följd så gäller (iii) µ  S n=1 An  = ∞ P n=1 µ(An).

Vi kallar trippeln (Ω, F , µ) för ett måttrum. Om µ(Ω) < ∞ då kallas µ för ändligt mått, om µ(Ω) = ∞ så kallas µ för oändligt mått och om µ(Ω) = 1 så kallas µ för sannolikhetsmått. Vi kan se att sannolikhetsteori bara är ett speciellt fall av måtteori. Vi kallar (Ω, F , P) framöver för sannolikhetsrum. Definition 2.1.3. Ett sannolikhetmått P i mätbart rum (Ω, F) ”då Ω är utfallsrum och F är en familj av händelser” är en funktion P : F → [0, 1].

Sannolikhetsmåttet P har följande egenskaper: (i) P(∅) = 0.

(ii) P(Ω) = 1.

(iii) P(Ac) + P(A) = 1 , för alla händelser A ∈ F. (iv) Om A ⊆ B, A, B ∈ F , så gäller P(A) ≤ P(B).

(v) Om A1, A2, · · · är disjunkta och i uppräknelig följd av händelser så gäller P  S n=1 An  =P∞ n=1P(An).

(vi) Om A1, A2, · · · ∈ F är uppräkneliga händelser så gäller

P  S i=1 Ai  = lim n→∞P  n S i=1 Ai  .

(10)

(vii) Om A1, A2, · · · ∈ F är händelser och A1 ⊆ A2 ⊆ A3· · · så gäller P  S i=1 Ai  = lim n→∞P (An) .

(viii) Om A1, A2, · · · ∈ F är händelser och A1 ⊇ A2 ⊇ A3· · · så gäller

P  T i=1 Ai  = lim n→∞P (An).

Definition 2.1.4. Delmängd A ⊆ R kallas öppen om det för varje x ∈ A existerar något  > 0 sådant att (x − , x + ) ⊆ A. Delmängden A ⊆ R är sluten om Ac är öppen. Låt nu Ω = R och låt C vara familjen av alla öppna delmängder av R. Då är σ(C) den σ-algebra som innehåller alla öppna delmängder av R och alla slutna delmängder av R. Vi kallar σ(C) för Borel σ-algebra i R och betecknar det som BR. σ(C) är den minsta σ-algebran. Med minsta σ-algebra menar vi om någon F innehåller C, så måste σ(C) ⊆ F . Definition 2.1.5. Låt (Ω, F , P) vara ett sannolikhetsrum. En funktion X : Ω → R sägs vara mätbar om för varje B ∈ BR gäller att X

−1(B) ∈ F , där X−1(B) = {ω ∈ Ω|X(ω) ∈ B}. Så en slumpmässig variabel X i (Ω, F , P) är en mätbar funktion. Sannolikheten av en slumpmässig variabel X är en funktion PX : BR→ [0, 1].

Om den slumpmässiga variabeln X antar ett ändligt eller uppräkneligt antal olika värden säger vi att X är diskret. Om den slumpmässiga variabeln X kan anta alla värden i ett intervall eller union av intervall och returnerar ett tal säger vi att X är en kontinuerlig slumpmässig variabel.

Definition 2.1.6. Låt X vara en kontinuerlig slumpmässig variabel sådan att för en kontinuerlig funktion fX

P(a ≤ X ≤ b) = b Z

a

fX(x)dx

Då kallas fX(x) för täthetsfunktionen för X och uppfyller (i) fX(x) ≥ 0. (ii) ∞ R −∞ fX(x)dx = 1.

Definition 2.1.7. Funktionen F är kontinuerlig från höger i x0 ∈ D om lim

x→x+0

(11)

Definition 2.1.8. Om en slumpmässig variabel X har sannolikhetsmåttet PX och täthetsfunktionen fX då kallas FX(x) för fördelningsfunktionen och vi har FX(x) = PX(X(ω) ∈ (−∞, x]) = P (X(ω) ≤ x) = x Z −∞ fX(x)dx.

F (x) har följande egenskaper: (i) lim

x→−∞FX(x) = 0. (ii) lim

x→∞FX(x) = 1.

(iii) Om x ≤ y så är FX(x) ≤ FY(y).

(iv) FX(x) är högerkontinuerlig för alla x ∈ R.

(v) dxdFX(x) = fX(x) eftersom fX(x) är kontinuerlig i varje punkt x. Transformer är vanliga i många tillämpningar, bland annat för att om-vandla ett problem till ett nytt problem som (förhoppningsvis) är enklare att lösa. Vi kommer att använda denna teknik för att bevisa CGS genom att använda karaktäristiska funktioner för slumpmässiga variabler eftersom karaktäristiska funktioner har goda egenskaper.

Definition 2.1.9. För en (reellvärd) slumpmässig variabel X i (Ω, F , P) med fördelningen µ definierar vi den karaktäristiska funktionen som

φ : R −→ C

φX(t) = E(eitx) = E(cos(tx)) + iE(sin(tx)).

Eftersom cos(tx) och sin(tx) är begränsade funktioner, så har alltså eitx ett ändligt väntevärde (det spelar ingen roll om X har ett ändligt väntevärde eller inte). Den karaktäristiska funktionen är därmed väldefinierad för godtyckliga slumpmässiga variabler. Om X är en kontinuerlig slumpmässig variabel med täthetsfunktion fX(x) ≥ 0, så kan den karaktäristiska funktionen uttryckas som φX(t) = ∞ Z −∞ eitxfX(x)dx

vilket vi känner igen som fouriertransformen av fX. Om X är en diskret slumpmässig variabel och ett heltalsvärde, så kan den karakteristiska funk-tionen uttryckas som

φX(t) = ∞ X k=−∞

(12)

Den karaktäristiska funktionen har följande egenskaper: (i) φX(t) är kontunuerlig.

(ii) φX(0) = 1. (iii) |φX(t)| ≤ 1.

(iv) φX(t) är likformigt kontinuerlig.

För att kunna gå från den karaktäristiska funktionen till täthetsfunktion respektive sannolikhetsfunktionen behövs inversionsregler.

Sats 2.1.1 ([1]). (Inversformen) Låt X vara en reelvärd slumpmässig vari-abel med karakteristiska funktionen φ(t) och

∞ R −∞

|φ(t)|dt < ∞. Då har X en begränsad och kontinuerligt täthetsfunktion fX(x) över R

fX(x) = 1 2π ∞ Z −∞ e−itxφ(t)dt.

(13)

Kapitel 3

Levys kontinuitetssats

3.1

Bevis för Levys kontinuitetssats

Definition 3.1.1. Sekvensen F1, F2, · · · , Fn, · · · av fördelningsfunktioner konvergerar till en fördelningsfunktion F om

lim

n→∞Fn(x) = F (x) för alla x ∈ R sådan att F är kontinuerlig i x.

Sats 3.1.1 ([2]). (Hellys valsats) För varje sekvens Fn av fördelningsfunk-tioner, finns det en delsekvens Fnk och en högerkontinuerlig icke-avtagande

funktion F sådan att

lim

k→∞Fnk(x) = F (x) om Fn är kontinuerlig i x.

Sats 3.1.2 ([1]). (Dominerade konvergenssatsen) Låt {Xn} och n ≥ 1 vara en följd av slumpmässiga variabler i (Ω, F , P). Om lim

n→∞Xn= X och om det finns en slumpmässig variabel Y i (Ω, F , P) sådan att |Xn| ≤ Y för alla n där E(|Y |) < ∞, då gäller lim n→∞E(Xn) = E  lim n→∞Xn  = E(X).

Sats 3.1.3 ([1]). Låt X1, X2, · · · vara en sekvens av slumpmässiga variabler. Fn → F om och endast om för alla begränsade kontinuerliga funktioner f : R → R. Då gäller

lim

n→∞E(f (Xn)) = E(f (X)).

Definition 3.1.2. Lår {xn} vara en talföljd. Då definieras limsup som lim sup n→∞ xn= lim n→∞  sup m≥n xm  .

(14)

Definition 3.1.3. (Täthet) Sekvensen av fördelningsfunktioner {Fn} är tät om det för alla  > 0, finns ett M sådant att

lim sup n→∞

Fn(−M) + 1 − Fn(M) ≤ .

Vi ska nu bevisa Levys kontinuitetssats, bevisidén finns i [1] men där har man hoppat över flera steg så jag kommer att komplettera med dessa. Sats 3.1.4 ([1]). (Levys kontinuitetssats) Låt µ1, µ2, · · · vara en följd av sannolikhetsmått i (R, BR) med karaktäristiska funktioner φ1, φ2, · · · .

(i) Om µn→ µ där µ är ett sannolikhetsmått i (R, BR), då gäller φn(t) → φ(t) punktvis för alla t, där φ är karaktäristiska funktionen av µ och φ är kontinuerligt i 0.

(ii) Anta φ : R → C kontinuerligt i 0 och φn(t) → φ(t) punktvis för alla t ∈ R. Då gäller att µn är tät och konvergerar till sannolikhetsmåttet µ i (R, BR) där µ har karaktäristiska funktionen φ.

Bevis. (i) om µn → µ, dåR R f (x)µn(dx) → R R f (x)µ(dx) för alla begränsade f . Låt t ∈ R vara fix och låt f (x) = eitx, där f är begränsad och kontinuerlig. Så φn(t) → φ(t) då n → ∞ och φ(t) är kontinuerlig i 0. Sedan är vi klara med bevisen av (i) genom att tillämpa sats 3.1.3.

(ii) För det motsatta kan vi anta att φn(t) → φ(t) punktvis i R, där φ(t) är kontinuerlig i 0. Anta att φn(t) → φ(t) för ∀t ∈ R och φ(t) är kontinuerlig i 0. Vi vill visa att µn är tät.

Låt u > 0. Då u Z −u 1 − eitx dt = 2u − u Z −u (cos(tx) + i sin(tx))dt u Z −u 1 − eitx dt = 2u −2 sin(ux) x 1 u u Z −u 1 − eitx dt = 2 −2 sin(ux) ux 1 u Z R   u Z −u 1 − eitx dt  µn(dx) = 2 Z R  1 −sin(ux) ux  µn(dx)

(15)

1 u u R −u        Z R 1 · µn(dx) | {z } = 1        dt−1u u R −u         Z R eitxµn(dx) | {z } = φn(t)         dt = 2R R  1 −sin(ux)ux  µn(dx) 1 u u Z −u (1 − φn(t)) dt = 2 Z R  1 −sin(ux) ux  µn(dx) Eftersom | sin(x)| = x R 0 cos(y)dy

≤ |x| för alla x vilket ger oss 1−sin(ux)ux ≥ 0 och | sin(ux)| ≤ 1 och vi får från högerledet 2 Z  1 −sin(ux) ux  µn(dx) ≥ 2 Z |x|≥2 u       1 − 1 |ux| | {z } ≥1 2       µn(dx) ≥ 2 Z |x|≥2 u 1 2 · µn(dx) = µn  x : |x| > 2 u  Låt  > 0 och välja u > 0 sådan att

1 u u Z −u (1 − φ(t)) dt ≤  2.

Eftersom φn(t) → φ(t) för alla t med sats 3.1.3 då får vi 1 u u Z −u (1 − φn(t)) dt −→ 1 u u Z −u (1 − φ(t)) dt

då n → ∞. Låt  > 0 och låt n vara sådan att 1 u u Z −u (1 − φn(t)) dt − 1 u u Z −u (1 − φ(t)) dt ≤  2. Vi har nu

(16)

µn  x : |x| > 2 u  ≤ 1 u u Z −u (1 − φn(t)) dt = 1 u u Z −u (1 − φn(t) + (1 − φ(t)) − (1 − φ(t))) dt ≤ 1 u u Z −u (1 − φn(t)) dt − 1 u u Z −u (1 − φ(t)) dt + 1 u u Z −u (1 − φ(t)) dt ≤  2 +  2 = . så sekvensen µn är tät. Nu antar vi att µnk → µ ∗ där µ

är ett sannolikhetsmått i (R, BR). Med del (i) konvergerar φnk till karaktäristiska funktionen av µ

. Alltså φ

nk → φ

och den karaktäristiska funktionen av µ∗ är φ. Så µn konvergerar svagt till ett sannolikhetsmått µ som har den karaktäristiska funktionen φ, alltså både µ∗ och µ har samma karaktäristiska funktion φ så med enligt sats 3.1.1 blir vårt bevis av (ii) komplett.

(17)

Kapitel 4

Centrala gränsvärdessatsen

4.1

Bevis av Centrala gränsvärdessatsen

Definition 4.1.1. För ∀z ∈ C, ez är definierad som ez = ∞ P k=0

zk

k!. Vi vill nu approximera ez med ett polynom av grad n och vi vill definiera restfunktio-nen som Rn(z). Då gäller

ez= n X k=0 zn k! + Rn(z)|z| n |Rn(z)|z|n| = ∞ X k=n+1 zn k! ≤ ∞ X k=n+1 |z|n k! = ∞ X k=0 |z|n+1+k (n + 1 + k)! ≤ |z|n+1 ∞ X k=0 |z|k k! = |z|n+1e|z| |Rn(z)||z|n ≤ |z|n+1e|z| |Rn(z)| ≤ |z|e|z| ∀z ∈ C, z → 0 ⇒ Rn(z) → 0.

Detta är viktig när vi vill approximera ez till ett polynom med hjälp av taylorutveckling eftersom vi vill att restermen ska gå mot 0.

Sats 4.1.1. Om X och Y är oberoende då gäller φX+Y(t) = φX(t)φY(t).

(18)

Bevis. Låt Z = X + Y och låt X och Y vara oberoende. Då gäller φZ(t) = φX+Y(t) = E(eit(X+Y )) = E(eitXeitY) = E(eitX)E(eitY) = φX(t)φY(t). Korollarium 4.1.1. Låt Sn= X1+ · · · + Xn Xi där är oberoende. Då gäller φSn(t) = φX1(t)φX2(t) · · · φXn(t) = n Y i=1 φXi(t)

Sats 4.1.2. Om X, Y är slumpmässiga variabler och om φX(t) = φY(t) då har X och Y samma fördelning för alla t ∈ R

Korollarium 4.1.2. Eftersom Xi har samma fördelning och samma karak-täristiska funktion φX(t) då får vi

φSn(t) = (φX(t))

n.

En kontinuerlig slumpmässig variabel X sägs vara normalfördelad dvs X ∈ N (µ, σ2) med väntevärde µ och variansen σ2 om den har täthetsfunk-tionen fX(x) = 1 √ 2πσ2e −(x−µ)2 2σ2

och har den karakteristiska funktionen

φX(t) = 1 √ 2πσ2 ∞ Z −∞ eitxe− (x−µ)2 2σ2 dx = · · · = eiµt− 1 2σ 2t2 .

och en standardnormalfördelning dvs N (0, 1) har den karaktäristiska funk-tionen e−12t

2

.

Sats 4.1.3. (CGS) Låt {X1, X2 , · · · , Xn, · · · } vara oberoende och likaför-delade slumpmässiga variabler med ändligt väntevärde E(Xi) = µ och ändlig varians V(Xi) = σ2. Då är summan Sn=

n P i=1

Xi av slumpmässiga variabler approximativt normalfördelad med E(Sn) = nµ och med V(Sn) =

√ nσ. Bevis. Låt {X1, X2 , · · · , Xn, · · · } vara en följd av oberoende och likaför-delade slumpmässiga variabler med väntevärde µ och variansen σ2. Vi är intresserade av fördelningen för Sn =

n P i=1

(19)

V(Sn) = nσ2. Vi låter Zn =

n

P

i=1

Xi−µ

σ√n vara en slumpvariabel och Yi = Xi−µ

σ där E(Yi) = 0 och V(Yi) = 1 så

Zn= n P i=1 Xi− µ σ√n = n P i=1 Yi √ n .

Låt φ(t) vara en karaktäristisk funktion av Y1 och använd resultaten från ovan och approximera eiY1t upp till grad 2.

φY1(t) = E(e itY1) = E  1 +iY1t 1! + (iY1t)2 2! + R2(iY1t)|iY1t| 2  = E(1) + it E(Y1) | {z } = 0 −t 2 2 E(Y 2 1) | {z } = 1 +t2E R2(iY1t)Y12  = 1 −t 2 2 + t 2 E R2(iY1t)Y12 .

Vi låter nu φn(t) vara en karaktäristisk funktion av Zn. Eftersom Yi är ”obe-roende och likafördelade” där t ∈ R gäller

φZn(t) = φPn i=1Yi n (t) = φY1  t √ n  φY2  t √ n  · · · φYn  t √ n  = n Y i=1 φYi  t √ n  = φY  t √ n  φY  t √ n  · · · φY  t √ n  =  φY( t √ n) n ≈  1 − t 2 2n+ t2 nE  R(iY√t n)Y 2 n .

(20)

Sätt Cn= −t22 + t2E  R(iY√t n)Y 2: lim n→∞Cn = n→∞lim  −t 2 2 + t 2 E  R(iY√t n)Y 2  (med dominerade konvergenssatsen)

=       −t 2 2 + t 2 E       lim n→∞R(iY t √ n)Y 2 | {z } = 0, då, n→∞             lim n→∞Cn = − t2 2 då φZn(t) =  1 +Cn n n lim n→∞φZn(t) = n→∞lim  1 − t 2 2n n lim n→∞φZn(t) = e −t2 2.

Här är högerledet lika med den karaktäristiska funktionen för en slumpmässig variabel som är standartnormalfördelad dvs N (0, 1) så på grund av Levys kontinuitetssats är beviset klart.

Exempel 4.1.1. I en demografibok finner Anna att livslängden i Sverige är fördelad med väntevärde 75 år och standaravvikelse 12 år. Det är all-mänt känt att livslängden inte är normalfördelad. Annas släkt består av 25 personer. Vad är den approximativa sannolikheten att den genomsnittliga livslängden i släkten överstiger 76 år?

Lösning: Låt X1, X2, X3, · · · , X25vara livslängderna av de 25 personerna i Annas släkt. Antag (med stöd av demografiboken) att E(Xi) = 75 och V(Xi) = 122 = 144 och att alla livslängderna är oberoende. Då vet vi enligt centrala gränsvärdessatsen att ¯X =

25 P i=i Xi är approximativ normalfördelad alltså ¯X = 25 P i=i Xi∈ N(75,√1225) = N(75, 2.4) och vi har då P(X > 76) + P( ¯¯ X ≤ 76) = 1 ⇐⇒ P( ¯X > 76) = 1 − P( ¯X ≤ 76) = 1 − P(X − 75¯ 2.4 ≤ 76 − 75 2.4 ) = 1 − F ( 1 2.4) = 1 − 0.6628 = 0.3372. Det betyder att sannolikheten för att den genomsnittliga livslängden i släkten överstiger 76 år är cirka 34 procent.

(21)

Litteraturförteckning

[1] Rick Durrett, Theory and Examples, Edition 4.1, Cambridge Univer-sity Press, 2010

[2] http://www-personal.umich.edu/~romanv/teaching/2007-08/235B/lecture-notes.pdf, 2017-04-10

[3] http://www.kdnuggets.com/2016/08/central-limit-theorem-data-science.html, 2017-05-27

References

Related documents

Trots att Rejlers inte använder hälsobokslut har det underlag som togs fram i samband med påbörjat arbete med hälsobokslut, underlättat att kommunicera

Vi kan lösa ekvationen genom att utveckla kvadraten, skriva om ekvationen och använda lösningsformeln, men det finns en enklare metod.. Svara på så enkel form som möjligt...

Förändring sedan 1997: Området har utvidgats till att även om- fatta hagmarken vid Bränna (omr. 5 i Gralén &amp; Hultengren 1997) då denna i dagsläget betas av nöt och får

Vid tillverkning av kolvar och cylindrar kan diametern för en viss typ av kolv betraktas som en normalfördelad stokastisk variabel med väntevärdet 8,10 mm och standardavvikelsen 0,12

Definition 4b En funktion (eller avbildning ) från en mängd A till en mängd B är en regel som till några element i A ordnar högst ett element i B. Vi säger också att x

Taylors formel används bl. vid i) numeriska beräkningar ii) felanalys iii) optimering och iv) härledningar inom olika tekniska och matematiska områden.. Felet vid denna

Det hör till att kunna alla dessa funktioners värde för de vinklar som ingår i en triangel genererad av en halv kvadrat respektive halv liksidig triangel, se härledning i mitten,

Första steget för att hantera andra ordningens differentialekvationer med konstanta koefficienter är att kunna lösa den homogena ekva- tionen.. Vi deri- verar den därför för att se