• No results found

E1/3δ2/3. 2.3 Generaliserad Tikhonovregularisering

En m¨ojlig generalisering av Tikhonovfunktionalen Jα ¨ar funktionalen

Gα(x) = Gα(x; y) := 1

2(kKx − yk

2+ αhLx, xi), (24)

d¨ar x ∈ X, y ∈ Y ¨ar fixt och L ¨ar en linj¨ar operator p˚a X. Vi f¨oruts¨atter h¨ar att L ¨ar symmetrisk och str¨angt positiv. L˚at oss definiera det sistn¨amnda begreppet tillsammans med n˚agra ytterligare:

Definition 2.3.1. L˚at A vara en linj¨ar operator p˚a X. S¨att

λmin(A) := inf

kxk=1hAx, xi

Vi s¨ager att A ¨ar positivt semidefinit om λmin(A) ≥ 0 och str¨angt positiv om str¨ang olikhet r˚ader.

Vi s¨ager ocks˚a att en linj¨ar operator A ¨ar positivt definit om

hAx, xi > 0,

f¨or alla x 6= 0, x ∈ X. I det ¨andligt-dimensionella fallet ¨ar detta dock ekvivalent med att A ¨ar str¨angt positiv. Vidare ¨ar f¨orst˚as

inf

kxk=1hAx, xi = min

kxk=1hAx, xi.

Sats 2.3.1. L˚at B vara en linj¨ar operator p˚a X. Uttrycket

kKx − yk2+ αkBxk2 (25)

kan d˚a skrivas om p˚a formen (24), f¨or n˚agon positivt semidefinit symmetrisk operator L. Omv¨ant, givet den positivt semidefinita symmetriska operatorn L existerar det en linj¨ar operator B p˚a X s˚adan att (24) kan skrivas om p˚a formen (25).

Anm¨arkning. Villkoret att B ¨ar en linj¨ar operator kan f¨orsvagas lite. Det g˚ar ocks˚a bra med en linj¨ar avbildning B : X −→ Z, d¨ar Z ¨ar ett euklidiskt rum, f¨or vilken vi liksom i beviset s¨atter L = BB.

Bevis. F¨or den f¨orsta implikationen s¨att L = BB. Vi har d˚a att

kBxk2 = hBx, Bxi = hBBx, xi = hLx, xi.

F¨or den andra implikationen, l˚at λ1, . . . , λn vara (den ordnade) f¨oljden av egenv¨arden till L r¨aknade med multiplicitet. Eftersom L ¨ar symmetrisk ¨

ar matrisen [L] diagonaliserbar (i godtycklig ON-bas f¨or X) , med

[L] = TtDT

f¨or n˚agon n × n-matris T , d¨ar D = diag(λ1, . . . , λn). Eftersom L ¨ar positivt semidefinit ¨ar alla egenv¨aren till L icke-negativa. Allts˚a kan vi bilda en linj¨ar operator B med

[B] =DT (i den givna ON-basen f¨or X). Vi f˚ar att

[BB] = [B]t[B] = Tt( √

D)2T = [L].

Allts˚a ¨ar L = BB.

Nu l˚ater vi f¨or ett godtyckligt y ∈ Y

Rα(y) := argminx∈XGα(x)

(d¨ar argmin definieras s˚asom i f¨oreg˚aende avsnitt). V˚ar m˚als¨attning ¨ar att visa att denna definition ger en v¨aldefinierad avbildning fr˚an Y till X och att familjen {Rα}α>0 utg¨or en linj¨ar regulariseringsstrategi f¨or K. F¨or detta utnyttjar vi en del element¨ar konvexitetsteori.

Definition 2.3.2. L˚at f : X −→ R. Vi s¨ager att f ¨ar konvex om f (θx1+ (1 − θ)x2) ≤ θf (x1) + (1 − θ)f (x2),

f¨or alla x1, x2 ∈ X och θ ∈ [0, 1]. Funktionen f s¨ages vara str¨angt konvex om olikheten ¨ar str¨ang n¨arhelst x1 6= x2 och θ ∈ (0, 1).

Sats 2.3.2. Om f : X −→ R ¨ar konvex, s˚a ¨ar varje lokal minimipunkt till f global. Om f ¨ar str¨angt konvex och har ett minimiv¨arde, s˚a ¨ar minimi-punkten entydigt best¨amd.

Bevis. L˚at x0 vara en lokal minimipunkt till f . Vi har d˚a att f (z) ≥ f (x0) f¨or alla z ∈ U , d¨ar U ¨ar n˚agon omgivning till x0. F¨or ett godtyckligt x ∈ X g¨aller att punkten z = θx0 + (1 − θ)x ligger i U , f¨or n˚agot 0 < θ < 1 tillr¨ackligt n¨ara 1. Allts˚a ¨ar

θf (x0) + (1 − θ)f (x) ≥ f (θx0+ (1 − θ)x) = f (z) ≥ f (x0),

Antag nu att f ¨ar str¨angt konvex och att x0och x1¨ar minimipunkter. Vi ska visa att x0 = x1. Antag det motsatta, att x0 och x1 ¨ar distinkta punkter i X. L˚at 0 < θ < 1. D˚a ¨ar

f (θx0+ (1 − θ)x1) < θf (x0) + (1 − θ)f (x1) = f (x0),

en mots¨agelse.

Den naturliga normen || · || p˚a ett linj¨art rum med skal¨arprodukt ¨ar konvex och dess kvadrat, allts˚a funktionen || · ||2, ¨ar str¨angt konvex. Det-ta ¨ar enkla konsekvenser av definitionen av normen och r¨aknelagarna f¨or skal¨arprodukten. L˚at K : X −→ Y vara en injektiv linj¨ar avbildning och l˚at y ∈ Y vara fixt. D˚a ¨ar funktionen kKx − yk2 str¨angt konvex. L˚at n¨amligen x1 och x2 vara distinkta pukter i X och l˚at 0 < θ < 1. Vi har att

kK(θx1+ (1 − θ)x2) − yk2 = kθ(Kx1− y) + (1 − θ)(Kx2− y)k2 < θkKx1− yk2+ (1 − θ)kKx2− yk2,

eftersom Kx1− y 6= Kx2− y.

Sats 2.3.3. L˚at Gα vara skriven p˚a formen (25). D˚a ¨ar Gα str¨angt konvex om N (K) ∩ N (B) = {0}.

Bevis. Vi p˚aminner oss om att funktionen || · ||2 ¨ar str¨angt konvex. L˚at nu x1 6= x2 vara punkter i X och l˚at 0 < θ < 1. Vi f˚ar d˚a att

Gα(θx1+ (1 − θ)x2) = ||K(θx1+ (1 − θ)x2) − y||2+ α||B(θx1+ (1 − θ)x2)||2 = ||θ(Kx1− y) + (1 − θ)(Kx2− y)||2 + αkθBx1+ (1 − θ)Bx2k2 ≤ (θkKx1− yk2+ (1 − θ)kKx2− yk2) + α(θkBx1k2+ (1 − θ)kBx2k2) = θGα(x1) + (1 − θ)Gα(x2),

med str¨ang olikhet om Kx1 − y 6= Kx2 − y eller Bx1 6= Bx2. Detta ¨ar ekvivalent med att K(x1 − x2) 6= 0 eller B(x1 − x2) 6= 0, vilket ¨ar fallet eftersom x1 och x2 ¨ar distinkta och vi antar att N (K) ∩ N (B) = {0}.

Om K ¨ar injektiv ¨ar f¨orst˚as villkoret i satsen uppfyllt. Vi ¨ar nu redo att visa att

Sats 2.3.4. Rα ¨ar en v¨aldefinierad avbildning fr˚an Y till X.

Bevis. Vi beh¨over ett litet hj¨alpresultat f¨or detta bevis: det existerar c0> 0 s˚adant att

f¨or alla x ∈ X. Enligt antagande ¨ar L str¨angt positiv. S¨att c0 = λmin(L) och l˚at x ∈ X vara godtyckligt. Vi kan skriva x p˚a formen x = ax0, f¨or n˚agot a ∈ R och x0 ∈ X med kx0k = 1. Vi har d˚a att

hLx, xi = hL(ax0), ax0i = a2hLx0, x0i

≥ a2c0= a2c0kx0k2 = c0kax0k2 = c0kxk2. Allts˚a g¨aller (26).

Av sats 2.3.3 f¨oljer att Gα ¨ar en str¨angt konvex funktional fr˚an X till R f¨or varje fixt y ∈ Y . Av sats 2.3.2f¨oljer att en eventuell minimipunkt ¨ar entydigt best¨amd. Nu g¨aller det allts˚a bara att visa att minimum faktiskt existerar, f¨or att vi ska kunna dra slutsatsen att Rα ¨ar v¨aldefinierad. (Ob-servera att str¨ang konvexitet inte implicerar att ett minimum existerar.) Av olikheten (26) f¨oljer att Gα(x) → +∞ d˚a kxk → ∞. Allts˚a kan vi v¨alja ett slutet klot B kring 0 s˚adant att Gα(x) ≥ C f¨or alla x utanf¨or B, d¨ar C ∈ R. Om ett minimum existerar ligger det allts˚a i B. Existensen av ett minimum f¨oljer h¨ar av att B ¨ar en kompakt m¨angd i X och att Gα¨ar kontinuerlig.

Sats 2.3.5. Avbildningarna Rα konvergerar punktvis mot identitetsopera-torn p˚a X, d v s,

RαKx → x, d˚a α → 0, f¨or alla x ∈ X.

Bevis. L˚at x0∈ X vara godtyckligt men fixt. Vi har att Gα(x; Kx0) = kKx − Kx0k2+ αhLx, xi

Den andra termen g˚ar mot noll, d˚a α g˚ar mot noll, och den f¨orsta termen ¨

ar oberoende av α. Eftersom kKx0− Kx0k2= 0 g¨aller allts˚a att lim

α→0RαKx = lim

α→0argminx∈XGα(x; Kx0) = x0.

Det ˚aterst˚ar f¨or oss att visa att Rα ¨ar kontinuerlig. Vi p˚aminner oss till att b¨orja med om sambandet mellan riktningsderivata och gradient (f¨or bevis h¨anvisas l¨asaren till n˚agon l¨arobok i flervariabel analys).

Sats 2.3.6. Om f : Rn −→ R ¨ar differentierbar i punkten x ∈ Rn och v ¨

ar en vektor i Rn, s˚a existerar riktningsderivatan δvf (x) av f i punkten x i riktningen v. Dessutom ¨ar δvf (x) = df (x + τ v) τ =0= h∇f (x), vi.

Sats 2.3.7. L˚at x0 ∈ Rn vara en lokal minimipunkt till funktionen f : Rn −→ R och l˚at U vara en konvex minimiomgivning till x0 f¨or f . Antag vidare att f ¨ar differentierbar i x0. D˚a ¨ar

h∇f (x0), x − x0i ≥ 0, (27) f¨or alla x ∈ U .

Bevis. L˚at x ∈ U vara godtyckligt. D˚a U ¨ar konvex ligger ¨aven punkten x0+ τ (x − x0) = τ x + (1 − τ )x0 i U , f¨or 0 ≤ τ ≤ 1. Eftersom x0 ¨ar ett lokalt minimum ¨ar

lim

τ →0+

f (x0+ τ (x − x0)) − f (x0)

τ ≥ 0,

d¨ar vi i h¨ogerledet har riktningsderivatan av f i punkten x0 i riktningen (x − x0). Olikheten (27) f¨oljer av sats2.3.6.

Dessa satser kan genom isomorfi ¨overs¨attas till motsvarande satser f¨or allm¨anna euklidiska rum.

Sats 2.3.8. Avbildningen Rα ¨ar kontinuerlig.

Bevis. Till att b¨orja med ska vi ber¨akna gradienten till Gαf¨or ett fixt y ∈ Y . F¨or varje v ∈ X och τ ∈ R g¨aller att

Gα(x + τ v) = 1 2kK(x + τ v) − yk 2+1 2αhL(x + τ v), x + τ vi = 1 2(kKx − yk 2+ τ2kKvk2+ 2τ hKx − y, Kvi) +1 2α(hLx, xi + τ hLx, vi + τ hLv, xi + τ 2hLv, vi) = (1 2kKx − yk 2+1 2αhLx, xi) + τ (hKx − y, Kvi) + αhLx, vi) + τ2(1 2kKvk 2+1 2αhLv, vi).

(H¨ar har vi ˚aterinf¨ort skalfaktorn 12 i det ursprungliga uttrycket f¨or den generaliserade tikhonovfunktionalen f¨or att bli av med en del 2:or som annars skulle finnas med i uttrycket f¨or gradienten.) Derivering med avseende p˚a τ ger att

δvGα(x) = hKx − y, Kvi + αhLx, vi = hK(Kx − y) + αLx, vi.

Av sats2.3.6f¨oljer att

∇Gα(x) = (KK + αL)x − Ky. (28)

L˚at nu y0 ∈ Y vara fixt och l˚at f¨oljden yn→ y0, n = 1, 2, 3, . . .. S¨att x0 = Rα(y0) och xn = Rα(yn), n = 1, 2, 3, . . .. F¨or att f¨orenkla beteckningarna s¨atter vi G0(x) = Gα(x; y0) och Gn(x) = Gα(x; yn), n = 1, 2, 3, . . .. Fr˚an sats 2.3.7har vi att

h∇Gn(xn), x0− xni ≥ 0, varf¨or h∇Gn(xn), xn− x0i ≤ 0, och att h∇G0(x0), xn− x0i ≥ 0.

Allts˚a ¨ar

0 ≥ h∇Gn(xn), xn− x0i − h∇G0(x0), xn− x0i

= h(KK + αL)(xn− x0), xn− x0i − hK(yn− y0), xn− x0i ≥ αc0kxn− x0k2− kK(yn− y0)kkxn− x0k,

d¨ar den sista olikheten f¨oljer av (26) och av att hKKx, xi = hKx, Kxi. F¨oljaktligen ¨ar

kxn− x0k ≤ 1 αc0

kK(yn− y0)k,

s˚a vi ser att xn→ x0, d˚a yn→ y0.

Sats 2.3.9. Avbildningen Rα ¨ar linj¨ar och kan skrivas p˚a den explicita for-men

Rα(y) = x, med

Rα= (KK + αL)−1K. (29) Bevis. Minimipunkten till Gα(x) f¨or ett fixt y ∈ Y ges av ekvationen

∇Gα(x) = 0, vilket enligt (28) ¨ar ekvivalent med

(KK + αL)x − Ky = 0. Detta ger l¨osningen

xα= Rα(y) = (KK + αL)−1Ky.

L˚at oss f¨ors¨akra oss om att operatorn KK + αL ¨ar injektiv. Antag att αLx + KKx = 0. Skal¨armultiplikation med x ger att

hαLx + KKx, xi = αhLx, xi + hKx, Kxi = 0, varav f¨oljer att x = 0.

Att Rα ¨ar linj¨ar framg˚ar av att vi i h¨ogerledet av (29) har en sam-mans¨attning av idel linj¨ara avbildningar.

Related documents