E1/3δ2/3. 2.3 Generaliserad Tikhonovregularisering
En m¨ojlig generalisering av Tikhonovfunktionalen Jα ¨ar funktionalen
Gα(x) = Gα(x; y) := 1
2(kKx − yk
2+ αhLx, xi), (24)
d¨ar x ∈ X, y ∈ Y ¨ar fixt och L ¨ar en linj¨ar operator p˚a X. Vi f¨oruts¨atter h¨ar att L ¨ar symmetrisk och str¨angt positiv. L˚at oss definiera det sistn¨amnda begreppet tillsammans med n˚agra ytterligare:
Definition 2.3.1. L˚at A vara en linj¨ar operator p˚a X. S¨att
λmin(A) := inf
kxk=1hAx, xi
Vi s¨ager att A ¨ar positivt semidefinit om λmin(A) ≥ 0 och str¨angt positiv om str¨ang olikhet r˚ader.
Vi s¨ager ocks˚a att en linj¨ar operator A ¨ar positivt definit om
hAx, xi > 0,
f¨or alla x 6= 0, x ∈ X. I det ¨andligt-dimensionella fallet ¨ar detta dock ekvivalent med att A ¨ar str¨angt positiv. Vidare ¨ar f¨orst˚as
inf
kxk=1hAx, xi = min
kxk=1hAx, xi.
Sats 2.3.1. L˚at B vara en linj¨ar operator p˚a X. Uttrycket
kKx − yk2+ αkBxk2 (25)
kan d˚a skrivas om p˚a formen (24), f¨or n˚agon positivt semidefinit symmetrisk operator L. Omv¨ant, givet den positivt semidefinita symmetriska operatorn L existerar det en linj¨ar operator B p˚a X s˚adan att (24) kan skrivas om p˚a formen (25).
Anm¨arkning. Villkoret att B ¨ar en linj¨ar operator kan f¨orsvagas lite. Det g˚ar ocks˚a bra med en linj¨ar avbildning B : X −→ Z, d¨ar Z ¨ar ett euklidiskt rum, f¨or vilken vi liksom i beviset s¨atter L = B∗B.
Bevis. F¨or den f¨orsta implikationen s¨att L = B∗B. Vi har d˚a att
kBxk2 = hBx, Bxi = hB∗Bx, xi = hLx, xi.
F¨or den andra implikationen, l˚at λ1, . . . , λn vara (den ordnade) f¨oljden av egenv¨arden till L r¨aknade med multiplicitet. Eftersom L ¨ar symmetrisk ¨
ar matrisen [L] diagonaliserbar (i godtycklig ON-bas f¨or X) , med
[L] = TtDT
f¨or n˚agon n × n-matris T , d¨ar D = diag(λ1, . . . , λn). Eftersom L ¨ar positivt semidefinit ¨ar alla egenv¨aren till L icke-negativa. Allts˚a kan vi bilda en linj¨ar operator B med
[B] =√DT (i den givna ON-basen f¨or X). Vi f˚ar att
[B∗B] = [B]t[B] = Tt( √
D)2T = [L].
Allts˚a ¨ar L = B∗B.
Nu l˚ater vi f¨or ett godtyckligt y ∈ Y
Rα(y) := argminx∈XGα(x)
(d¨ar argmin definieras s˚asom i f¨oreg˚aende avsnitt). V˚ar m˚als¨attning ¨ar att visa att denna definition ger en v¨aldefinierad avbildning fr˚an Y till X och att familjen {Rα}α>0 utg¨or en linj¨ar regulariseringsstrategi f¨or K. F¨or detta utnyttjar vi en del element¨ar konvexitetsteori.
Definition 2.3.2. L˚at f : X −→ R. Vi s¨ager att f ¨ar konvex om f (θx1+ (1 − θ)x2) ≤ θf (x1) + (1 − θ)f (x2),
f¨or alla x1, x2 ∈ X och θ ∈ [0, 1]. Funktionen f s¨ages vara str¨angt konvex om olikheten ¨ar str¨ang n¨arhelst x1 6= x2 och θ ∈ (0, 1).
Sats 2.3.2. Om f : X −→ R ¨ar konvex, s˚a ¨ar varje lokal minimipunkt till f global. Om f ¨ar str¨angt konvex och har ett minimiv¨arde, s˚a ¨ar minimi-punkten entydigt best¨amd.
Bevis. L˚at x0 vara en lokal minimipunkt till f . Vi har d˚a att f (z) ≥ f (x0) f¨or alla z ∈ U , d¨ar U ¨ar n˚agon omgivning till x0. F¨or ett godtyckligt x ∈ X g¨aller att punkten z = θx0 + (1 − θ)x ligger i U , f¨or n˚agot 0 < θ < 1 tillr¨ackligt n¨ara 1. Allts˚a ¨ar
θf (x0) + (1 − θ)f (x) ≥ f (θx0+ (1 − θ)x) = f (z) ≥ f (x0),
Antag nu att f ¨ar str¨angt konvex och att x0och x1¨ar minimipunkter. Vi ska visa att x0 = x1. Antag det motsatta, att x0 och x1 ¨ar distinkta punkter i X. L˚at 0 < θ < 1. D˚a ¨ar
f (θx0+ (1 − θ)x1) < θf (x0) + (1 − θ)f (x1) = f (x0),
en mots¨agelse.
Den naturliga normen || · || p˚a ett linj¨art rum med skal¨arprodukt ¨ar konvex och dess kvadrat, allts˚a funktionen || · ||2, ¨ar str¨angt konvex. Det-ta ¨ar enkla konsekvenser av definitionen av normen och r¨aknelagarna f¨or skal¨arprodukten. L˚at K : X −→ Y vara en injektiv linj¨ar avbildning och l˚at y ∈ Y vara fixt. D˚a ¨ar funktionen kKx − yk2 str¨angt konvex. L˚at n¨amligen x1 och x2 vara distinkta pukter i X och l˚at 0 < θ < 1. Vi har att
kK(θx1+ (1 − θ)x2) − yk2 = kθ(Kx1− y) + (1 − θ)(Kx2− y)k2 < θkKx1− yk2+ (1 − θ)kKx2− yk2,
eftersom Kx1− y 6= Kx2− y.
Sats 2.3.3. L˚at Gα vara skriven p˚a formen (25). D˚a ¨ar Gα str¨angt konvex om N (K) ∩ N (B) = {0}.
Bevis. Vi p˚aminner oss om att funktionen || · ||2 ¨ar str¨angt konvex. L˚at nu x1 6= x2 vara punkter i X och l˚at 0 < θ < 1. Vi f˚ar d˚a att
Gα(θx1+ (1 − θ)x2) = ||K(θx1+ (1 − θ)x2) − y||2+ α||B(θx1+ (1 − θ)x2)||2 = ||θ(Kx1− y) + (1 − θ)(Kx2− y)||2 + αkθBx1+ (1 − θ)Bx2k2 ≤ (θkKx1− yk2+ (1 − θ)kKx2− yk2) + α(θkBx1k2+ (1 − θ)kBx2k2) = θGα(x1) + (1 − θ)Gα(x2),
med str¨ang olikhet om Kx1 − y 6= Kx2 − y eller Bx1 6= Bx2. Detta ¨ar ekvivalent med att K(x1 − x2) 6= 0 eller B(x1 − x2) 6= 0, vilket ¨ar fallet eftersom x1 och x2 ¨ar distinkta och vi antar att N (K) ∩ N (B) = {0}.
Om K ¨ar injektiv ¨ar f¨orst˚as villkoret i satsen uppfyllt. Vi ¨ar nu redo att visa att
Sats 2.3.4. Rα ¨ar en v¨aldefinierad avbildning fr˚an Y till X.
Bevis. Vi beh¨over ett litet hj¨alpresultat f¨or detta bevis: det existerar c0> 0 s˚adant att
f¨or alla x ∈ X. Enligt antagande ¨ar L str¨angt positiv. S¨att c0 = λmin(L) och l˚at x ∈ X vara godtyckligt. Vi kan skriva x p˚a formen x = ax0, f¨or n˚agot a ∈ R och x0 ∈ X med kx0k = 1. Vi har d˚a att
hLx, xi = hL(ax0), ax0i = a2hLx0, x0i
≥ a2c0= a2c0kx0k2 = c0kax0k2 = c0kxk2. Allts˚a g¨aller (26).
Av sats 2.3.3 f¨oljer att Gα ¨ar en str¨angt konvex funktional fr˚an X till R f¨or varje fixt y ∈ Y . Av sats 2.3.2f¨oljer att en eventuell minimipunkt ¨ar entydigt best¨amd. Nu g¨aller det allts˚a bara att visa att minimum faktiskt existerar, f¨or att vi ska kunna dra slutsatsen att Rα ¨ar v¨aldefinierad. (Ob-servera att str¨ang konvexitet inte implicerar att ett minimum existerar.) Av olikheten (26) f¨oljer att Gα(x) → +∞ d˚a kxk → ∞. Allts˚a kan vi v¨alja ett slutet klot B kring 0 s˚adant att Gα(x) ≥ C f¨or alla x utanf¨or B, d¨ar C ∈ R. Om ett minimum existerar ligger det allts˚a i B. Existensen av ett minimum f¨oljer h¨ar av att B ¨ar en kompakt m¨angd i X och att Gα¨ar kontinuerlig.
Sats 2.3.5. Avbildningarna Rα konvergerar punktvis mot identitetsopera-torn p˚a X, d v s,
RαKx → x, d˚a α → 0, f¨or alla x ∈ X.
Bevis. L˚at x0∈ X vara godtyckligt men fixt. Vi har att Gα(x; Kx0) = kKx − Kx0k2+ αhLx, xi
Den andra termen g˚ar mot noll, d˚a α g˚ar mot noll, och den f¨orsta termen ¨
ar oberoende av α. Eftersom kKx0− Kx0k2= 0 g¨aller allts˚a att lim
α→0RαKx = lim
α→0argminx∈XGα(x; Kx0) = x0.
Det ˚aterst˚ar f¨or oss att visa att Rα ¨ar kontinuerlig. Vi p˚aminner oss till att b¨orja med om sambandet mellan riktningsderivata och gradient (f¨or bevis h¨anvisas l¨asaren till n˚agon l¨arobok i flervariabel analys).
Sats 2.3.6. Om f : Rn −→ R ¨ar differentierbar i punkten x ∈ Rn och v ¨
ar en vektor i Rn, s˚a existerar riktningsderivatan δvf (x) av f i punkten x i riktningen v. Dessutom ¨ar δvf (x) = d dτf (x + τ v) τ =0= h∇f (x), vi.
Sats 2.3.7. L˚at x0 ∈ Rn vara en lokal minimipunkt till funktionen f : Rn −→ R och l˚at U vara en konvex minimiomgivning till x0 f¨or f . Antag vidare att f ¨ar differentierbar i x0. D˚a ¨ar
h∇f (x0), x − x0i ≥ 0, (27) f¨or alla x ∈ U .
Bevis. L˚at x ∈ U vara godtyckligt. D˚a U ¨ar konvex ligger ¨aven punkten x0+ τ (x − x0) = τ x + (1 − τ )x0 i U , f¨or 0 ≤ τ ≤ 1. Eftersom x0 ¨ar ett lokalt minimum ¨ar
lim
τ →0+
f (x0+ τ (x − x0)) − f (x0)
τ ≥ 0,
d¨ar vi i h¨ogerledet har riktningsderivatan av f i punkten x0 i riktningen (x − x0). Olikheten (27) f¨oljer av sats2.3.6.
Dessa satser kan genom isomorfi ¨overs¨attas till motsvarande satser f¨or allm¨anna euklidiska rum.
Sats 2.3.8. Avbildningen Rα ¨ar kontinuerlig.
Bevis. Till att b¨orja med ska vi ber¨akna gradienten till Gαf¨or ett fixt y ∈ Y . F¨or varje v ∈ X och τ ∈ R g¨aller att
Gα(x + τ v) = 1 2kK(x + τ v) − yk 2+1 2αhL(x + τ v), x + τ vi = 1 2(kKx − yk 2+ τ2kKvk2+ 2τ hKx − y, Kvi) +1 2α(hLx, xi + τ hLx, vi + τ hLv, xi + τ 2hLv, vi) = (1 2kKx − yk 2+1 2αhLx, xi) + τ (hKx − y, Kvi) + αhLx, vi) + τ2(1 2kKvk 2+1 2αhLv, vi).
(H¨ar har vi ˚aterinf¨ort skalfaktorn 12 i det ursprungliga uttrycket f¨or den generaliserade tikhonovfunktionalen f¨or att bli av med en del 2:or som annars skulle finnas med i uttrycket f¨or gradienten.) Derivering med avseende p˚a τ ger att
δvGα(x) = hKx − y, Kvi + αhLx, vi = hK∗(Kx − y) + αLx, vi.
Av sats2.3.6f¨oljer att
∇Gα(x) = (K∗K + αL)x − K∗y. (28)
L˚at nu y0 ∈ Y vara fixt och l˚at f¨oljden yn→ y0, n = 1, 2, 3, . . .. S¨att x0 = Rα(y0) och xn = Rα(yn), n = 1, 2, 3, . . .. F¨or att f¨orenkla beteckningarna s¨atter vi G0(x) = Gα(x; y0) och Gn(x) = Gα(x; yn), n = 1, 2, 3, . . .. Fr˚an sats 2.3.7har vi att
h∇Gn(xn), x0− xni ≥ 0, varf¨or h∇Gn(xn), xn− x0i ≤ 0, och att h∇G0(x0), xn− x0i ≥ 0.
Allts˚a ¨ar
0 ≥ h∇Gn(xn), xn− x0i − h∇G0(x0), xn− x0i
= h(K∗K + αL)(xn− x0), xn− x0i − hK∗(yn− y0), xn− x0i ≥ αc0kxn− x0k2− kK∗(yn− y0)kkxn− x0k,
d¨ar den sista olikheten f¨oljer av (26) och av att hK∗Kx, xi = hKx, Kxi. F¨oljaktligen ¨ar
kxn− x0k ≤ 1 αc0
kK∗(yn− y0)k,
s˚a vi ser att xn→ x0, d˚a yn→ y0.
Sats 2.3.9. Avbildningen Rα ¨ar linj¨ar och kan skrivas p˚a den explicita for-men
Rα(y) = x, med
Rα= (K∗K + αL)−1K∗. (29) Bevis. Minimipunkten till Gα(x) f¨or ett fixt y ∈ Y ges av ekvationen
∇Gα(x) = 0, vilket enligt (28) ¨ar ekvivalent med
(K∗K + αL)x − K∗y = 0. Detta ger l¨osningen
xα= Rα(y) = (K∗K + αL)−1K∗y.
L˚at oss f¨ors¨akra oss om att operatorn K∗K + αL ¨ar injektiv. Antag att αLx + K∗Kx = 0. Skal¨armultiplikation med x ger att
hαLx + K∗Kx, xi = αhLx, xi + hKx, Kxi = 0, varav f¨oljer att x = 0.
Att Rα ¨ar linj¨ar framg˚ar av att vi i h¨ogerledet av (29) har en sam-mans¨attning av idel linj¨ara avbildningar.