• No results found

Core probl´em v line´arn´ı aproximaˇcn´ı ´uloze Ax ≈ b s jednou pravou stranou

N/A
N/A
Protected

Academic year: 2022

Share "Core probl´em v line´arn´ı aproximaˇcn´ı ´uloze Ax ≈ b s jednou pravou stranou"

Copied!
50
0
0

Loading.... (view fulltext now)

Full text

(1)

Core probl´ em v line´ arn´ı aproximaˇ cn´ı ´ uloze Ax ≈ b

s jednou pravou stranou

Bakal´ aˇ rsk´ a pr´ ace

Studijn´ı program: B1101 – Matematika Studijn´ı obor: 1101R016 – Matematika Autor pr´ace: Filip J´agr

Vedouc´ı pr´ace: Martin Pleˇsinger

(2)

The core problem within a linear approximation problem Ax ≈ b,

with the single right-hand side

Bachelor thesis

Study programme: B1101 – Mathematics Study branch: 1101R016 – Mathematics

Author: Filip J´agr

Supervisor: Martin Pleˇsinger

(3)
(4)
(5)

Prohl´ aˇ sen´ı

Byl jsem sezn´amen s t´ım, ˇze na mou bakal´aˇrskou pr´aci se plnˇe vztahuje z´akon ˇc. 121/2000 Sb., o pr´avu autorsk´em, zejm´ena § 60 – ˇskoln´ı d´ılo.

Beru na vˇedom´ı, ˇze Technick´a univerzita v Liberci (TUL) neza- sahuje do m´ych autorsk´ych pr´av uˇzit´ım m´e bakal´aˇrsk´e pr´ace pro vnitˇrn´ı potˇrebu TUL.

Uˇziji-li bakal´aˇrskou pr´aci nebo poskytnu-li licenci k jej´ımu vyuˇzit´ı, jsem si vˇedom povinnosti informovat o t´eto skuteˇcnosti TUL;

v tomto pˇr´ıpadˇe m´a TUL pr´avo ode mne poˇzadovat ´uhradu n´aklad˚u, kter´e vynaloˇzila na vytvoˇren´ı d´ıla, aˇz do jejich skuteˇcn´e v´yˇse.

Bakal´aˇrskou pr´aci jsem vypracoval samostatnˇe s pouˇzit´ım uveden´e literatury a na z´akladˇe konzultac´ı s vedouc´ım m´e bakal´aˇrsk´e pr´ace a konzultantem.

Souˇcasnˇe ˇcestnˇe prohlaˇsuji, ˇze tiˇstˇen´a verze pr´ace se shoduje s elek- tronickou verz´ı, vloˇzenou do IS STAG.

Datum:

Podpis:

(6)

Anotace

Tato bakal´aˇrsk´a pr´ace se zab´yv´a problematikou ˇreˇsen´ı line´arn´ıch aproximaˇcn´ıch ´uloh ve smyslu tzv. ´upln´ych nejmenˇs´ıch ˇctverc˚u (TLS, z anglick´eho total least squares).

V ´uvodu se sezn´am´ıme s velmi d˚uleˇzit´ym n´astrojem, kter´ym je singul´arn´ı roz- klad (SVD, z anglick´eho singular value decomposition). D´ale v pr´aci pop´ıˇseme moˇzn´e pˇr´ıstupy k ˇreˇsen´ı line´arn´ıch aproximaˇcn´ıch ´uloh. Nejprve struˇcnˇe zopakujeme bˇeˇznˇe zn´am´y pˇr´ıstup pˇreformulov´an´ı ´ulohy na tzv. (klasick´y) probl´em nejmenˇs´ıch ˇctverc˚u, neboli line´arn´ı regresi. V kontrastu k tomu zavedeme ´upln´y probl´em nejmenˇs´ıch ˇctverc˚u, neboli tzv. ortogon´aln´ı regresi. Dok´aˇzeme, ˇze ne vˇzdy m´a line´arn´ı apro- ximaˇcn´ı ´uloha ˇreˇsen´ı ve smyslu TLS. Tento d˚ukaz provedeme pomoc´ı ortogon´aln´ı transformace p˚uvodn´ı ´ulohy, tj. zmˇeny b´aze souˇradn´eho syst´emu, ve kter´em je ´uloha zformulovan´a, na blokovˇe diagon´aln´ı tvar. Tato transformace povede pˇr´ımo k definici tzv. core probl´emu. Zm´ın´ıme, ˇze core probl´em lze zapsat ve dvou typick´ych tvarech, pomoc´ı SVD tvaru a pomoc´ı bidiagon´aln´ıho tvaru.

V z´avˇereˇcn´e ˇc´asti pop´ıˇseme software vytvoˇren´y v prostˇred´ı Matlab, kter´y dok´aˇze generovat pseudon´ahodn´e line´arn´ı aproximaˇcn´ı ´ulohy pˇredepsan´ych rozmˇer˚u obsa- huj´ıc´ı core probl´em pˇredepsan´ych vlastnost´ı. Smyslem tohoto softwaru je vytvoˇren´ı datab´aze ´uloh pro statistick´e testy. To vˇsak jiˇz nen´ı souˇc´ast´ı t´eto pr´ace.

Kl´ıˇ cov´ a slova:

singul´arn´ı rozklad (SVD); (klasick´y) probl´em nejmenˇs´ıch ˇctverc˚u (LS); ´upln´y prob- l´em nejmenˇs´ıch ˇctverc˚u (TLS); ortogon´aln´ı regrese; ortogon´aln´ı transformace; core probl´em; SVD tvar core probl´emu; bidiagon´aln´ı tvar core probl´emu

(7)

Abstract

This bachelor thesis deals with solving linear approximation problems in the sense of the so-called total least squares (TLS).

In the beginning we introduce one of the most important tools, the singular value decomposition (SVD). Then we briefly describe possible approaches to solving such problem. First approach is the commonly known (ordinary) least squares formulation (or problem) also know as linear regression. We are particularly interested in the second approach, the total least squares formulation (or problem) also know as orthogonal regression. We show that the linear approximation problem may not have a solution in the sense TLS. This can be show using orthogonal transformations of the original problem, i.e., by changing coordinate systems in which the problem is formulated, so that the transformed problem has a block diagonal form. This transformation leads directly to the definition of the so-called core problem. We mention that the core problem can be written in two typical forms, in the SVD form and in the bidiagonal form.

In the final section, we describe a software tool that we developed in Matlab, which can generate pseudo-random linear approximation problems with given di- mensions and containing a core problem with prescribed properties. The aim of this tool is to assemble a database of such problems, which will be used for futher statistcal testing. This, however, is not part of this thesis.

Key words:

singular value decomposition (SVD); (ordinary) least squares problem (LS); total least squares problem (TLS); orthogonal regression; orthogonal transformation; core problem; SVD form of a core problem; bidiagonal form of a core problem

(8)

Podˇ ekov´ an´ı

Chtˇel bych podˇekovat Martinu Pleˇsingerovi za veden´ı m´e bakal´aˇrsk´e pr´ace, cenn´e rady, trpˇelivost a ochotu, kterou mi vˇenoval v pr˚ubˇehu zpracov´an´ı t´eto pr´ace.

(9)

Obsah

Anotace 5

Abstract 6

Seznam obr´azk˚u 10

Znaˇcen´ı a z´akladn´ı pojmy 11

Uvod´ 13

1 Singul´arn´ı rozklad 16

1.1 Spektr´aln´ı rozklad symetrick´e matice . . . 16

1.2 Symetrick´a matice jako line´arn´ı zobrazen´ı . . . 18

1.3 Obecn´a matice jako line´arn´ı zobrazen´ı . . . 20

1.4 Singul´arn´ı rozklad . . . 21

1.5 Aproximace matice matic´ı niˇzˇs´ı hodnosti . . . 24

2 Upln´´ y probl´em nejmenˇs´ıch ˇctverc˚u 25 2.1 Motivace . . . 25

2.2 Zaveden´ı a odvozen´ı ˇreˇsen´ı pomoc´ı SVD . . . 26

2.3 Existence a jednoznaˇcnost ˇreˇsen´ı. . . 28

3 Core probl´em 31 3.1 Ortogon´aln´ı transformace ´ulohy . . . 31

3.2 Dovˇetek k vˇetˇe 8 . . . 32

3.3 Zaveden´ı core probl´emu. . . 33

3.4 Tvary core probl´emu . . . 34

3.4.1 Core probl´em v SVD tvaru . . . 34

3.4.2 Bidiagon´aln´ı tvar core probl´emu . . . 35

4 Automatick´e generov´an´ı aproximaˇcn´ıch ´uloh s core probl´emem s pˇre- dem zn´am´ymi parametry 36 4.1 Program cpSVD. Core probl´em v SVD tvaru . . . 36

4.2 Program cpBDG. Core probl´em v bidiagon´aln´ım tvaru . . . 41 4.3 Program approxpb. Gener´ator aproximaˇcn´ıch ´uloh s core probl´emem 44

(10)

4.4 Datab´aze n´ahodn´ych aproximaˇcn´ıch ´uloh s core probl´emem stejn´ych vlastnost´ı . . . 46

Z´avˇer 47

Reference 48

(11)

Seznam obr´ azk˚ u

2.1 Klasick´y probl´em nejmenˇs´ıch ˇctverc˚u (line´arn´ı regrese) . . . 26 2.2 Upln´´ y probl´em nejmenˇs´ıch ˇctverc˚u (ortogon´aln´ı regrese). . . 27

(12)

Znaˇ cen´ı a z´ akladn´ı pojmy

Matice a vektory

A ∈ Rn×m (Cn×m) re´aln´a (komplexn´ı) matice m-kr´at-n s prvky ai,j AT transponovan´a matice k matici A

A komplexnˇe sdruˇzen´a matice k matici A AH = AT hermitovsky sdruˇzen´a matice k matici A rank(A) hodnost matice definovan´a jako poˇcet line´arnˇe

nez´avisl´ych ˇr´adk˚u, respektive sloupc˚u matice A QT = Q−1 ∈ Rn×n ortogon´aln´ı matice

QH = Q−1 ∈ Cn×n unit´arn´ı matice

x ∈ Rn (Cn) re´aln´y (komplexn´ı) vektor s d´elkou n a prvky xj kxk eukleidovsk´a norma vektoru, kxk = (P

j|xj|2)1/2 hx, yi standardn´ı skal´arn´ı souˇcin, hx, yi = yHx =P

jxjyj x ⊥ y vektory x a y jsou ortogon´aln´ı, tj. hx, yi = 0

kAk2 spektr´aln´ı norma matice, kAk2 = maxkxk=1kAxk kAkF Frobeniova norma matice, kAkF = (P

i

P

j|ai,j|2)1/2 Σ(A) mnoˇzina vˇsech singul´arn´ıch ˇc´ısel matice A vˇcetnˇe

n´asobnost´ı N (A) j´adro matice A

R(A) obor hodnot matice A

dim(V) dimenze line´arn´ıho vektorov´eho prostoru V V ortogon´aln´ı doplnˇek podprostoru V

V ⊥ W podprostory V a W jsou ortogon´aln´ı, tj. hx, yi = 0, ∀x ∈ V a ∀y ∈ W V ⊕ W je direktn´ı souˇcet podprostor˚u V a W span(q1, . . . , qm) prostor generovan´y vektory q1, . . . , qm min M, M ⊂ R minimum z mnoˇziny M

|M| poˇcet prvk˚u koneˇcn´e mnoˇziny M

(13)

Terminologie aproximaˇ c´ıch ´ uloh

Ax ≈ b aproximaˇcn´ı ´uloha s matic´ı A ∈ Rn×m a vektorem prav´e strany b ∈ Rn, b /∈ R(A)

A11x1 ≈ b1 core probl´em v ´uloze Ax ≈ b, A11 ∈ Rn×m, b1 ∈ Rn A syst´emov´a matice (matice modelu)

b prav´a strana (vektor pozorov´an´ı) [b, A] rozˇs´ıˇren´a matice (matice dat)

Pouˇ zit´ e zkratky

SVD singul´arn´ı rozklad matice, A = U ΣVH (singular value decomposition)

TLS ´upln´y probl´em nejmenˇs´ıch ˇctverc˚u (total least squares problem)

(14)

Uvod ´

Ustˇredn´ım bodem t´´ eto pr´ace bude aproximaˇcn´ı probl´em Ax ≈ b,

kde A ∈ Rn×m je dan´a matice, reprezentuj´ıc´ı napˇr. nˇejak´y model a prav´a strana b ∈ Rn je dan´y vektor pozorov´an´ı, kter´y m˚uˇze b´yt pˇrirozenˇe zat´ıˇzen´y chybami, napˇr. chybami mˇeˇren´ı. Obecnˇe tedy vektor b nemus´ı leˇzet v oboru hodnot R(A) matice A. Proto budeme d´ale striktnˇe pˇredpokl´adat

b 6∈ R(A),

v opaˇcn´em pˇr´ıpadˇe by byl aproximaˇcn´ı probl´em de-facto soustavou rovnic Ax = b a mˇel by ˇreˇsen´ı v klasick´em slova smyslu. Protoˇze ale probl´em Ax ≈ b, b 6∈ R(A) ˇreˇsen´ı nem´a (neexistuje vektor x takov´y, aby nastala rovnost), mus´ıme pˇristoupit k nˇejak´emu n´ahradn´ımu postupu. Typicky hled´ame vektor x takov´y, abychom mini- malizovali nˇejak´y pˇredepsan´y funkcion´al. ˇCasto se v takov´em pˇr´ıpadˇe pouˇz´ıv´a nˇejak´a varianta metody nejmenˇs´ıch ˇctverc˚u. V t´eto pr´aci se budeme zab´yvat tzv. ´upln´ym probl´emem nejmenˇs´ıch ˇctverc˚u (TLS, z anglick´eho total least squares), kter´y hled´a nejmenˇs´ı matici E a vektor r, tj.

min k[r, E]kF tak, ˇze (b + r) ∈ R(A + E),

kde k · kF znaˇc´ı tzv. Frobeniovu normu matice, tj. odmocninu ze souˇctu kvadr´at˚u (absolutn´ıch hodnot) vˇsech prvk˚u matice. Pokud takov´a minim´aln´ı E a r existuj´ı, pak libovoln´y vektor x splˇnuj´ıc´ı (A + E)x = (b + r) naz´yv´ame TLS ˇreˇsen´ı p˚uvodn´ı

´

ulohy Ax ≈ b. Tato ´uloha (na rozd´ıl od klasick´eho probl´emu nejmenˇs´ıch ˇctverc˚u, kde hled´ame pouze minim´aln´ı opravu r prav´e strany b) obecnˇe nem´a ˇreˇsen´ı pro dan´e A a b, jak jiˇz v roce 1980 uk´azali G. H. Golub a C. F. Van Loan v ˇcl´anku [8].

Radu praktick´ˇ ych aplikac´ı ´upln´eho probl´emu nejmenˇs´ıch ˇctverc˚u nalezneme napˇr.

v knih´ach [19], [20].

Dalˇs´ı v´yznamn´y posun v anal´yze TLS probl´emu byl publikov´an v roce 1991 v knize [18] J. Vandewalle a S. Van Huffel (vych´azej´ıc´ı z dizertaˇcn´ı pr´ace S. Van Huffel [15]). Zde se mimo jin´e zav´ad´ı klasifikace probl´em˚u Ax ≈ b na tzv. gene- rick´e (generic) a negenerick´e (nongeneric) probl´emy, pˇriˇcemˇz prvn´ı z nich vˇzdy maj´ı TLS ˇreˇsen´ı (ne nutnˇe jednoznaˇcn´e), zat´ımco negenerick´e probl´emy TLS ˇreˇsen´ı ne- maj´ı. Term´ın

”generick´y/negenerick´y probl´em“ ovˇsem nen´ı nejˇst’astnˇeji zvolen. Po- jem ”generic“ lze z angliˇctiny pˇreloˇzit jako

”bˇeˇzn´y“ a jeho antonymum

”nongeneric“

(15)

pak napˇr. jako

”vz´acn´y“. Tato terminologie byla pravdˇepodobnˇe motivov´ana t´ım, ˇze se bˇeˇzn´ych v´ypoˇcetn´ıch ´uloh´ach skuteˇcnˇe vyskytovaly zpravidla jen generick´e probl´emy.

Nejjednoduˇsˇs´ı pˇr´ıpad TLS probl´emu, kter´y je v literatuˇre tak´e nejˇcastˇeji zmiˇno- v´an, nav´ıc pracuje s matic´ı A pln´e sloupcov´e hodnosti, tj. rank(A) = m. Spojen´ı tˇechto dvou jev˚u n´as m˚uˇze snadno sv´est k n´asleduj´ıc´ı myˇslence:

”M´a-li matice A line´arnˇe nez´avisl´e sloupce, pak m´a probl´em Ax ≈ b TLS ˇreˇsen´ı,“ kter´a vˇsak nen´ı pravdiv´a. S. Van Huffel v ˇcl´anku [17] na str. 547 opatrnˇe p´ıˇse:

”These conditions (podm´ınky postaˇcuj´ıc´ı pro existenci TLS ˇreˇsen´ı) are generically satisfied provided A is of full rank and the set Ax ≈ b is not too conflicting.1“ V dalˇs´ıch pracech m˚uˇzeme nal´ezt i m´enˇe opatrn´e formulace, napˇr.:

”If we suppose that [b, A] has full column rank, this condition (podm´ınka postaˇcuj´ıc´ı pro existenci TLS ˇreˇsen´ı) is generally satisfied,“ viz [5, str. 54]; nebo dokonce pˇr´ımo nepravdiv´e, napˇr.:

”In our case, when the matrix A has full rank and n > m, the solution of the TLS problem always exists,“ viz [6, str. 37].

Nepravdivost v´yˇse zm´ınˇen´eho tvrzen´ı, tedy fakt, ˇze existuj´ı probl´emy Ax ≈ b, b 6∈ R(A), rank(A) = m, kter´e nemaj´ı TLS ˇreˇsen´ı, lze nejsn´aze uk´azat pomoc´ı tzv. core probl´emu zaveden´eho C. C. Paigem a Z. Strakoˇsem v ˇcl´anku [12]. Uˇzit´ım core probl´emu lze dokonce takov´e probl´emy snadno konstruovat. C´ılem t´eto pr´ace je vytvoˇrit software v prostˇred´ı Matlab, kter´y bude generovat pseudon´ahodn´e apro- ximaˇcn´ı probl´emy Ax ≈ b (tedy matice A a vektory b), pˇredepsan´ych rozmˇer˚u, obsahuj´ıc´ı core probl´em pˇredepsan´ych rozmˇer˚u a maj´ıc´ı dalˇs´ı pˇredepsan´e vlastnosti.

T´ım budeme schopni generovat velk´e mnoˇzstv´ı aproximaˇcn´ıch ´uloh s maticemi pln´e sloupcov´e hodnosti a nemaj´ıc´ı TLS ˇreˇsen´ı.

Dalˇs´ım krokem, kter´y by mˇel navazovat, ale nen´ı jiˇz souˇc´ast´ı t´eto pr´ace, bude vy- tvoˇrit nˇekolik datov´ych soubor˚u s probl´emy Ax ≈ b (kaˇzd´y soubor charakterizovan´y parametry, podle kter´ych byl vytvoˇren) dostateˇcnˇe velk´ych pro n´asleduj´ıc´ı statistic- kou anal´yzu. Konkr´etnˇe by bylo zaj´ımav´e nauˇcit se generovat (tj. odladit parametry) probl´emy Ax ≈ b, jejichˇz prvky (tj. prvky jejich matic A a prav´ych stran b) se budou chovat jako nez´avisl´e, identicky distribuovan´e n´ahodn´e promˇenn´e, matice A by mˇely line´arnˇe nez´avisl´e sloupce, a probl´emy by pˇritom nemˇely TLS ˇreˇsen´ı. Zaj´ımav´y by byl i negativn´ı v´ysledek, tedy pokud by se takov´e probl´emy generovat nepodaˇrilo.

Naznaˇcovalo by to, ˇze existenci core probl´emu uvnitˇr aproximaˇcn´ıho probl´emu by mohlo b´yt moˇzn´e detekovat statistick´ymi metodami.

Struktura t´eto pr´ace je n´asleduj´ıc´ı. Po struˇcn´em ´uvodu, v kapitole 1 zavedeme tzv. singul´arn´ı rozklad matice, jehoˇz zaveden´ı motivujeme spektr´aln´ım rozkladem.

V z´avˇeru kapitoly uk´aˇzeme, jak lze danou matici aproximovat matic´ı niˇzˇs´ı hodnosti.

V kapitole2se budeme vˇenovat ´upln´emu probl´emu nejmenˇs´ıch ˇctverc˚u (TLS), kter´y motivujeme jednoduch´ym fyzik´aln´ım pˇr´ıkladem na elektrickou vodivost a tzv. kla- sick´ym probl´emem nejmenˇs´ıch ˇctverc˚u. V z´avˇeru kapitoly zformulujeme postaˇcuj´ıc´ı podm´ınku pro existenci ˇreˇsen´ı aproximaˇcn´ı ´ulohy ve smyslu TLS. V kapitole 3 se

1Cl´ˇ anek [17] je tak´e k dispozici v preprintu [16], kde je citovan´a vˇeta na str. 9. V ˇcl´anku [17] i v jeho preprintu [16] se m´ısto Ax ≈ b pouˇz´ıv´a znaˇcen´ı Xβ ≈ y obvyklejˇs´ı ve statistick´e literatuˇre. Zde je znaˇcen´ı obmˇenˇeno z d˚uvodu konzistence textu. Obdobnˇe je znaˇcen´ı obmˇenˇeno v obou n´asleduj´ıc´ıch vˇet´ach citovan´ych z ˇcl´ank˚u [5] a [6].

(16)

budeme vˇenovat tzv. core probl´emu n´astroji, kter´y vˇzdy nalezne ˇreˇsen´ı aproximaˇcn´ı

´

ulohy za pˇredpokladu, ˇze ˇreˇsen´ı existuje. V kapitole se budeme tak´e vˇenovat r˚uzn´ym tvar˚um core probl´emu a sice tzv. SVD tvaru core probl´emu a tzv. Bidiagon´aln´ımu tvaru core probl´emu. V kapitole 4 se budeme vˇenovat popisu naprogramovan´ych program˚u cpSVD a cpBDG, kter´e generuj´ı core probl´em v SVD respektive v bidia- gon´aln´ım tvaru a tak´e programu aproxpb, kter´y bude generovat aproximaˇcn´ı ´ulohu Ax ≈ b s core probl´emem.

(17)

1 Singul´ arn´ı rozklad

V n´asleduj´ıc´ı kapitole se budeme vˇenovat singul´arn´ımu rozkladu (SVD). Ve v´ykladu SVD budeme vych´azet ze skript [2], respektive z knih [21], [4], [9]. SVD je siln´ym n´astrojem pro v´ypoˇcet mnoha vlastnost´ı matic. Pomoc´ı SVD m˚uˇzeme spoˇc´ıtat napˇr´ıklad hodnost, spektr´aln´ı nebo Frobeniovu normu matice, pseudoinverzn´ı ma- tici, b´azi nulov´eho prostoru a oboru hodnot matice a ˇradu dalˇs´ıch vlastnost´ı. Za variabilitu a s´ılu SVD nicm´enˇe mus´ıme poˇc´ıtat s vyˇsˇs´ımi v´ypoˇcetn´ımi n´aroky.

Odvozen´ı singul´arn´ıho rozkladu budeme motivovat spektr´aln´ım rozkladem sy- metrick´e matice.

1.1 Spektr´ aln´ı rozklad symetrick´ e matice

Spektr´aln´ı rozklad symetrick´e semidefinitn´ı matice popisuje n´asleduj´ıc´ı vˇeta.

Vˇeta 1. Necht’ S ∈ Rn×n je symetrick´a pozitivnˇe semidefinitn´ı matice s hodnost´ı rank(S) = r. Potom existuje ortogon´aln´ı matice Q ∈ Rn×n tak, ˇze

D = QTSQ (1.1)

je diagon´aln´ı matice s vlastn´ımi ˇc´ısly matice S na diagon´ale. Ta jsou re´aln´a a seˇrazen´a tak, ˇze plat´ı

λ1 ≥ λ2 ≥ ... ≥ λr > λr+1 = . . . = λn = 0.

D˚ukaz. Schurova vˇeta [2, vˇeta 2.2] ˇr´ık´a, ˇze pro kaˇzdou matici S existuje unit´arn´ı matice Q ∈ Cn×n, Q = QH = QT, takov´a, ˇze

S = QRQH, kde

R = QHSQ

je komplexn´ı horn´ı troj´uheln´ıkov´a matice s vlastn´ımi ˇc´ısly matice S na diagon´ale seˇrazen´ymi v libovoln´em poˇrad´ı. D˚ukaz bude veden ve tˇrech kroc´ıch. V prvn´ım kroku uk´aˇzeme, ˇze vlastn´ı ˇc´ısla matice S jsou re´aln´a. D´ale uk´aˇzeme, ˇze vlastn´ı ˇc´ısla jsou nez´aporn´a. Nakonec uk´aˇzeme, ˇze matici Q lze volit re´alnou.

(18)

Krok 1: Je zˇrejm´e, ˇze

ST = (QRQH)T = QRHQH.

Protoˇze je matice S podle pˇredpokladu vˇety symetrick´a, tedy S = ST, plat´ı QRQH = QRHQH.

Vyn´asoben´ım obou stran rovnice matic´ı QH zleva z´ısk´ame RQH = RHQH

dalˇs´ım vyn´asoben´ım obou stran t´eto rovnice matic´ı Q zprava vid´ıme, ˇze plat´ı R = RH = RT,

tedy je patrn´e, ˇze matice R mus´ı b´yt diagon´aln´ı a re´aln´a.

Krok 2: Protoˇze matice S je pozitivnˇe semidefinitn´ı, tedy xTSx ≥ 0

pro libovoln´e x ∈ Rn, pak

qTjSqj = qTj(qjλj) = (qjTqjj = λj ≥ 0 pro j = 1, . . . , n. Protoˇze plat´ı

rank(S) = rank(QDQT) a Q je regul´arn´ı, potom

rank(S) = rank(D),

protoˇze matice D je diagon´aln´ı, t.j. D = diag(λ1, λ2, ..., λn), a rank(D) = r,

pak pr´avˇe n − r vlastn´ıch ˇc´ısel matice A mus´ı b´yt rovno nule. Tedy zb´yvaj´ıc´ıch r vlastn´ıch ˇc´ısel je kladn´ych.

Krok 3: Vztah S = QDQH lze pˇrepsat ve tvaru

SQ = QD, (1.2)

t.j.

Sqj = qjλj, j = 1, ..., n, (1.3) kde qj je j-t´y sloupec matice Q a λj je j-t´y diagon´aln´ı prvek matice D. Tedy qj je vlastn´ı vektor matice S odpov´ıdaj´ıc´ı vlastn´ımu ˇc´ıslu λj, t.j.

(S − Iλj)qj = 0. (1.4)

Protoˇze matice S − Iλj je re´aln´a m´a homogenn´ı soustava (1.4) tak´e re´aln´e ˇreˇsen´ı.

Tedy vlastn´ı vektor qj a celou matici Q lze volit re´aln´e.

(19)

1.2 Symetrick´ a matice jako line´ arn´ı zobrazen´ı

Kaˇzd´a ˇctvercov´a matice S ∈ Rn×n pˇredstavuje line´arn´ı zobrazen´ı z prostoru Rnzpˇet do prostoru Rn. Toto zobrazen´ı pˇriˇrad´ı obecn´emu vektoru x ∈ Rn vektor Sx ∈ Rn, tedy

S : x 7−→ y = Sx.

Pˇripomeˇnme, ˇze pro libovoln´e line´arn´ı zobrazen´ı (a tedy i pro matici) lze zav´est po- jem obor hodnot zobrazen´ı a j´adro zobrazen´ı. Nejprve zavedeme pojem obor hodnot.

Definice 1 (Obor hodnot matice). Necht’ A ∈ Rn×m je obecnˇe obdeln´ıkov´a matice.

Mnoˇzina

R(A) = {y ; y = Ax, x ∈ Rm} ⊆ Rn se naz´yv´a obor hodnot matice A.

N´asleduj´ıc´ı vˇeta upˇresn´ı jakou strukturu m´a obor hodnot matice.

Vˇeta 2. Necht’ A ∈ Rn×m je obecnˇe obdeln´ıkov´a matice. Mnoˇzina R(A) z definice 1 je line´arn´ı vektorov´y prostor.

D˚ukaz. D˚ukaz je jednoduch´y. Uvaˇzujme dva libovoln´e vektory z oboru hodnot ma- tice, napˇr. y1, y2 ∈ R(A), pak existuj´ı vektory x1, x2, pro kter´e plat´ı y1 = Ax1 a y2 = Ax2. D´ale zvolme x = αx1+ βx2, potom

Ax = A(αx1+ βx2) = αAx1+ βAx2 = αy1 + βy2 = y ∈ R(A).

Nyn´ı zavedeme druh´y z pojm˚u, tedy j´adro matice.

Definice 2 (J´adro matice). Necht’ A ∈ Rn×mje obecnˇe obdeln´ıkov´a matice. Mnoˇzina N (A) = {x ; Ax = 0} ⊆ Rm

se naz´yv´a j´adro matice A.

Stejnˇe jako u oboru hodnot, n´asleduj´ıc´ı vˇeta upˇresn´ı strukturu j´adra matice.

Vˇeta 3. Necht’ A ∈ Rn×m je obecnˇe obdeln´ıkov´a matice. Mnoˇzina N (A) z definice 2 je line´arn´ı vektorov´y prostor.

D˚ukaz. Pro vektory plat´ı x1, x2 ∈ R(A). D´ale zvolme x = αx1+ βx2, potom Ax = A(αx1+ βx2) = αAx1+ βAx2 = α0 + β0 = 0.

(20)

Protoˇze matice S je symetrick´a pozitivnˇe semidefinitn´ı a podle vˇety 1 v´ıme, ˇze m´a n vlastn´ıch vektor˚u a nav´ıc, ˇze tyto vektory lze volit navz´ajem ortogon´aln´ı. Tedy vlastn´ı vektory qj, j = 1, . . . , n, matice S tvoˇr´ı ortonorm´aln´ı b´azi Rn. Tedy ze vztah˚u (1.1) respektive (1.2) a (1.3) plyne

S : q1 7−→ λ1 q1, S : q2 7−→ λ2 q2,

...

S : qr 7−→ λr qr, S : {qr+1, . . . , qn} 7−→ 0 .

(1.5)

Libovoln´y vektor x ∈ Rn m˚uˇzeme zapsat jako line´arn´ı kombinaci b´azov´ych vektor˚u qj, j = 1, . . . , n n´asleduj´ıc´ım zp˚usobem

x =

n

X

j=1

αjqj. (1.6)

C´ısla αˇ j jsou souˇradnice vektoru x ve smˇeru qj. Pak

S : x 7−→

n

X

j=1

αjjqj).

Z toho plyne

R(S) = span(q1, q2, . . . , qr) = R(ST),

N (S) = span(qr+1, . . . , qn) = N (ST). (1.7) Protoˇze plat´ı QTQ = I vid´ıme, ˇze pro ∀y ∈ R(S) a pro ∀x ∈ N (S) plat´ı, ˇze jejich skal´arn´ı souˇcin bude roven nule, t.j.

hx, yi = 0.

Ze skal´arn´ıho souˇcinu plyne, ˇze obor hodnot matice a j´adro matice jsou na sebe kolm´e, tedy

R(S) ⊥ N (S). (1.8)

Vektor (1.6) lze tak´e zapsat ve tvaru

x = xR+ xN, kde xR a xN jsou definov´any n´asledovnˇe

xR =

r

X

j=1

αjqj ∈ R(S),

xN =

n

X

j=r+1

αjqj ∈ N (S).

(21)

Pak pro xR a xN plyne z (1.8), ˇze

xR⊥ xN. Tuto vlastnost zapisujeme

N (S) ⊕ R(S) = Rn, (1.9)

kde operace ⊕ se naz´yv´a direktn´ı souˇcet podprostor˚u. V dalˇs´ı kapitole se pokus´ıme z´ıskat popis analogick´y k (1.5) a (1.7) pro obecnou obdeln´ıkovou matici.

1.3 Obecn´ a matice jako line´ arn´ı zobrazen´ı

Protoˇze d´ale budeme pracovat s obecnou obdeln´ıkovou matic´ı je tˇreba vyjasnit n´asleduj´ıc´ı. Ze z´akladn´ıho pˇrehledu pˇredn´aˇsek z line´arn´ı algebry v´ıme, ˇze poˇcet line´arnˇe nez´avisl´ych ˇr´adk˚u se rovn´a poˇctu line´arnˇe nez´avisl´ych sloupc˚u. Tedy pro obecnou obdeln´ıkovou matici A ∈ Rn×m plat´ı

rank(A) = rank(AT),

pˇriˇcemˇz hodnost matice A je definov´ana jako dimenze prostoru R(A), tedy rank(A) = dim(R(A)).

Zˇrejmˇe tedy plat´ı

dim(R(A)) = rank(A) = rank(AT) = dim(R(AT)). (1.10) Plat´ı n´asleduj´ıc´ı vˇeta zobecˇnuj´ıc´ı vztahy (1.8) a (1.9).

Vˇeta 4. Uvaˇzujme obecnou obdeln´ıkovou matici A ∈ Rn×m. Pro kterou plat´ı N (A) ⊕ R(AT) = Rm, R(AT) ⊥ N (A), (1.11)

N (AT) ⊕ R(A) = Rn, R(A) ⊥ N (AT). (1.12)

D˚ukaz. D˚ukaz pˇrevezmeme z [2, vˇeta 1.25]. Plat´ı R(AT) ⊕ R(AT) = Rm.

Pro dok´az´an´ı prvn´ı ˇc´asti staˇc´ı uk´azat, ˇze R(AT) ⊥ N (A). Zavedeme libovoln´y vektor x z R(AT) pro kter´y plat´ı n´asleduj´ıc´ı ekvivalence

x ∈ R(AT) ⇐⇒ pro kaˇzd´e y ∈ R(AT) plat´ı hy, xi = 0

⇐⇒ pro kaˇzd´e z ∈ Rnplat´ı ATz, x = 0

⇐⇒ pro kaˇzd´e z ∈ Rnplat´ı hz, Axi = 0

⇐⇒ Ax = 0

⇐⇒ x ∈ N (A).

Druh´a ˇc´ast tvrzen´ı vypl´yv´a z vyuˇzit´ı prvn´ıho tvrzen´ı na matici AT.

(22)

Pro matici A a symetrickou pozitivnˇe semidefinitn´ı matice ATA, AAT nav´ıc plat´ı n´asleduj´ıc´ı vˇeta.

Vˇeta 5. Pro obecnou obdeln´ıkovou matici A ∈ Rn×m plat´ı N (ATA) = N (A), R(ATA) = R(AT), N (AAT) = N (AT), R(AAT) = R(A).

D˚ukaz. D˚ukaz opˇet pˇrevezmeme z [2, lemma 5.1]. Nejprve dok´aˇzeme prvn´ı rovnost.

Necht’ x ∈ N (A), potom plat´ı Ax = 0 a tak´e ATAx = 0. Z toho plyne, ˇze x ∈ N (ATA). Pak tedy

N (A) ⊂ N (ATA).

Nyn´ı necht’ x ∈ N (ATA), potom plat´ı AATAx = 0 a tak´e

0 = xTATAx =ATAx, x = hAx, Axi = kAxk2. Tedy i Ax = 0 a potom x ∈ N (A). Pak tedy

N (ATA) ⊂ N (A).

T´ım je dok´az´ana rovnost N (ATA) = N (A). Rovnost pro obory hodnot, tj. R(ATA) = R(AT), dostaneme pˇr´ımo z rovnosti pˇredchoz´ı a ze vztahu (1.11).

Pro d˚ukaz druh´e sady rovnosti staˇc´ı uvaˇzovat transponovanou matici B = AT, a do prvn´ı sady rovnost´ı dosadit za A i AT. T´ım ihned dostaneme vztahy N (BBT) = N (BT) a R(BBT) = R(B).

Podle rovnosti (1.10) a podle vˇety 5dost´av´ame

dim(R(AAT)) = dim(R(A)) = r = dim(R(AT)) = dim(R(ATA)), (1.13) kde r je hodnost matice A.

1.4 Singul´ arn´ı rozklad

N´asleduj´ıc´ı vˇeta o singul´arn´ım rozkladu (SVD, z anglick´eho singular value decom- position) bude pro dalˇs´ı v´yklad kl´ıˇcov´a.

Vˇeta 6 (O singul´arn´ım rozkladu). Necht’ A ∈ Rn×m je obecn´a obdeln´ıkov´a matice hodnosti r. Potom existuj´ı ortogon´aln´ı matice U ∈ Rn×n, V ∈ Rm×m a matice Σ ∈ Rn×m maj´ıc´ı nenulov´e prvky pouze na diagon´ale tak, ˇze plat´ı

A = U ΣVT. (1.14)

Sloupce matic U a V ,

U = [u1, . . . , un], V = [v1, . . . , vm],

(23)

naz´yv´ame lev´e respektive prav´e singul´arn´ı vektory. Matici Σ lze zapsat ve tvaru Σ = Σr 0

0 0

 ,

Σr =

 σ1

. ..

σr

, pˇriˇcemˇz plat´ı

σ1 ≥ σ2 ≥ . . . ≥ σr> 0. (1.15) Nenulov´a ˇc´ısla σj, j = 1, . . . , r naz´yv´ame singul´arn´ı ˇc´ısla.

D˚ukaz. Protoˇze ATA ∈ Rm×m je symetrick´a pozitivnˇe semidefinitn´ı podle vˇety 1 existuje ortogon´aln´ı matice V a diagon´aln´ı matice D tak, ˇze plat´ı

D = diag(λ1, . . . λm) = VT(ATA)V.

Protoˇze rank(ATA) = rank(A) = r podle (1.13) a v´ıme, ˇze λ1 ≥ λ2 ≥ . . . ≥ λr > λr+1 = . . . = λn = 0.

Tedy plat´ı

ATAvj = vjλj pro j = 1, . . . , r a nav´ıc

N (ATA) = N (A) = span(vr+1, . . . , vm), viz (1.5), (1.7). Zˇrejme pro j = 1, . . . , r plat´ı

A(ATA)vj = Avjλj, (AAT)(Avj) = (Avjj,

AATwj = wjλj, kde

wj = Avj

a matice AAT ∈ Rn×n je symetrick´a pozitivnˇe semidefinitn´ı s hodnost´ı r. Pro skal´arn´ı souˇcin vektor˚u wj a wk plat´ı

hwj, wki = wkTwj = vTk(ATAvj) = vkTλjvj = λjhvj, vki , tedy

hwj, wki =

 0, j 6= k λj, j = k . Normalizac´ı vektor˚u wj z´ısk´ame

uj = wj

kwjk = 1 pλjwj.

(24)

Protoˇze

dim(R(AAT)) = r (viz (1.13)), pak

R(AAT) = span(v1, . . . , vr) z vˇety 4vypl´yv´a

dim(N (AAT)) = n − r, a d´ale

R(AAT) ⊥ N (AAT).

Pro libovolnou ortonorm´aln´ı b´azi {ur+1, . . . , un} prostoru N (AAT) tedy plat´ı, ˇze U = [u1, . . . , ur, ur+1. . . , un]

je ortogon´aln´ı matice, t.j. U UT = UTU = In. Tedy D = UT(AAT)U.

Pro j = 1, . . . , r tedy plat´ı

AATuj = ujλj, AT(AAT)uj = ATujλj, (ATA)(ATuj) = (ATujj,

ATAwej = wejλj, kde

wej = ATuj. Pro skal´arn´ı souˇcin vektor˚u wej awek plat´ı

hwej,weki =

 0, i 6= k λj, j = k . Normalizac´ı vektor˚uwej z´ısk´ame

evj = wej

kwejk = 1 pλjwej. Nyn´ı zb´yv´a uk´azat, ˇze vj =evj, zˇrejmˇe

evj = 1 pλj

ATuj = 1

λjATwj = 1

λjATAvj = 1

λjλjvj = vj. Oznaˇc´ıme-li

σj =pλj, j = 1, . . . , r pak je d˚ukaz hotov.

Uk´azali jsme tedy, ˇze pro libovolnou matici A existuje singul´arn´ı rozklad ve tvaru (1.14). V n´asleduj´ıc´ı sekci uk´aˇzeme dalˇs´ı moˇzn´e tvary singul´arn´ıho rozkladu a jejich vyuˇzit´ı k aproximaci matice matic´ı niˇzˇs´ı hodnosti.

(25)

1.5 Aproximace matice matic´ı niˇ zˇ s´ı hodnosti

V nˇekter´ych praktick´ych ´uloh´ach je lepˇs´ı pouˇz´ıt tzv. ekonomick´y tvar singul´arn´ıho rozkladu, kter´y spoˇc´ıv´a v odstranˇen´ı nˇekter´ych blok˚u, kter´e pˇri n´asoben´ı matic U a VT s matic´ı Σ nemaj´ı vliv na v´ysledn´y souˇcin, viz n´asleduj´ıc´ı sch´ema (pˇrevzato z [2, str. 127]):

A

=

U Σ

Σr

Ur VrT

0 0 0

VT

=

Ur Σr VrT .

Plat´ı tedy

A = U ΣVT = UrΣrVrT. (1.16) Z ekonomick´eho tvaru je vidˇet, ˇze matici A m˚uˇzeme zapsat pomoc´ı souˇctu vnˇejˇs´ıch souˇcin˚u

A =

k

X

j=1

σjujvTj

t.j. takzvan´y dyadick´y rozvoj. N´asleduj´ıc´ı d˚uleˇzit´a vˇeta popisuje aproximaci matice matic´ı niˇzˇs´ı hodnosti.

Vˇeta 7 (Schmidt, Eckart, Young, Mirsky). Necht’ A ∈ Rn×m je matice s hodnost´ı r. Pro libovoln´e pˇrirozen´e ˇc´ıslo k, pro kter´e plat´ı k < r, matice

A(k)=

k

X

j=1

σjujvTj

je nejlepˇs´ı aproximac´ı matice A v n´asleduj´ıc´ım smyslu:

min

X∈Rn×m, rank(X)≤kkA − Xk2 = kA − A(k)k2 = σk+1 a

min

X∈Rn×m, rank(X)≤kkA − XkF = kA − A(k)kF = v u u t

r

X

j=k+1

σj2.

D˚ukaz pro jednotliv´e normy lze nal´ezt v p˚uvodn´ıch ˇcl´anc´ıch [3] a [11]. D˚ukaz pro libovolnou ortogon´alnˇe invariantn´ı maticovou normu lze nal´ezt v knize [13, str. 208–

209]. D˚ukaz pro spektr´aln´ı normu je tak´e ve skriptech [2, str. 133, vˇeta 5.12]. Pozna- menejme, ˇze nejlepˇs´ı aproximace z pˇredchoz´ı vˇety nen´ı d´ana jednoznaˇcnˇe napˇr´ıklad kdyˇz σk = σk+1.

(26)

2 Upln´ ´ y probl´ em nejmenˇ s´ıch ˇ ctverc˚ u

V t´eto kapitole se jiˇz budeme zab´yvat ˇreˇsen´ım aproximaˇcn´ı ´ulohy

Ax ≈ b s podm´ınkou b /∈ R(A) (2.1)

a to pomoc´ı ´upln´eho probl´emu nejmenˇs´ıch ˇctverc˚u (TLS, z anglick´eho total least squares). K zaveden´ı TLS budeme vych´azet ze skript [2].

2.1 Motivace

Na ´uvod uved’me jednoduch´y pˇr´ıklad na elektrickou vodivost, kter´a je definovan´a jako pod´ıl elektrick´eho proudu a napˇet´ı. Z namˇeˇren´ych hodnot urˇc´ıme jednotliv´e vo- divosti viz graf na obr´azku2.1. N´aslednˇe metodou nejmenˇs´ıch ˇctverc˚u aproximujeme namˇeˇren´a data pˇr´ımkou.

Nejprve zaˇcneme s definic´ı klasick´eho probl´emu nejmenˇs´ıch ˇctverc˚u.

Definice 3 (Klasick´y probl´em nejmenˇs´ıch ˇctverc˚u). Necht’ existuj´ı A ∈ Rn×m a b ∈ Rn. Klasick´ym probl´emem nejmenˇs´ıch ˇctverc˚u nazveme ´ulohu nalezen´ı nejmenˇs´ı opravy prav´e strany tak, aby opraven´a ´uloha byla kompatibiln´ı t.j.

min krkF tak, ˇze (b + r) ∈ R(A).

Pak existuje vektor x ∈ Rm, kter´y ˇreˇs´ı opravenou ´ulohu. Probl´em lze tedy tak´e formulovat n´asleduj´ıc´ım zp˚usobem

min krkF tak, ˇze Ax = b + r, x ∈ Rm.

Nˇekdy se tak´e m˚uˇzeme setkat, ˇze probl´em nejmenˇs´ıch ˇctverc˚u je oznaˇcov´an jako line´arn´ı regrese.

Metoda nejmenˇs´ıch ˇctverc˚u (klasick´y probl´em je jej´ı variantou v line´arn´ım pˇr´ıpadˇe;

obecnˇe A(x) nemus´ı b´yt line´arn´ı zobrazen´ı) je pˇripisov´an C. F. Gaußovi (1777–1855), jeho z´aklady lze nal´ezt v pr´aci [7]. Ze souˇcasn´ych uˇcebnic zab´yvaj´ıc´ıch se ˇreˇsen´ım probl´emu nejmenˇs´ıch ˇctverc˚u odkazujeme na [10] a [1]. Z definice a tak´e z pˇr´ıkladu na obr´azku2.1 na v´ypoˇcet vodivosti je patrn´e, ˇze v modelu je opravov´ana pouze jedna sada namˇeˇren´ych dat. V pˇr´ıkladu na obr´azku2.1jsou to data na ose U (napˇet´ı). Data na ose I (proudy) jsou povaˇzov´ana za pˇresn´a. Nicm´enˇe v praxi mohou b´yt obsaˇzeny chyby v obou sad´ach namˇeˇren´ych dat. Tomu se budeme vˇenovat v n´asleduj´ıc´ı sekci.

(27)

0 2 4 6 8 10 12 14 16 18 0

2 4 6 8 10 12 14 16 18

U [V]

I [A]

Obr´azek 2.1: Body pˇredstavuj´ı namˇeˇren´e hodnoty proudu I (svisl´a osa) proch´azej´ıc´ıho rezistorem pˇri deseti r˚uzn´ych mˇeˇr´ıc´ıch napˇet´ıch U (vodorovn´a osa).

Ukolem je urˇ´ cit vodivost G, resp. rezistivitu R souˇc´astky (R = G−1). Z Ohmova z´akona plat´ı UG = I. ´Uloha m´a tedy tvar Ax ≈ b, A ∈ Rn×m, x ∈ Rm, b ∈ Rn, kde n = 10, m = 1. Matice A obsahuje namˇeˇren´e napˇet´ı, vektor pozorov´an´ı b namˇeˇren´e proudy, a nezn´am´a x je vodivost. Body jsou proloˇzeny line´arn´ı funkc´ı. Spojnice mezi body a funkc´ı ukazuj´ı odchylky mˇeˇren´ı, kter´e se minimalizuj´ı (resp. souˇcet jejich kvadr´at˚u) pˇri line´arn´ı regresi.

2.2 Zaveden´ı a odvozen´ı ˇ reˇ sen´ı pomoc´ı SVD

Nyn´ı se budeme zab´yvat ´ulohou kde obˇe sloˇzky namˇeˇren´ych dat obsahuj´ı chybu, tedy budeme opravovat oboje U i I, viz obr´azek 2.2.

K ˇreˇsen´ı t´eto ´ulohy potˇrebujeme n´asleduj´ıc´ı definici.

Definice 4 ( ´Upln´y probl´em nejmenˇs´ıch ˇctverc˚u). Necht’ existuj´ı A ∈ Rn×ma b ∈ Rn. Upln´´ ym probl´emem nejmenˇs´ıch ˇctverc˚u nazveme ´ulohu nalezen´ı nejmenˇs´ı opravy matice A a vektoru prav´e strany tak, aby opraven´a ´uloha byla kompatibiln´ı, t.j.

min k[r, E]kF tak, ˇze (b + r) ∈ R(A + E).

Pak existuje vektor x ∈ Rm, kter´y ˇreˇs´ı opravenou ´ulohu. Probl´em lze tedy tak´e

(28)

0 2 4 6 8 10 12 14 16 18 0

2 4 6 8 10 12 14 16 18

U [V]

I [A]

Obr´azek 2.2: Stejn´a data jako na obr´azku 2.1 jsou nyn´ı proloˇzena line´arn´ı funkc´ı tak, ˇze se minimalizuje vzd´alenost bod˚u mˇeˇren´a kolmo k t´eto funkci (resp. souˇcet kvadr´at˚u tˇechto vzd´alenost´ı). Tento pˇr´ıstup se naz´yv´a ortogon´aln´ı regrese.

formulovat n´asleduj´ıc´ım zp˚usobem

min k[r, E]kF tak, ˇze (A + E)x = b + r, x ∈ Rm. (2.2) V praxi se tak´e m˚uˇzeme setkat s oznaˇcen´ım ortogon´aln´ı regrese.

Z´akladn´ı uˇcebnice t´ykaj´ıc´ı se ´upln´eho probl´emu nejmenˇs´ıch ˇctverc˚u je [18]. Pokud se vr´at´ıme k aproximaˇcn´ı ´uloze Ax ≈ b (2.1), kde matice A je model, b je vektor pozorov´an´ı a x je vektor hledan´ych dat. Pak budeme opravovat matici modelu a vektor pozorov´an´ı. Pro jednoduchost pˇredpokl´adejme, ˇze matice A ∈ Rn×m, n > m, m´a plnou sloupcovou hodnost, tedy

rank(A) = m.

D´ale pro vektor b ∈ Rnplat´ı z aproximaˇcn´ı ´ulohy podm´ınka b /∈ R(A), pak hodnost matice A rozˇs´ıˇren´e o sloupec vektoru b vzroste o jedna, tedy

rank([b, A]) = m + 1.

(29)

Pomoc´ı SVD lze matici [b, A] zapsat v dyadick´em tvaru

[b, A] = SΘWT =

m+1

X

j=1

θjsjwjT, (2.3)

pro kter´y plat´ı

θ1 ≥ θ2 ≥ . . . ≥ θm ≥ θm+1 > 0. (2.4) Nyn´ı budeme hledat nejmenˇs´ı opravu [r, E], tak aby platilo

rank([b, A] − [r, E]) < m + 1.

Podle vˇety 7 bude oprava tvaru

[r, E] = −θm+1sm+1wTm+1. Pak opraven´a matice [b, A] bude tvaru

[bb, bA] =

m

X

j=1

θjsjwjT.

V dalˇs´ı sekci se budeme zab´yvat, zda opraven´a soustava bAx = bb m´a ˇreˇsen´ı.

2.3 Existence a jednoznaˇ cnost ˇ reˇ sen´ı

V t´eto sekci se budeme zab´yvat zda opraven´a soustava bAx = bb m´a ˇreˇsen´ı a zda je toto ˇreˇsen´ı jednoznaˇcn´e, tedy zda m´a p˚uvodn´ı ´uloha Ax ≈ b ˇreˇsen´ı ve smyslu TLS.

Vrat’me se tedy k ´uloze Ax ≈ b. Jednoduch´ymi ´upravami lze ´ulohu zapsat ve tvaru [b, A] −1

x



≈ 0.

Obdobnˇe pro opravenou soustavu dostaneme [(b + r), (A + E)] −1

x



= 0 respektive

[bb, bA] −1 x



= 0. (2.5)

Zapiˇsme matici [bb, bA] v jej´ım dyadick´em tvaru

[bb, bA] =

m

X

j=1

θjsjwjT.

(30)

Nyn´ı obˇe strany vyn´asob´ıme vektorem wm+1 a z´ısk´ame [bb, bA]wm+1 =

m

X

j=1

θjsjwjTwm+1 =

m

X

j=1

θjsjhwm+1, wji .

Protoˇze sloupce matice W , tedy vektory wj, jsou navz´ajem ortonorm´aln´ı, plat´ı [bb, bA]wm+1 = 0.

Uvaˇzujme vektor wm+1 ve tvaru

wm+1 =

 ν1 ν2 ... νm+1

 .

Pokud ν1 6= 0 potom m˚uˇzeme zav´est pomocn´y vektor w0m+1, kter´y bude tvaru

wm+10 = −1

ν1 wm+1 =

−1

−ν21 ...

−νm+11

 .

Z porovn´an´ı s (2.5) vypl´yv´a, ˇze pokud ν1 6= 0, pak p˚uvodn´ı ´uloha Ax ≈ b m´a ˇreˇsen´ı ve smyslu TLS ve tvaru

x = −1 ν1

 ν2

... νm+1

=

−ν21 ...

−νm+11

. Pokud ν1 = 0 pak v´yˇse uveden´y postup zˇrejmˇe nelze pouˇz´ıt.

Obecnˇe se m˚uˇze st´at, ˇze ´uloha m´a v´ıce neˇz jedno (resp. nekoneˇcnˇe mnoho) ˇreˇsen´ı.

Staˇc´ı si uvˇedomit, ˇze m˚uˇze nastat situace θm = θm+1 ve (2.4) (viz pozn´amka na konci kapitoly 1, str. 24) a tedy lze pro konstrukci ˇreˇsen´ı pouˇz´ıt jin´y prav´y singul´arn´ı vektor. M˚uˇze se ale tak´e st´at, ˇze ˇreˇsen´ı v˚ubec nem´a. N´asleduj´ıc´ı vˇeta formuluje postaˇcuj´ıc´ı podm´ınku pro existenci a jednoznaˇcnost ˇreˇsen´ı TLS.

Vˇeta 8 (Golub, Van Loan). Uvaˇzujme matici A ∈ Rn×m, pro kterou plat´ı n > m a rank(A) = m, t.j. A m´a line´arnˇe nez´avisl´e sloupce. D´ale necht’ plat´ı, ˇze b /∈ R(A).

Uvaˇzujme singul´arn´ı rozklady

A = U ΣVT z (1.14)–(1.15) a

[b, A] = SΘWT z (2.3)–(2.4).

Jestliˇze

σm > θm+1, (2.6)

pak pro matici [b, A] plat´ı, ˇze ν1 6= 0 a TLS probl´em m´a jednoznaˇcn´e ˇreˇsen´ı.

(31)

D˚ukaz viz [8] pˇr´ıpadnˇe [18]. Zde lze tak´e nal´ezt diskusi t´ykaj´ıc´ı se pˇr´ıpadu s v´ıce neˇz jedn´ım ˇreˇsen´ım, pak hled´ame ˇreˇsen´ı minim´aln´ı v normˇe. Je vhodn´e zd˚uraznit, ˇze v´yˇse uveden´a vˇeta formuluje pouze postaˇcuj´ıc´ı podm´ınku nikoli nutnou.

(32)

3 Core probl´ em

V pˇredchoz´ı kapitole jsme se zab´yvali ˇreˇsen´ım ´ulohy Ax ≈ b, respektive ˇreˇsen´ım opraven´e ´ulohy soustavy (A + E)x = b + r. Vyslovili jsme tak´e postaˇcuj´ıc´ı podm´ınku pro existenci a vlastnˇe tak´e jednoznaˇcnost ˇreˇsen´ı ´ulohy pomoci TLS. Zjistili jsme tak´e, ˇze ne vˇzdy existuje ˇreˇsen´ı opraven´e ´ulohy pomoc´ı TLS. Nyn´ı se budeme zab´yvat metodou, kter´a pro danou ´ulohu i jej´ı opravu vˇzdy nalezne ˇreˇsen´ı, tedy pokud ´uloha m´a ˇreˇsen´ı.

3.1 Ortogon´ aln´ı transformace ´ ulohy

Uvaˇzujme opˇet ´ulohu (2.1)

Ax ≈ b, kde A ∈ Rn×m, x ∈ Rm, b ∈ Rn. (3.1) D´ale zaved’me ortogon´aln´ı matice P a Q odpov´ıdaj´ıc´ıch velikost´ı. Nyn´ı rovnici (3.1) vyn´asob´ıme zprava PT a, s vyuˇzit´ım toho, ˇze Q je ortogon´aln´ı matice, t.j. QQT = I, dostaneme

(PTAQ)(QTx) ≈ PTb. (3.2)

Zkr´acenˇe tak´e m˚uˇzeme zapsat

Aex ≈ ee b, kde A = Pe TAQ, ex = QTx, eb = PTb.

Pouˇzijme stejnou ortogon´aln´ı transformaci na opravenou ´ulohu (2.2), kde matice A a vektor b jsou opraven´e matic´ı E respektive vektorem r. Dostaneme

(PT(A + E)Q)(QTx) = (PT(b + r)). (3.3) Protoˇze Frobeniova norma je ortogon´alnˇe invariantn´ı [2], plat´ı

min

[PTr, PTEQ]

F = min

PT[r, EQ]

F = min k[r, E]kF. Rovnici (3.3) m˚uˇzeme tak´e zapsat ve tvaru

( eA + eE)ex = eb +r,e

kde eE = PTEQ aer = PTr. Tedy hledan´y vektor x bude roven

x = Qex. (3.4)

(33)

Pˇredpokl´adejme, ˇze matice P a Q transformuj´ı rozˇs´ıˇrenou matici [eb, eA] do tvaru [eb, eA] = PT[b, A] 1 0

0 Q



= b1 A11 0 0 0 A22



. (3.5)

Ulohu (3.2) pak m˚´ uˇzeme pˇrepsat ve tvaru

 b1 A11 0 0 0 A22



−1 x1 x2

≈ 0 neboli, po pron´asoben´ı

 −b1+ A11x1 A22x2



≈ 0.

P˚uvodn´ı ´uloha se t´ım rozpad´a na dva nez´avisl´e podprobl´emy A11x1 ≈ b1 a A22x2 ≈ 0.

Vid´ıme, ˇze druh´y podprobl´em m´a ˇreˇsen´ı v klasick´em slova smyslu (jin´ymi slovy, je to soustava rovnic, nikoliv aproximaˇcn´ı ´uloha v prav´em slova smyslu). Protoˇze zpra- vidla hled´ame ˇreˇsen´ı minim´aln´ı v normˇe (nem´ame-li nˇejakou dodateˇcnou informaci k ´uloze a dobr´y d˚uvod volit ˇreˇsen´ı jin´e neˇz minim´aln´ı), je nasnadˇe, ˇze jako ˇreˇsen´ı druh´eho podprobl´emu zvol´ıme x2 = 0. Druh´y podprobl´em tedy nem´a vliv na ˇreˇsen´ı p˚uvodn´ı ´ulohy. Zb´yv´a vyˇreˇsit prvn´ı podprobl´em. Pokud x1 bude ˇreˇsen´ım prvn´ıho podprobl´emu, pak z (3.4) vid´ıme, ˇze

x = Qex = Q x1 x2



= Q x1 0



bude ˇreˇsen´ım p˚uvodn´ı ´ulohy.

3.2 Dovˇ etek k vˇ etˇ e 8

Oznaˇcme

Σ(M ) a min Σ(M )

mnoˇzinu vˇsech singul´arn´ıch ˇc´ısel matice M vˇcetnˇe n´asobnost´ı, resp. nejmenˇs´ı sin- gul´arn´ı ˇc´ıslo matice M , t.j.

|Σ(M )| = rank(M ).

Ze vztahu (3.5) zˇrejmˇe plat´ı

Σ(A) = Σ A11 0 0 A22



= Σ(A11) ∪ Σ(A22), (3.6) proto, ˇze P a Q jsou ortogon´aln´ı matice a ˇze mnoˇzina singul´arn´ıch ˇc´ısel blokovˇe diagon´aln´ı matice je sjednocen´ım mnoˇzin singul´arn´ıch ˇc´ısel jejich diagon´aln´ıch blok˚u.

Tak´e ale plat´ı

Σ([b, A]) = Σ b1 A11 0 0 0 A22



= Σ([b1, A11]) ∪ Σ(A22). (3.7)

(34)

V pˇredpokladech vˇety 8 je, ˇze A m´a m´ıt line´arnˇe nez´avisl´e sloupce. To je splnˇeno tehdy a jen tehdy kdyˇz obˇe matice A11 a A22 maj´ı line´arnˇe nez´avisl´e sloupce. D´ale b 6∈ R(A) tehdy a jen tehdy kdyˇz b1 6∈ R(A11). Ze vztah˚u (3.6) a (3.7) plyne n´asleduj´ıc´ı d˚uleˇzit´y d˚usledek.

Necht’ A11 a A22 maj´ı pln´y sloupcov´y rank a b1 6∈ R(A11). Pokud min Σ(A22) < min{ min Σ(A11) , min Σ([b1, A11)},

pak min Σ(A22) = min Σ(A) = min Σ([b, A]). Vid´ıme, ˇze aˇckoliv jsou splnˇeny pˇredpoklady vˇety 8, nerovnost (2.6) nenastane. Nejmenˇs´ı singul´arn´ı ˇc´ısla

matic A a [b, A] jsou identick´a.

Porovnejme pr´avˇe zformulovan´y d˚usledek s tvrzen´ımi uveden´ymi v ´uvodu textu, viz [17], [5], resp. [6]. Poznamenejme jeˇstˇe, ˇze d´ıky tzv. prokl´ad´an´ı singul´arn´ıch ˇc´ısel plat´ı min Σ(A11) ≥ min Σ([b1, A11]), viz [14]. V pˇr´ıpadˇe core probl´emu dokonce plat´ı min Σ()A11 > min Σ([b1, A11]), viz [12], viz tak´e vˇeta 9 v n´asleduj´ıc´ı sekci.

3.3 Zaveden´ı core probl´ emu

V pˇredchoz´ı sekci jsme uk´azali jak lze ´ulohy (3.1) rozloˇzit na dva podprobl´emy A11x1 ≈ b1 a A22x2 ≈ 0.

V ˇcl´anku [12] bylo uk´az´ano, ˇze ortogon´aln´ı transformace ve tvaru (3.2), vedouc´ı na bloky tvaru (3.5) vˇzdy existuje (m˚uˇze se ovˇsem st´at, ˇze matice A22m´a nulov´y poˇcet ˇr´adk˚u nebo sloupc˚u). Nav´ıc vˇzdy existuje takov´a, ˇze matice A11 m´a minim´aln´ı a A22 maxim´aln´ı dimenzi. Vzhledem k d˚uleˇzitosti tohoto pojmu zavedeme jeho form´aln´ı definici.

Definice 5 (Core probl´em). ˇRekneme, ˇze A11x1 ≈ b1 je core probl´em v aproximaˇcn´ı

´

uloze (3.1) za pˇredpokladu, ˇze [b1, A11] m´a minim´aln´ı dimenzi (a matice A22 ma- xim´aln´ı dimenzi).

Nyn´ı uved’me vˇetu zab´yvaj´ıc´ı se vlastnostmi core probl´emu.

Vˇeta 9. Necht’ Ax ≈ b, b /∈ R(A) a A11x1 ≈ b1, kde A11 ∈ Rn×m, x1 ∈ Rm, b1 ∈ Rn a b1 ∈ R(A/ 11) je core probl´em pak

• Matice A11 m´a plnou sloupcovou hodnost, tedy rank(A11) = m.

Protoˇze b1 ∈ R(A/ 11), pak n > m.

(35)

• Rozˇs´ıˇren´a matice [b1, A11] ∈ Rn×(m+1) m´a plnou ˇr´adkovou hodnost, tedy rank([b1, A11]) = n,

a tedy n = m + 1.

• Obˇe matice A11 a [b1, A11] maj´ı jednoduch´a singul´arn´ı ˇc´ısla σ10 > σ02 > . . . > σ0m > 0,

θ01 > θ02 > . . . > θ0m+1 > 0, pro kter´a plat´ı

θ10 > σ10 > θ02 > σ02 > . . . > σ0m > θm+10 .

Z pr´avˇe uveden´e vˇety z´ısk´av´ame d˚uleˇzitou vlastnost core probl´emu nez´avisle na p˚uvodn´ı ´uloze Ax ≈ b tedy, ˇze core probl´em vˇzdy splˇnuje pˇredpoklady vˇety 8.

Podle vˇety 8 m´a core probl´em A11x1 ≈ b1 ˇreˇsen´ı a toto ˇreˇsen´ı je pr´avˇe jedno nez´avisle na p˚uvodn´ı ´uloze Ax ≈ b.

Je d˚uleˇzit´e upozornit, ˇze matice A11 a vektor b1 nejsou d´any jednoznaˇcnˇe. Zˇrejmˇe pro libovoln´e ortogon´aln´ı matice P1 a Q1 plat´ı, ˇze

(P1TA11Q1)(QT1x1) ≈ P1Tb1 je opˇet core probl´em.

3.4 Tvary core probl´ emu

Core probl´em lze vyj´adˇrit ve dvou z´akladn´ıch tvarech tzv. SVD tvar a bidiagon´aln´ı tvar.

3.4.1 Core probl´ em v SVD tvaru

V pˇredminul´e sekci o ortogon´aln´ı transformaci jsme pomoc´ı ortogon´aln´ıch matic P a Q transformovali p˚uvodn´ı ´ulohu (2.1) do tvaru (3.2). Transformac´ı se ´uloha rozpadla na dva podprobl´emy a sice na podprobl´em A11x1 ≈ b1 minim´aln´ı dimenze nazvan´y core probl´em a podprobl´em A22x2 ≈ 0 maxim´aln´ı dimenze. Uvaˇzujme obecn´y core probl´em A11x1 ≈ b1 a SVD matice A11

A11 = U11Σ11V11T.

Vyn´asob´ıme-li rozˇs´ıˇrenou matici [b1, A11] zleva ortogon´aln´ı matic´ı U11 a zprava or- togon´aln´ı matic´ı diag(1, V11)T, dostane tvar

U11[b1, A11] 1 0 0 V11



= [U11Tb111].

V ˇcl´anku [12] bylo uk´az´ano, ˇze U11Tb1 m´a vˇsechny sloˇzky nenulov´e. Tento z´apis se naz´yv´a SVD tvar core probl´emu.

(36)

Definice 6 (SVD tvar core probl´emu). Core probl´em se naz´yv´a core probl´emem v SVD tvaru pokud

[b1, A11] =

β1 σ01 ... . ..

σm0 βm+1 0 . . . 0

 ,

kde σ10 > σ20 > . . . > σm0 > 0 a βj 6= 0, j = 1, . . . , m + 1.

3.4.2 Bidiagon´ aln´ı tvar core probl´ emu

Nyn´ı se budeme zab´yvat bidiagon´aln´ım tvarem core probl´emu. Pomoc´ı ortogon´aln´ıch matic P , Q lze transformovat matici [b, A] do matice bidiagon´aln´ıho tvaru pomoc´ı napˇr´ıklad Householderovy reflexe. Transformace pomoc´ı Householderov´ych reflex´ı spoˇc´ıv´a ve vytvoˇren´ı posloupnosti reflex´ı H1, H2, . . . , kter´e stˇr´ıdavˇe n´asob´ıme s ma- tic´ı [b, A] zleva a zprava. Kde matice H2j−1 nuluj´ı poddiagon´aln´ı prvky v j-t´em sloupci rozˇs´ıˇren´e matice a matice H2j nuluj´ı naddiagon´aln´ı prvky v j-t´em ˇr´adku syst´emov´e matice. Householderova reflexe bude vypadat

H2j−1. . . H1[b, A] eH2. . . eH2j kde matice eH2j jsou tvaru

He2j = 1 0 0 H2j

 .

Bidiagonalizaci ukonˇc´ıme ve chv´ıli kdy dojde v transformaci k oddˇelen´ı podprobl´em˚u, pak tedy matice A11bude v bidiagon´aln´ım tvaru. Struktura matice A22nen´ı d˚uleˇzit´a.

V ˇcl´anku [12] bylo uk´az´ano, ˇze podprobl´em oddˇelen´y bidiagonalizac´ı je opˇet core probl´emem, tentokr´at v bidiagon´aln´ım tvaru.

Definice 7 (Bidiagon´aln´ı tvar core probl´emu). Core probl´em se naz´yv´a core pro- bl´emem v bidiagon´aln´ım tvaru pokud

[b1, A11] =

δ1 γ1 δ2 γ2

. .. ...

δm γm

δm+1

 ,

kde γ` > 0, ` = 1, . . . , m, a δj > 0, j = 1, . . . , m + 1.

(37)

4 Automatick´ e generov´ an´ı aproximaˇ cn´ıch

´

uloh s core probl´ emem s pˇ redem zn´ am´ ymi parametry

V t´eto kapitole si pop´ıˇseme software, kter´y generuje core probl´emy A11x1 ≈ b1 v SVD tvaru i v bidiagon´aln´ım tvaru podle pˇredem zadan´ych parametr˚u, resp. aproximaˇcn´ı

´

ulohy Ax ≈ b s core probl´emem s pˇredem zn´amou velikost´ı a s pˇredem zn´am´ymi parametry. Software jsme vytvoˇrili v prostˇred´ı programu Matlab.

4.1 Program cpSVD. Core probl´ em v SVD tvaru

C´ılem tohoto programu bude vytvoˇrit core probl´em, tedy matici A11a pravou stranu b1, v SVD tvaru. Tedy

[b1, A11] =

β1 σ01 ... . ..

σm0 βm+1 0 . . . 0

 ,

kde σ10 > σ20 > . . . > σm0 > 0 a βj 6= 0, j = 1, . . . , m + 1.

Vstupn´ımi parametry programu cpSVD budou obecnˇe velikost vytvoˇren´eho core probl´emu aproximaˇcn´ı ´ulohy a typ vytvoˇren´ı SVD tvaru tedy zp˚usob urˇcen´ı hod- not βj a σj. U r˚uzn´ych typ˚u pak m˚uˇzou pˇrib´ıt dalˇs´ı parametry, kter´e ovlivn´ı urˇcen´ı hodnot βj a σj.

Program cpSVD. Zad´an´ı rozmˇeru a typ core probl´emu function [b_1,A_11] = cpSVD(m,typ,par)

% m - velikost core probl´emu

% typ = 11 - n´ahodn´a ˇc´ısla beta a sigma s rovnomˇern´ym

% rozdˇelen´ım z intervalu (0,1); pˇr´ıkaz rand

% typ = 12 - n´ahodn´a ˇc´ısla beta a sigma s norm´aln´ım

% rozdˇelen´ım N(0,1); pˇr´ıkaz randn

References

Related documents

To jsou vrcholy grafu (tzv. uˇ zivatel m˚ uˇ ze, i po tom co se dostane do vrcholu, ze kter´ eho nevede hrana ven, pˇrech´ azet mezi str´ ankami nahodile.. obecnˇ e neplat´ı,

D´ ale byly definov´ any poˇ zadovan´ e vlastnosti jednotliv´ ych souˇ c´ ast´ı inteligentn´ıho domovn´ıho syst´ emu, kter´ ymi jsou domovn´ı syst´ em, desktopov´ a,

- Kontrollera att breddningsmotorn inte har några synliga skador eller deformationer.. - Kontrollera kulleder, glapp

Po vytvoˇ ren´ı jednoduch´ eho regresn´ıho modelu metodou nejmenˇ s´ıch ˇ ctverc˚ u zaˇ c´ın´ a f´ aze statistick´ e verifikace a dalˇ s´ıho testov´ an´ı hypot´ ez

V t´ eto kapitole se budeme vˇ enovat rozˇ s´ıˇ ren´ı line´ arn´ıho regresn´ıho modelu pro n vysvˇ etluj´ıc promˇ enn´ ych, tedy X 1..

D´ ale pr´ ace zahrnuje moˇ znosti dekompo- zice a rekonstrukce pomoc´ı wavelet transformace s pouˇ zit´ım r˚ uzn´ ych wavelet funkc´ı, modifikace d´ılˇ c´ıch koeficient˚

Pˇredloˇ zen´ a disertaˇ cn´ı pr´ ace se zab´ yv´ a adaptac´ı existuj´ıc´ıho syst´ emu automatick´ eho rozpozn´ av´ an´ı ˇreˇ ci (ASR) pro dalˇs´ı jazyky.. Zamˇ eˇruje

Na obr´ azku 4.35 je zobrazeno porovn´ an´ı akustick´ eho tlaku nad nosn´ıkem uni- morf (bez elektrod i s elektrodami vych´ az´ı nad nosn´ıkem velice podobn´ y akustick´ y