• No results found

Multilinjär algebra. MatematikCentrum LTH

N/A
N/A
Protected

Academic year: 2022

Share "Multilinjär algebra. MatematikCentrum LTH"

Copied!
19
0
0

Loading.... (view fulltext now)

Full text

(1)

Anders K¨all´en MatematikCentrum LTH

anderskallen@gmail.com

Sammanfattning

I det h¨ar kapitlet diskuterar vi de algebraiska grunderna f¨or dif- ferentialformer, vilket g¨ors ur ett abstrakt perspektiv. Vi b¨orjar i ett vektorrum, som vi sedan l¨agger p˚a en skal¨arprodukt p˚a, och ser vad det tillf¨or – den musikaliska isomorfismen och volymsfor- men. En annan sak det tillf¨or ¨ar Hodges stj¨arnavbildning som ytterst f¨orklarar vad som ¨ar speciellt med analys i rummet.

(2)

1 Introduktion

I det h¨ar kapitlet ska vi studera multilinj¨ara avbildningar p˚a ett vektorrum. Inom de delar av analysen som behandlar geometriska problem spelar s˚adana en stor roll. Den allm¨anna relativitetsteorin brukar t.ex. beskrivas med hj¨alp av tensorer, vilka ¨ar objekt som i varje punkt ¨ar just en s˚adan avbildning. Andra exempel ¨ar differentialformer som ¨ar grund f¨or mycket h¨ogre differentialkalkyl.

P˚a de objekt vi ska studera ska vi inf¨ora diverse viktiga rent algebraiska operationer, vilka spelar stor roll i den h¨ogre differentialkalkylen. Hit h¨or skal¨arprodukter, den inre produkten och Hodges stj¨arnavbildning p˚a former.

2 Linj¨ ara rum och avbildningar

L˚at K beteckna antingen R eller C (eller n˚agon annan kropp av karakteristik 0). Ett linj¨art rum, eller vektorrum, ¨over K ¨ar en icke-tom m¨angd, vars element kallas vektorer, p˚a vilken man definierat

(i) en addition s˚adan att

u + v = v + u, u + (v + w) = (u + v) + w, (ii) en multiplikation med element i K s˚adan att

0.u = 0, 1.u = u, a(u + v) = au + av, (a + b)u = au + bu, (ab)u = a(bu).

H¨ar ¨ar u, v, w vektorer i V och a, b element i K. Element i K kallar vi ofta skal¨arer. En delm¨angd W till V kallas ett underrum om det g¨aller att

u, v ∈ W, a, b ∈ K ⇒ au + bv ∈ W.

Vektorn u ∈ V ¨ar en linj¨arkombination av vektorerna u1, . . . , uk i V om det finns skal¨arer ak∈ K s˚adana att u =P

jajuj. M¨angden av alla linj¨arkombinationer av u1, . . . , uk bildar ett underrum i V som betecknas L(u1, . . . , uk) och kallas linj¨ara h¨oljet av u1, . . . , uk. Om L(u1, . . . , uk) = V s¨ager man att u1, . . . , uk genererar V . Ett linj¨art rum s¨ags vara

¨andligtdimensionellt om det kan genereras av ¨andligt m˚anga vektorer. Slutligen kallas u1, . . . , uk linj¨art beroende om a1u1 + . . . + akuk = 0 f¨or n˚agon upps¨attning skal¨arer a1, . . . , ak som inte alla ¨ar noll. Om vektorerna u1, . . . , uk inte ¨ar linj¨art beroende s¨ags de vara linj¨art oberoende. Om vektorerna ¨ar linj¨art oberoende och sp¨anner upp V utg¨or de en bas f¨or V , och dimensionen av V ¨ar d˚a lika med k.

En avbildning T : V //W mellan tv˚a vektorrum ¨ar linj¨ar om det f¨or alla a, b ∈ K och v, w ∈ V g¨aller att

T (av + bw) = aT (v) + bT (w).

M¨angden av s˚adana avbildningar bildar ett vektorrum som vi betecknar L(V, W ).

Antag i forts¨attningen att V har dimensionen n. Om e1, . . . , en ¨ar en bas f¨or V finns d˚a entydigt best¨amda koordinater x1, . . . , xn som ¨ar reellv¨arda funktioner p˚a V s˚adana att

(3)

u = P

ixi(u)ei. Fixerar vi d¨arf¨or en bas i V kan vi sedan identifiera V med Kn, varf¨or differentialkalkyl i ett vektorrum egentligen inte skiljer sig fr˚an differentialkalkyl i Kn. Men vi noterar ocks˚a att funktionerna xi : V //K ¨ar linj¨ara funktioner och som s˚adana detsamma som deras differentialer dxi.

De linj¨ara avbildningarna θ : V //K utg¨or ocks˚a ett vektorrum som vi betecknar med V. Dess element kallar vi 1-former. Om e1, . . . , en ¨ar en bas f¨or V s˚a definieras dess duala bas θ1, . . . , θn av att θi(ej) = δij, och man inser l¨att att θi = dxi. Det ¨ar emellertid f¨ordelaktigt i m˚anga sammanhang att inte blanda in koordinaterna x1, . . . , xn.

Men nu kan vi utg˚a ifr˚an V och bilda dess dual V∗∗. Men vi kan uppfatta en vektor v ∈ V som en linj¨ar funktion p˚a V, n¨amligen som funktionen

v(θ) = θ(v).

Vi kan d¨arf¨or identifiera V∗∗ med V .

Slutligen, om T : V //W ¨ar en linj¨ar avbildning, s˚a definieras naturligt en linj¨ar avbild- ning T : W //V. Denna kallas den transponerade avbildnignen till T och definieras av att

T(θ)(v) = θ(T (v)), θ ∈ W, v ∈ V.

3 Tensorprodukten av tv˚ a vektorrum

L˚at V vara ett vektorrum av dimension n och U ett av dimension m (b˚ada ¨over samma skal¨arer). Dess tensorprodukt V × U best˚ar d˚a av alla bilinj¨ara avbildningar En bilinj¨ar avbildning B : V × U //K. Att detta ¨ar ett vektorrum ¨ar klart, och f¨or att se att det har dimensionen nm definierar vi bilinj¨arformen α ⊗ β ut en α ∈ V och β ∈ U genom

(α ⊗ β)(v, u) = α(v)β(u).

Det ¨ar d˚a l¨att att se att om e1, . . . , en ¨ar en bas f¨or V och f1, . . . , fm en bas f¨or U , s˚a ¨ar {ei ⊗ fj} en bas f¨or V × U . Dessa ¨ar nm element och allts˚a g¨aller att

dim(V ⊗ U ) = (dim V )(dim U ).

Uttryckt i en s˚adan bas kan vi skriva

B(v, u) =X

i,j

B(ei, fj)uivj,

s˚a den beskrivs av en n × m-matris.

Antag nu att U = V och B ¨ar en bilinj¨arform p˚a V × V , vi s¨ager d˚a bilinj¨arform p˚a V . Vi kan d˚a definiera

Sym(B)(u, v) = 1

2(B(u, v) + B(v, u)), Alt(B)(u, v) = B(u, v) − B(v, u).

Dessa ¨ar nya bilinj¨arformer p˚a V med de speciella egenskaperna att Sym(B)(u, v) = Sym(v, u), Alt(u, v) = − Alt(v, u).

(4)

Det betyder att Sym(B) ¨ar en symmetrisk bilinj¨ar form p˚a V medan Alt(B) ¨ar en skevsymmetrisk bilinj¨ar form p˚a V . De symmetriska och de skevsymmetriska bilinj¨ara formerna p˚a V utg¨or vektorrum var f¨or sig, vilka vi betecknar med S2(V) respektive Λ2(V).

De symmetriska formerna svarar mot symmetriska matriser (B(ei, ej)), vilket betyder att dim S2(V) =n

2



+ n = n(n + 1)

2 ,

medan de skevsymmetriska formerna svarar mot skevsymmetriska matriser, s˚a dim Λ2(V) = n

2

 .

F¨or att hitta baser i dessa vektorrum inf¨or vi de tv˚a multiplikationerna av 1-former:

(α ⊗sβ)(u, v) = 1

2(α(u)β(v) + α(v)β(u)) = Sym(α ⊗ β)(u, v), och

(α ∧ β)(u, v) = α(u)β(v) − α(v)β(u) = Alt(α ⊗ β)(u, v).

Den f¨orsta av dessa ger en symmetrisk bilinj¨ar form, och den andra ger en skevsymmetrisk s˚adan. Notera speciellt att α ∧ α = 0. Vi ser att elementen {θisθj}i≤j bildar en bas f¨or S2(V) och {θi∧ θj}i<j en bas f¨or Λ2(V).

4 Tensorer

I syfte att skapa den algebraiska grunden f¨or differentialformer beh¨over vi generalisera begreppet dualrum till ett reellt vektorrum V . En p-tensor p˚a V ¨ar en reellv¨ard funktion T p˚a den kartesiska produkten Vp = V × . . . × V som ¨ar multilinj¨ar, dvs linj¨ar i varje variabel n¨ar de andra h˚alls fixa:

T (v1, . . . , vj+ av0j, . . . , vp) = T (v) + aT (v1, . . . , vj0, . . . , vp).

Speciellt ¨ar 1-tensorer detsamma som 1-former p˚a V . En k¨and 2-tensor ¨ar skal¨arprodukten p˚a Rk och en k¨and n-tensor ¨ar determinantfunktionen.

Summor och skal¨ara produkter av multilinj¨ara funktioner ¨ar ocks˚a multilinj¨ara, s˚a m¨angden av p-tensorer utg¨or ett vektorrum Tp(V). Notera att T1(V) = V. Vi kan ocks˚a multi- plicera tensorer p˚a ett enkelt s¨att: om T ¨ar en p-tensor och S en q-tensor definierar vi en p + q-tensor T ⊗ S genom

(T ⊗ S)(v1, . . . , vp, vp+1, . . . , vp+q) = T (v1, . . . , vp)S(vp+1, . . . , vp+q).

T ⊗S kallas tensorprodukten av T med S. Notera att tensorprodukten inte ¨ar kommutativ, men man ser l¨att att den ¨ar associativ och distributiv.

N¨ar man arbetar med tensorer ¨ar det bekv¨amt att arbeta med multiindex. Ett multiindex

¨ar en upps¨attning (i1, . . . , ik) av index 1 ≤ ik ≤ n och vi skriver antalet element som |I|

(s˚a att |I| = k h¨ar). Vi anv¨ander sedan detta vid olika sorters produkt, s˚asom θI = θt1 ⊗ . . . ⊗ θtp.

(5)

Sats 1 L˚at {θ1, . . . , θn} vara en bas f¨or V. D˚a bildar p-tensorerna {(θI; |I| = p} en bas f¨or Tp(V). Speciellt g¨aller att dim Tp(V) = np.

Bevis. L˚at {e1, . . . , ek} vara den duala basen i V och beteckna med eI f¨oljden (ei1, . . . , eip).

Per definition, om I och J ¨ar tv˚a s˚adana indexseqvenser s˚a ¨ar θI(vJ) = 1 om I = J och

= 0 om I 6= J . Det ¨ar klart fr˚an multilinj¨ariteten att tv˚a p-tensorer T och S ¨ar lika om och endast om T (eJ) = S(eJ) f¨or varje svit eJ. Allts˚a g¨aller att T = P

JT (eJI, och allts˚a sp¨anner upp Tp(V). Att θI:na ¨ar oberoende f¨oljer av att om S =P

IaIθI = 0 s˚a

g¨aller att 0 = S(eJ) = aJ f¨or alla J . 

En allm¨an tensor T ¨ar symmetrisk om den inte ¨andras om tv˚a variabler transponeras:

T (v1, . . . , vi, . . . , vj, . . . , vp) = T (v1, . . . , vj. . . , vi, . . . , vp).

Alla 1-tensorer ¨ar automatiskt symmetriska. Ett annat exempel ¨ar skal¨arprodukten. En omformulering av villkoret bygger p˚a att vi inf¨or gruppen Sp av permutationer av talen 1 till p. F¨or en p-tensor T och en permutation π ∈ Sp definierar vi en annan p-tensor Tπ genom

Tπ(v1, . . . , vp) = T (vπ(1), . . . , Tπ(p)).

En symmetrisk p-tensor ¨ar d˚a en som uppfyller

Tπ = T, f¨or alla π ∈ Sp. Notera att det alltid g¨aller att (Tπ)σ = Tπ◦σ.

Det ¨ar l¨att att konstruera en symmetriska tensor fr˚an en given s˚adan. Om T ¨ar en god- tycklig p-tensor definierar vi helt enkelt

Sym(T ) = 1 p!

X

π∈Sp

Tπ.

Det ¨ar uppenbart att om T redan ¨ar symmetrisk s˚a g¨aller att Sym(T ) = T .

Eftersom summor och skal¨ara multipler av symmetriska funktioner ocks˚a ¨ar symmetriska f¨oljer att de symmetriska p-tensorerna bildar ett underrum Sp(V) ⊂ Tp(V). Tensorpro- dukter av symmetriska tensorer ¨ar inte symmetrisk, men vi kan definiera den symmetriska produkten

S ⊗sT = Sym(S ⊗ T )

om S ∈ Sp(V) och T ∈ Sq(V) och produkten ¨ar d˚a i Sp+q(V). Utskrivet blir detta (S ⊗sT )(v1, . . . , vp+q) = 1

(p + q)!

X

v∈Sp+q

S(vπ(1), . . . , vπ(p))T (vπ(p+1), . . . , vπ(p+q))

5 Skevsymmetriska tensorer alias p-former

En tensor T ¨ar skevsymmetrisk (eller alternerande) om tecknet p˚a T ¨andras om tv˚a variabler transponeras:

T (v1, . . . , vi, . . . , vj, . . . , vp) = −T (v1, . . . , vj. . . , vi, . . . , vp).

(6)

Alla 1-tensorer ¨ar automatiskt alternerande. Determinanten ¨ar alternerande, medan skal¨ar- produkten inte ¨ar det. Liksom ovan omformulerar vi detta villkor med hj¨alp av gruppen Sp. En permutation π ∈ Sp ¨ar j¨amn eller udda beroende av om den kan skrivas som en produkt av ett j¨amnt eller udda antal transpositioner och dess signatur, sign π, definieras som +1 eller −1 om permutationen ¨ar j¨amn eller udda. De alternerande p-tensorerna ¨ar nu de som uppfyller

Tπ = sign π T, f¨or alla π ∈ Sp.

Standardmetoden att skapa alternerande tensorer fr˚an godtyckliga s˚adana anv¨ander ope- ratorn

Alt(T ) = 1 p!

X

π∈Sp

sign πTπ. Att den ¨ar alternerande f¨oljer av att sign π ◦ σ = sign π sign σ:

Alt(T )σ = 1 p!

X

π∈Sp

sign π(Tπ)σ = 1 p!

X

π∈Sp

sign(π ◦ σ) Tπ◦σ.

Om vi nu s¨atter τ = π ◦ σ f¨oljer att τ genoml¨oper Sp d˚a π g¨or det. Allts˚a g¨aller att h¨ogerledet ¨ar lika med (sign σ) Alt(T ).

Vi kan ocks˚a notera att om T redan ¨ar alternerande g¨aller att Alt(T ) = T eftersom det g¨aller f¨or varje term att sign π Tπ = T .

Eftersom summor och skal¨ara multipler av alternerande funktioner altj¨amt ¨ar alterne- rande f¨oljer att de alternerande p-tensorerna bildar det underrum Λp(V) ⊂ Tp(V).

Tensorprodukter av alternerande tensorer ¨ar inte alternerande, men vi kan definiera kil- produkten

T ∧ S =p + q p



Alt(T ⊗ S)

om T ∈ Λp(V) och S ∈ Λq(V) och kilprodukten ¨ar d˚a i Λp+q(V). Koefficienten ¨ar vald s˚a att vi ˚aterf˚ar v˚ar definition fr˚an ovan i fallet p = q = 1 Utskrivet blir det

(S ∧ T )(v1, . . . , vp+q) = 1 p!q!

X

v∈Sp+q

sign π S(vπ(1), . . . , vπ(p))T (vπ(p+1), . . . , vπ(p+q)).

Anm¨arkning Om θ, η ¨ar godtyckliga 1-former p˚a V ger detta samma kilprodukt som ovan:

θ ∧ η = 1

2(θ ⊗ η − η ⊗ θ).

Observera att

θ ∧ η = −η ∧ θ och θ ∧ θ = 0, vilket visar att ∧ ¨ar antikommutativ p˚a Λ1(V).

Alt ¨ar en linj¨ar operation, s˚a det ¨ar klart att kilprodukten ¨ar distributiv ¨over addition och skal¨ar multiplikation. Att den ¨ar associativ ¨ar dock lite mer besv¨arligt att visa.

Lemma 1 Om Alt(T ) = 0 g¨aller att T ∧ S = 0 = S ∧ T .

(7)

Bevis. L˚at G vara den undergrupp den symmetriska gruppen till Sp+q som h˚aller de sista q talen fixt, vilken naturligt identifieras med den symmetriska gruppen Sp. Vi har d˚a (T ⊗ S)π = Tπ0 ⊗ S och sign π = sign π0 d¨ar primmad beteckning ¨ar motsvarigheten i Sp av den oprimade i G. Allts˚a g¨aller att

X

π∈G

(−1)π(T ⊗ S)π = [X

π0∈Sp

sign π0Tπ0] ⊗ S = Alt(T ) ⊗ S = 0.

Nu g¨aller att G delar upp Sp+qi en disjunkt union av h¨ogerbiklasser G◦σ = {π◦σ; π ∈ G}.

F¨or varje biklass X

π∈G

sign(π ◦ σ)(T ⊗ S)π◦σ = sign σ[X

π∈G

sign π(T ⊗ S)π]σ = 0.

Eftersom T ∧ S = p+qp  Alt(T ⊗ S) ¨ar summan dessa partialsummor ¨over h¨ogerbiklaserna till G, s˚a T ∧ S = 0. P˚a ett motsvarande s¨att visar vi att S ∧ T = 0.  Sats 2 Kilprodukten ¨ar associativ:

(T ∧ S) ∧ R = T ∧ (S ∧ R), s˚a vi kan skriva T ∧ S ∧ R utan att det blir tolkningsproblem.

Bevis. Vi ska visa att (T ∧ S) ∧ R = Alt(T ⊗ S ⊗ R). Per definition har vi att (T ∧ S) ∧ R = Alt((T ∧ S) ⊗ R),

s˚a lineariteten av Alt medf¨or att

(T ∧ S) ∧ R − Alt(T ⊗ S ⊗ T ) = Alt([T ∧ S − T ⊗ S] ⊗ R).

Eftersom T ∧ S ¨ar alternerande g¨aller att

Alt(T ∧ S − T ⊗ S) = Alt(T ∧ S) − Alt(T ⊗ S) = T ∧ S − T ∧ S = 0.

S˚a lemmat medf¨or att

Alt([T ∧ S − T ⊗ S] ⊗ R) = 0,

vilket bevisar satsen. Ett analogt resonemang visar att T ∧ (S ∧ R) = Alt(T ⊗ S ⊗ R).

Formeln T ∧ S ∧ R = Alt(T ⊗ S ⊗ T ) kan utvidgas till att relatera kil och tensorprodukter av godtyckligt antal tensorer. Vi kan anv¨anda den till att best¨amma en bas f¨or Λp(V).

Om n¨amligen T ¨ar en p-tensor kan vi skriva T =X

I

tIθi1 ⊗ . . . ⊗ θip

d¨ar {θi} ¨ar en bas f¨or V. Om T ¨ar alternerande s˚a g¨aller att T = Alt(T ), s˚a T =X

I

tIAlt(θI) = X tIθI,

(8)

d¨ar vi anv¨ant beteckningen θI = θi1∧ . . . ∧ θip n¨ar I = {i1, . . . , ip}. Vi har visat att θI d¨ar I genoml¨oper alla multiindex sp¨anner upp Λp(V), men det ¨ar en fundamental egenskap hos kilprodukten att de inte ¨ar oberoende.

Ur definitionen av kilprodukten f¨oljer att en produkt av 1-former ber¨aknas genom en determinant

1 ∧ . . . ∧ θp)(v1, . . . , vp) =

θ1(v1) . . . θp(v1) ... ... θ1(vp) . . . θp(vp)

.

Utvecklar vi determinanten efter f¨orsta raden ser vi att, om S ¨ar en (p − 1)-form, (θ ∧ S)(v1, . . . , vp) = X

i

(−1)i−1θ(vi)S(v1, . . . , ˆvi, . . . , vp),

d¨ar ˆvi inneb¨ar att detta element inte ¨ar med. Detta g¨aller f¨orst f¨or (p − 1)-former S som

¨ar produkt av 1-former, men sedan av linj¨aritersk¨al f¨or allm¨anna (p − 1)-former.

Anm¨arkning Det ¨ar ofta bekv¨amt att inf¨ora beteckningen v−i = (v1, . . . , ˆvi, . . . , vp). D˚a kan vi skriva formeln kortare som

(θ ∧ S(v) =X

i

(−1)i−1θ(vi)S(v−i).

Antikommutativen leder till n˚agra relationer ang˚aende θI. Om tv˚a indexsviter I och J skiljs ˚at bara i ordningsf¨oljd f¨oljer att θI = ±θJ. Om tv˚a index i I ¨ar lika g¨aller att θI = 0.

F¨oljaktligen kan vi eliminera redundans genom att bara anv¨anda θI f¨or vilka alla index

¨ar str¨angt v¨axande. Antalet s˚adana sviter ¨ar kp. Det ¨ar l¨att att se att de ˚aterst˚aende tensorerna ¨ar linj¨art oberoende. L˚at vj vara basen i V som ¨ar dual till θj. L˚at vI vara som ovan. Enligt definitionen av Alt-operatorn g¨aller d˚a att θI(vI) = 1/p!, men om J har andra v¨axande indices g¨aller att θI(vJ) = 0. Allts˚a g¨aller att omP aIθI = 0, s˚a ¨ar

0 =X

I

aIθI(vJ) = 1 p!aJ. Vi har d¨armed visat

Sats 3 Om θi ¨ar en bas f¨or V s˚a ¨ar θI = θi1 ∧ . . . ∧ θip (v¨axande index) en bas f¨or Λp(V). Det f¨oljer att dim Λp(V) = np.

Antag nu att indexsviten I har l¨angd p medan J har l¨angd q. Fr˚an antikommutativiteten f¨or kilprodukten i Λ1(V) ser vi d˚a att

θI∧ θJ = (−1)pqθJ ∧ θI, vilket visar att

T ∧ S = (−1)pqS ∧ T, om S ∈ Λp(V), S ∈ Λq(V).

Bassatsen ovan medf¨or att λn(V) ¨ar endimensionell om n = lim V . Om V = Rn bety- der detta att varje alternerande n-mutilinj¨ar funktion ¨ar en multipel av determinanten (entydigheten av determinantfunktionen).

(9)

Om l¨angden av I ¨ar > k m˚aste n˚agot index repeteras, vilket betyder att θI = 0. Det f¨oljer att Λp(V) = 0 om p > k. Man inf¨or ocks˚a Λ0(V) = R, vilket kan tolkas som de konstanta funktionerna p˚a V . Vi utvidgar kilprodukten genom att helt enkelt l˚ata multiplikation i detta rum vara skal¨ar multiplikation. Med kilprodukten blir d˚a den direkta summan

Λ(V) = Λ0(V) ⊕ Λ1(V) ⊕ . . . ⊕ Λk(V)

en icke-kommutativ algebra som kallas den yttre algebran p˚a V. Identitetselementet ¨ar 1 ∈ Λ0(V).

Det finns ytterligare en basal konstruktion. L˚at A : V // W vara en linj¨ar avbild- ning. Transponatet A : W //V utvidgas d˚a naturligt till den yttre algebran: A : Λp(W) //Λp(V) genom att vi f¨or T ∈ Λp(W) definierar AT ∈ Λ(V) genom

AT (v1, . . . , vp) = T (Av1, . . . , Avp), vi ∈ V.

Man ser l¨att att A ¨ar linj¨ar och att

A(T ∧ S) = AT ∧ AS.

S˚a A ¨ar en algebrahomomorfism: Λ(W) //Λ(V). Notera att om B : W //U ¨ar en annan linj¨ar avbildning s˚a g¨aller att (BA) = AB.

Som specialfall, om A : V //V ¨ar en bijektion s˚a ¨ar den inducerade avbildningen A : Λn(V) //Λn(V) en linj¨ar avbildning mellan tv˚a 1-dimensionella vektorrum, och m˚aste d¨arf¨or inneb¨ara multiplikation med en konstant λ ∈ R, allts˚a AT = λT f¨or alla T ∈ Λn(V). Vi ska visa att λ ¨ar precis determinanten av A.

F¨or detta, tag vilken som helst bijektion B : V //Rnoch betrakta T = B(det) ∈ Λn(V).

D˚a g¨aller att AB(det) = λB(det), vilket medf¨or att

(B)−1AB(det) = λ(B)−1B(det) = λ(BB−1)(det) = λ(det), allts˚a

(BAB−1)(det) = λ(det).

Vi ber¨aknar nu b˚ada sidor i denna ekvation i standardbasen i Rk. D˚a ser vi att λ = det(BAB−1) = det A.

Vi har allts˚a visat

Sats 4 (Determinantsatsen) Om A : V //V ¨ar en linj¨ar isomorfism s˚a g¨aller att AT = (det A)T f¨or varje T ∈ Λn(V ). Speciellt

Aθ1 ∧ . . . ∧ Aθn= (det A)θ1∧ . . . ∧ θn.

6 Allm¨ annare tensorer

Man beh¨over inom tensoranalysen inte enbart multilinj¨ara avbildningar, utan ¨aven vek- torv¨arda multilinj¨ara avbildningar. Mer precis, multilinj¨ara avbildningar Vs //Vr f¨or

(10)

positiva heltal r och s. Det linj¨ara rummet av s˚adana betecknar vi Tr,s(V) och en tensor i det s¨ags vara kovariant av ordning s med kontravariant av ordning r.

Klassiskt betraktar man ett element i Tr,s(V) inte som en vektorv¨ard avbildning p˚a Vr utan som en skal¨arv¨ard multilinj¨ar avbildning p˚a (V)r× Vr, precis som vi kan betrakta en vektor som en linj¨ar avbildning p˚a V. Vi kan d˚a alternativt skriva Tr,s(V) som tensorprodukten (V)⊗r⊗ V⊗s. Speciellt ser vi att en tensor av typ (1, 0) ¨ar en vektor och en tensor av typ (0, 1) ¨ar en 1-form, medan en tensor av typ (0, p) ¨ar det som vi tidigare kallade en p-tensor. Vidare ¨ar Ts(V) = T(0,s)(V).

Anm¨arkning Inom tensoranalysen l˚ater man den duala basen till basen ei i V betecknas med ei (som allts˚a ¨ar v˚art θi). Vidare inf¨or man

eJI = ei1 ⊗ . . . ⊗ eir ⊗ ej1 ⊗ . . . ⊗ ejs,

d¨ar I = {i1, . . . , ir}, J = {j1, . . . , js} som blir en bas f¨or Tr,s. Tensorerna av typ (r, s) skrivs sedan

S = X

|I|=r,|J|=s

SJIeJI, d¨ar SJI = S(eIJ).

H¨ar utel¨amnas summatecknet oftast till f¨orm˚an f¨or konventionen att samma index uppe och nere alltid ska summeras ¨over (Einsteins summationskonvention). Vi ser speciellt att S ¨ar entydigt best¨amd av sina v¨arden p˚a baselementen. Mer explicit:

S = X

Tk...li...jei⊗ . . . ⊗ ej ⊗ ek⊗ . . . ⊗ el. d¨ar Tk...li...j = T (ei . . . , ej, ek, . . . , el).

Ofta n¨ar man beskriver tensorer anger man endast koefficienterna SJI, och utel¨amnar bas- elementen. Det fungerar s˚a l¨ange man endast diskuterar algebra, men n¨ar man ska derivera tensorer leder det till inf¨orandet av diverse korrektionsfaktorer (Christoffel-symboler) som h¨ar¨or fr˚an att man ocks˚a m˚aste derivera baselementen.

Vi noterar nu att vi kan skriva

S = X

|I|=r

(X

|J|=s

SJIeJ) ⊗ eI = X

|I|=r

SIeI,

d¨ar SI =P

|J|=sSJIθJ, vilket betyder att vi kan uppfatta en (r, s)-tensor som en upps¨attning Vr-v¨arda Ts(V)-tensorer.

Av speciellt intresse ¨ar h¨ar (1, 1)-tensorer S = P

ijsijj ⊗ ei) som allts˚a svarar mot avbildningar p˚a V vars koordinater ¨ar 1-former. Sp˚aret av α ⊗ v definierar vi som

Tr(α ⊗ v) = α(v) vilket utvidgas till den allm¨anna (1, 1)-tensorn S som

Tr S =X

ij

sijθj(ei) = X

i

sii.

Inom tensoranalysen kallas denna operator kontraktionen av S och betecknas oftast C(S).

Den kan utvidgas till allm¨anna (r, s) tensorer med konventionen att det ¨ar f¨orsta argu- mentet i varje komponent man kontraherar (tar sp˚aret ¨over). Vi ska strax ge den en annan formulering i form av den s.k. inre produkten (som ska skiljas fr˚an en skal¨arprodukt).

(11)

7 Orientering av vektorrum

Vi ska nu b¨orja l¨agga lite mer struktur p˚a vektorrummet V och se vilka konsekvenser denna f˚ar f¨or tensorer p˚a V . Vi b¨orjar med att orientera vektorrummet.

Man kan ge ett vektorrum V en av tv˚a olika orienteringar. Om vi har tv˚a baser i det, g¨aller n¨amligen e0 = Ae, d¨ar A ¨ar en linj¨ar avbildning p˚a V . Vi kan d¨arf¨or dela upp baserna i V i tv˚a ekvivalensklasser d¨ar vi s¨ager att baserna e, e0 har samma orientering om det A > 0. Att v¨alja en orientering f¨or V ¨ar att konsekvent v¨alja baser ur endast en av dessa ekvivalensklasser.

Ett beh¨andigare s¨att att beskriva detta ¨ar genom att betrakta vektorrummet Λn(V), som ju ¨ar endimensionellt. F¨or ett element σ i det g¨aller att, om baserna e, e0 ¨ar relatierade genom e0 = Ae,

σ(e01, . . . , e0n) = det A σ(e1, . . . , en)

vilket betyder att σ inte ¨andrar tecken om vi byter till en ny bas med samma orientering.

Att orientera V ¨ar d¨arf¨or detsamma som att v¨alja ett element σ ∈ Λn(V).

8 Den inre produkten

Vi ska nu formulera den klassiska tensoranalysens kontraktioner p˚a ett alternativt s¨att.

F¨or en tensor S ∈ Tr,s(V), som vi uppfattar som en vektorv¨ard tensor, och v ∈ V ¨ar en vektor, kan vi definiera en Tr,s−1-form i(v)S genom att stoppa in v i det f¨orsta argumentet f¨or S (s positionerna) och sedan variera de ¨ovriga:

i(v)S(v1, . . . , vs−1) = S(v, v1, . . . , vs−1).

Notera att det alltid ¨ar i f¨orsta argumentet vi s¨atter v. Per definition g¨aller att i(v)a = 0 om a ¨ar en skal¨ar.

Exempel 1 F¨or en 1-form inneb¨ar den inre produkten endast att vi ber¨aknar den i vek- torn i fr˚aga och f˚ar en skal¨ar:

i(v)θ = θ(v) = Tr(θ ⊗ v).

P˚a motsvarade s¨att ser vi att S ¨ar en (0, 2)-tensor s˚a g¨aller att S(u, v) = (i(u)S(v) = i(v)i(u)S,

en observation som ofta ¨ar anv¨andbar och naturligtvis generaliseras till (0, s)-tensorer.

Vidare ser vi att

i(v)(θi∧ θj)(u) = (θi∧ θj)(v, u) = θi(v)θj(u) − θi(u)θj(v) = viθj(u) − vjθi(u) s˚a om B ¨ar en 2-form s˚a f˚ar vi att

(i(v)B)(u) =X

i<j

Biji(v)(θi∧ θj)(u) =X

i<j

Bijviθj −X

i<j

Bijvjθi,

(12)

vilket vi kan skriva som

i(v)B = B(v, θ) − B(θ, v).

Detta kan generaliseras med en formel som bygger p˚a observationen att

i(v)(θ1∧. . .∧θs)(v1, . . . , vs−1) =

θ1(v) . . . θs(v) θ1(v1) . . . θs(v1)

... ...

θ1(vs−1) . . . θs(vs−1)

=X

i

(−1)i−1θi(v)θ−i(v1, . . . , vs−1),

d¨ar vi satt

θ−i = θ1 ∧ . . . ∧ ˆθi∧ . . . ∧ θs. Ett annat s¨att att t¨anka ges i n¨asta exempel.

Exempel 2 Vi noterar f¨orst att

i(ekm = θm(ek) = δkm. Om S ¨ar en k-form, s˚a g¨aller att vi kan skriva

S = A + θj ∧ B, d¨ar varken A eller B inneh˚aller θj. D˚a f¨oljer att

i(ej)S = B.

Vi ser ocks˚a att om S, T ¨ar allm¨anna tensorer s˚a har vi att i(v)(S ⊗ T ) = (i(v)S) ⊗ T + S ⊗ (i(v)T ), medan formeln ¨ar lite annorlunda f¨or skev-symmetriska former:

i(v)(S ∧ T ) = (i(v)S) ∧ T + (−1)kS ∧ (i(v)T ), d¨ar S ¨ar en T0,k-tensor.

Det tre-dimensionella fallet ¨ar v¨ard en egen m¨assa, eftersom det indikerar vad det ¨ar som

¨

ar speciellt med just tre dimensioner.

Exempel 3 Vi har att

ω = i(u)(dx1∧ dx2∧ dx3) = (i(u)dx1) ∧ (dx2∧ dx3) − dx1∧ i(u)(dx2∧ dx3) = u3dx1 ∧ dx2+ u2dx3∧ dx1+ u1dx2∧ dx3.

Ur detta f¨oljer sedan att

i(v)ω = (u2v3− u3v2)dx1+ (u3v1− u1v3)dx2 + (u1v2− u2v1)dx3,

d¨ar vi k¨anner igen koefficienterna i vektorform som den klassiska vektorproduktens kom- ponenter. Detta betyder att (med den vanliga, euklidiska skal¨arprodukten)

(dx1∧ dx2∧ dx3)(u, v, w) = i(w)i(v)ω = (u × v) · w.

(13)

9 Metriker i vektorrum

Vi ska nu f¨orse v˚art vektorrum V med en skal¨arprodukt. Med en skal¨arprodukt p˚a V menar vi en symmetrisk bilinj¨arform g som ¨ar icke-degenererad, d.v.s. g(u, u) = 0 endast d˚a u = 0. Motsvarande kvadratiska form u → g(u, u) kallas d˚a en metrik p˚a V och enligt tr¨oghetssatsen f¨or kvadratiska former kan vi skriva V = V+⊕ V som en direkt summa av underrum s˚adana att g(u, u) > 0 d˚a u ∈ V+ och g(u, u) < 0 d˚a u ∈ V. Om V = V+ s¨ags rummet vara Euklidiskt, medan fallet n¨ar V+ ¨ar en-dimensionellt och dim V > 0 svarar mot Minkowski-rum som ¨ar kopplade till den speciella relativitetsteorin.

Vi s¨ager att e1, . . . , en ¨ar en ortonormerad bas f¨or V om det g¨aller att g(ei, ej) = 0, i 6= j och |g(ei, ei)| = 1 f¨or alla i. Notera att eftersom vi inte kr¨aver en positivt definit metrik s˚a blir formeln f¨or hur man hittar koordinaterna f¨or en vektor i en ortonormerad bas lite annorlunda mot den vanliga: om v = P

ixiei s˚a g¨aller att g(v, ei) = P

jxjg(ei, ej) = xig(ei, ei), och allts˚a (eftersom g(ei, ei) = ±1) xi = g(v, ei)g(ei, ei). I en allm¨an, icke n¨odv¨andigtvis ortonormerad, bas p˚a V skriver vi

g(u, v) =X

ij

gijθi(u)θj(v)

(eller g =P

ijgijθi⊗ θj om vi vill), d¨ar matrisen G = (gij) ¨ar symmetrisk.

10 Den musikaliska isomorfismen

Med hj¨alp av metriken g kan vi p˚a ett naturligt s¨att identifiera V med sitt duala rum V. Om n¨amligen v ∈ V s˚a blir

Lv : V 3 u //g(u, v) ∈ R

en linj¨ar avbildning, allts˚a ett element i V. Om e1, . . . , en ¨ar en bas f¨or V s˚a kommer elementen {Lei} att utg¨ora en bas f¨or V av dimensionssk¨al, s˚a avbildningen v //Lv definierar en isomorfism mellan V och V. Eftersom denna isomorfism ¨ar fundamental inf¨or vi ocks˚a speciella beteckningar: den linj¨ara form som h¨or till v ∈ V (allts˚a Lv ovan) betecknar vi v[, och om en linj¨ar form L ∈ V ¨ar given, s˚a betecknas det v ∈ V som ¨ar s˚adant att θ = v[ med θ]. Detta betyder att

v[(u) = g(u, v), θ(u) = g(u, θ]).

Exempel 4 Ibland vill man tolka 1-former α som det n−1-dimensionella underrum som definieras av att α(u) = 0, allts˚a

g(u, α]) = 0.

Kilprodukten av tv˚a 1-former blir d˚a det i allm¨anhet n − 2-dimensionella underrum som

¨ar ortogonalt mot b˚ada de duala vektorerna osv. N¨ar vi d¨arf¨or kommer upp i kilprodukten av n 1-former blir resultatet (i allm¨anhet) endast origo.

Men h¨arigenom f˚ar vi ocks˚a en skal¨arprodukt p˚a V: vi definierar bara (u[, v[) = g(u, v) ⇔ (θ, η) = g(θ], η]).

Andra s¨att att uttrycka detta ¨ar att (θ, v[) = θ(v), eller (θ, η) = θ(η]) = g(θ], η]).

(14)

Exempel 5 1-formerna ηi = e[i utg¨or f¨oljaktligen ocks˚a en bas f¨or V, liksom den duala basen θi. Per definition har vi att

ηi(v) = g(ei, v) = X

j

gijθj(v),

fr˚an vilket vi l¨att ser att

i)]=X

j

gikek d¨ar (gij) ¨ar inversen till (gij). Det f¨oljer att

i, θj) = gij.

Speciellt ser vi allts˚a att om ei ¨ar en ON-bas f¨or V , s˚a ¨ar θi en ON-bas f¨or V.

Anm¨arkning Det ¨ar v¨art att notera hur indexen ¨andrar sig n¨ar vi g˚ar fr˚an en vektor till en 1-form och tillbaka med den musikaliska isomorfismen. Om vi har en vektor v =P

iviei, s˚a g¨aller att

v[ =X

i

viηi =X

ij

vigijdxj =X

j

(X

i

gjivi)dxj, s˚a koefficienterna f¨or v[ ges allts˚a av v0j =P

igjivi. Omv¨ant, om vi utg˚ar ifr˚an en 1-form ω = P

iωidxi, s˚a f˚ar vi att

ω] =X

j

ωj0ej, ω0j =X

i

gjiωi.

Inom den klassiska tensoranalysen, d¨ar man endast r¨aknar med koefficienterna, har detta

¨oversatts till en speciell teknik att h¨oja och s¨anka index. Man skiljer d¨ar, som redan p˚apektas, p˚a kontravarianta och kovarianta vektorer, d¨ar de f¨orra ¨ar v˚ara vektorer och de senare ¨ar v˚ara 1-former. De f¨orra skrivs med koordinater vi och de senare vi. Formlerna ovan inneb¨ar d˚a att

vi = gijvj, vi = gijvj,

d¨ar vi ocks˚a inf¨ort Einsteins summationskovention: om vi har samma index uppe och nere, summerar vi ¨over det. Den musikaliska isomorfismen mellan bas och motsvarande koordinatbas inneb¨ar d˚a den klassiska tekniken att h¨oja och s¨anka index.

11 Volymsformer och skal¨ arprodukt av tensorer

Vi har sett hur vi f˚ar en metrik p˚a V och vi har en metrik p˚a V . Vidare, har vi en metrik p˚a tv˚a vektorrum U och V , s˚a f˚ar vi en metrik p˚a tensorprodukten U ⊗ V genom definitionen

(S, u[⊗ v[) = S(u ⊗ v).

Om S = α ⊗ β betyder detta allts˚a α(u)β(v). P˚a V⊗ V betyder detta att (S, θi⊗ θj) = S((θi)], (θj)]) =X

k,l

gikgjlS(ek, el) =X

k,l

gikgjlSkl= Sij,

(15)

d¨ar sista ledet ¨ar definition. Det f¨oljer d˚a att (S, T ) =X

ij

SijTij. Detta generaliseras naturligt till godtyckliga tensorrum.

Det betyder att vi f˚ar en metrik p˚a alla tensorrum, och vi kan utvidga den musikaliska isomorfismen s˚a att t.ex. en bilinj¨ara form p˚a V , allts˚a ett element S ∈ T0,2(V ), svarar mot en vektorv¨ard 1-form S] p˚a V genom

(S](u), v) = S(u, v).

Om vi skriver S =P

ijSijθi⊗θjoch S] =P

ijsjiθi⊗ej s˚a inneb¨ar detta att sji =P

kgjkSik. Med andra ord, n¨ar vi g˚ar ¨over till koefficienterna ska vi h¨oja index i andra variabeln.

F¨or skal¨arprodukterna p˚a rummen Λk(V) g¨aller att

(S, u[1∧ . . . ∧ u[k) = S(u1, . . . , uk).

F¨or en produkt av 1-former betyder det

1∧ . . . ∧ αk, β1∧ . . . ∧ βk) = det

1, β1) . . . (α1, βk)

... ...

k, β1) . . . (αk, βk)

, och vi ser att

I, θJ) = det

gi1j1 . . . gi1jk ... ... gikj1 . . . gikjk

= det(gIiJj).

Om e1, . . . , en ¨ar en ortonormerad bas f¨or V betyder detta att {θI}, d¨ar I ¨ar str¨angt v¨axande index av l¨angd k, utg¨or en ortonormerad bas f¨or Λk(V), och i det fallet har vi allts˚a att

(X

I

aIθI,X

J

bJθJ) = X

I

aIbI.

Vektorrummet Λn(V) ¨ar som vi sett endimensionellt, vilket g¨or att det finns tv˚a n-former σ s˚adana att (σ, σ) = (−1)n d¨ar dim V = n. Genom att v¨alja en av dessa, v¨aljer man en orientering av vektorrummet V och den valda n-formen, som vi betecknar σV, kallas d˚a vektorrummets volymform (¨aven om det inte ¨ar en sann volym). Om e1, . . . , en ¨ar en ON-bas s˚a g¨aller att σV = ±θ1∧ . . . ∧ θn d¨ar teckenvalet definierar orienteringen.

F¨or att best¨amma ett uttryck f¨or σV i en icke-ortonormerad bas noterar vi f¨orst att f¨or en bas e1, . . . , en ¨ar positivt orienterad om det g¨aller att

θ1∧ . . . ∧ θn= KσV, K > 0.

F¨or en positivt orienterad ON-bas {oi} i V har vi h¨ar att K = 1 och om e = oA d¨ar det A > 0, s˚a ser vi att (x0 ¨ar koordinaterna f¨or den ortonormerade basen)

σV = (θ1)0∧ . . . ∧ (θn)0 = det A θ1∧ . . . ∧ θn.

Vidare har vi att (g(ei, ej)) = A(g(oi, oj))At vilket betyder att | det gij| = (det A)2, s˚a σV =

q

| det gij| θ1∧ . . . ∧ θn, och vi har d˚a att

V, σV) = det((θi, θj)) = det(gij).

(16)

12 Tv˚ a relaterade operatorer

F¨or k-former har vi att f¨or fixt v ∈ V g¨aller att i(v) ¨ar en avbildning Λk(V) //Λk−1(V).

P˚a ett metriskt rum kan vi ocks˚a definiera en avbildning j(v) : Λk(V) //Λk+1(V) genom j(u)S = u[∧ ω.

Dess relation till den inre produkten framg˚ar f¨orst av att vi har att j(u)j(v)ω = −j(v)j(u)ω, men ocks˚a att

i(u)j(v)ω = i(u)(v[∧ ω) = (i(u)v[) ∧ ω − v[∧ (i(v)ω) = g(u, v)ω − j(v)i(u)ω.

Sammanfattningvis g¨aller allts˚a p˚a Λk(V) att

(i(u)i(v) + i(v)i(u) = 0, j(u)j(v) + j(v)j(u) = 0

i(u)j(v) + j(v)i(u) = g(u, v) .

Anm¨arkning I fallet med Euklidiskt rum har operatorerna ovan en viktig betydelse i kvantfysiken d¨ar de kallas skapelse- och f¨orst¨orelse-operatorer f¨or fermioner. Formlerna ovan utg¨or d˚a anti-kommuteringsreglerna f¨or dessa operatorer.

Vi kan ocks˚a notera f¨oljande. Fr˚an definitionen av skal¨arprodukt har vi f¨or ω ∈ Λk(V) och η = u[2 ∧ . . . ∧ u[k att

(i(uk)ω, η) = ω(uk, u2, . . . , un) = (ω, u[k∧ η) = (ω, j(uk)η) = 0, k ≥ 2 och att

(i(u1)ω, η) = ω(u1, . . . , uk) = (ω, u[1∧ η) = (ω, j(u1)η).

Tillsammans med linj¨ariteten ger detta formeln

(i(v)ω, η) = (ω, j(v)η), v ∈ V, ω ∈ Λk(V), η ∈ Λk−1(V).

13 Hodges stj¨ arnoperator

Om vi tar en k-form ω och en n − k-form η s˚a g¨aller att deras kilprodukt ¨ar en n-form.

Om vi dessutom har valt en metrik p˚a och en orientering av V , och d¨armed en volymform σV, s˚a g¨aller att kilprodukten ¨ar proportionell mot σV:

ω ∧ η = B(ω, η)σV

d¨ar B : Λk(V) × Λn−k(V) → K ¨ar en bilinj¨ar-form. Om vi nu fixerar ω ∈ Λk(V) s˚a blir avbildningen Λn−k(V) 3 η //B(ω, η) ∈ K en linj¨ar avbildning, vilket betyder att det finns ett element ?ω ∈ Λn−k(V) s˚adant att B(ω, η) = (?ω, η). Detta ger oss en linj¨ar avbildning

? : Λk(V) //Λn−k(V) genom

ω ∧ η = (?ω, η)σV.

Vi m˚aste dock komplettera denna definition med fallen k = 0, n. Om vi betecknar ba- selementet i Λ0(V) med 1, s˚a har vi att ?σV = 1 och att ?1 = (σV, σVV, eftersom σV = 1 ∧ σV = (?1, σVV.

(17)

Anm¨arkning Notera att v˚ar definition ger att ω ∧ ?ω = (?ω, ?ω)σV. H¨ar g¨aller, som vi ska se nedan, att (?ω, ?ω) = ±(ω, ω), d¨ar tecknet best¨ams av metrikens signatur. Vi har plustecken om metriken ¨ar positivt definit.

Exempel 6 Vi ska best¨amma uttryck f¨or ?-operatorn i en ON-bas θ1, . . . , θnp˚a V s˚adan att σV = θ1∧ . . . ∧ θn ¨ar definierar den givna orienteringen. Eftersom θI∧ θJ = 0 om I, J har n˚agot gemensamt element f¨oljer att ?θI = aθJ, d¨ar J ¨ar de komplement¨ara indexen till I. Men θI∧ θJ = sign πσV d¨ar π ¨ar den permutation som ¨overf¨or {I, J } p˚a {1, . . . , n}, varf¨or definitionen p˚a ?-avbildningen ger att a = (θJ, θJ) sign π och allts˚a

I = (θJ, θJ)(sign π)θJ.

Exempel 7 Om V ¨ar ett orienterat 2-dimensionellt Euklidiskt rum och dx, dy ¨ar positivt orienterad ortonormerad bas f¨or V, ber¨aknar vi ?dx genom att notera att

σV = dx ∧ dy = (?dx, dy)σV ⇒ (?dx, dy) = 1.

Genom att ers¨atta dy med dx ser vi att (?dx, dx) = 0, s˚a det g¨aller att ?dx = dy. En enkel modifiering av r¨akningen ovan visar sedan att ?dy = −dx. Geometriskt betyder allts˚a stj¨arnoperatorn i detta fall rotation ett kvarts varv.

Andrar vi nu f¨¨ oruts¨attningarna s˚a att rummet inte ¨ar Euklidiskt utan har Minkowski- metriken dt2 − dx2 och σV = dt ∧ dx, d¨ar dt, dx ¨ar en orienterad och ortonormerad bas f¨or V. D˚a g¨aller att (σV, σV) = −1 och nu f˚ar vi att dt ∧ dx = (?dt, dx)σV, allts˚a (?dt, dx) = 1, vilket betyder att ?dt = (?dt, dx)(σV, σV) = −dx. En motsvarande r¨akning visar att ?dx = −dt, eftersom (dt, dt) = 1. Geometriskt betyder allts˚a stj¨arnoperatorn nu spegling i linjen dt + dx = 0.

Exempel 8 Betrakta nu tv˚a-former i ett orienterat Minkowski-rum av dimension fyra med metrik dt2− dx2− dy2 − dz2. Vi har d˚a att

σV = (dt ∧ dx) ∧ dy ∧ dz) = (?(dt ∧ dx), dy ∧ dz)σV ⇒ (?(dt ∧ dx), dy ∧ dz) = 1 och ¨ovriga skal¨arprodukter blir noll. Det f¨oljer att

?(dt ∧ dx) = (dy, dy)(dz, dz)dy ∧ dz = dy ∧ dz.

Ur detta f¨oljer att om ω ¨ar en 1-form i dx, dy, dz s˚a g¨aller att

?(dt ∧ ω) = ?0ω

d¨ar ?0 i h¨ogerledet ¨ar stj¨arnoperatorn i det Euklidiska underrummet som sp¨anns upp av dx, dy, dz. Vidare har vi att

σV = dx ∧ dy ∧ dt ∧ dz = (?dx ∧ dy, dt ∧ dz)σV,

s˚a ?(dx ∧ dy) = (dt, dt)(dz, dz)dt ∧ dz = −dt ∧ dz. Tillsammans med motsvarande formler f¨or de andra baselementen ser vi att om ω ¨ar en 2-form i dx, dy, dz s˚a g¨aller att

?ω = −dt ∧ ?0ω.

Dessa formler kommer att bli anv¨andbara n¨ar vi l¨angre fram ska diskutera Maxwells ek- vationer.

(18)

Vi beh¨over nu ett antal formler som relaterar stj¨arnoperatorn till operatorer vi ovan st¨ott p˚a. F¨or att h¨arleda dem ska vi anv¨anda f¨oljande “explicita” formeln f¨or stj¨arnoperatorn:

med η = v[k+1∧ . . . ∧ v[n blir definitionen att

(?ω)(vk+1, . . . , vnV = ω ∧ v[k+1∧ . . . ∧ v[n. Vi b¨orjar med att konstatera att

ω ∧ ?η = η ∧ ?ω,

vilket f¨oljer av att skal¨arprodukten ¨ar symmetrisk. Sedan har vi de tv˚a viktiga formlerna Sats 5 Vi har de tv˚a formlerna

i(u)(?ω) = (−1)k? j(u)ω, och j(u)(?ω) = (−1)k−1? i(u)ω.

Bevis. Den f¨orsta likheten f¨oljer d˚a av att i(u)(?ω)(vk+2, . . . , vnV =

?ω(u, vk+2, . . . , vnV = ω ∧ u[∧ vk+2[ ∧ . . . ∧ v[n= ?(ω ∧ u[)(vk+2, . . . , vnV fr˚an vilket resultatet kan avl¨asas. Den andra ¨ar lite mer komplicerad:

(j(u)(?ω))(vk, . . . , vnV =

n

X

k

(−1)i−1u[(vi)(?ω)(vk, . . . ,vbk, . . . , vnV =

n

X

k

(−1)i−1v[i(u)(ω ∧ vk[ ∧ . . . ∧ ˆvk∧ . . . ∧ v[n) = ω ∧ i(u)(vk[ ∧ . . . ∧ v[n) = (−1)k+1(i(u)ω) ∧ (v[k∧ . . . ∧ vn[) = (−1)k+1? i(u)ω(vk, . . . , vnV.

H¨ar har vi anv¨ant att om ω ∧ λ = 0 s˚a g¨aller att i(u)ω ∧ λ + (−1)kω ∧ i(u)λ = 0 och allts˚a

i(u)ω ∧ λ = (−1)k+1ω ∧ i(u)λ. 

Exempel 9 L˚at oss inte skilja p˚a 1-former och vektorer utan beteckna dessa med samma bokstav s˚a att vi t.ex. har att a × b = ?(a ∧ b). Att f˚a ett k¨ant uttryck f¨or trippelprodukten (a × b) × c ¨ar d˚a l¨att:

(a × b) × c = ?((?(a ∧ b)) ∧ c) = − ? (c ∧ (?(a ∧ b)) =

−j(c)(?(a ∧ b)) = ?i(c)(a ∧ b) = a(c)b − b(c)a = (a, c)b − (b, c)a.

Vi ser hur dessa operationer ers¨atter komplicerade vektoroperationer!

Exempel 10 Med samma l¨att oegentliga beteckningar som i f¨oreg˚aende exempel har vi i det Euklidiska rummet att

(i(u)(?a), b) = (u, b × a).

Detta f¨oljer av f¨oljande r¨akning:

(i(u)(?a), b)dx = b ∧ ?(i(u)(?a)) = b ∧ (− ?2j(u)a) = j(u)(b ∧ a), f¨or tar vi stj¨arna p˚a det f˚ar vi att

(i(u)(?a), b) = i(u)(?(b ∧ a)) = (u, b × a).

(19)

Exempel 11 Vi har f¨oljande tolkning av stj¨arnoperatorn. L˚at ek+1, . . . , en sp¨anna upp underrummet U och s¨att ω = e[1∧ . . . ∧ e[k. D˚a g¨aller att

u ∈ U ⇐⇒ i(u)ω = 0

eftersom e[i(u) = 0 d˚a i ≤ k om u ¨ar en linj¨arkombination av ek+1, . . . , en. Vidare har vi att

i(u) ? ω = (−1)k? j(u)ω = (−1)k? u[∧ e[1∧ . . . ∧ e[k = 0 om u ¨ar en linj¨arkombination av e1, . . . , ek s˚a vi har

u ∈ U ⇐⇒ i(u)(?ω) = 0

Avbildningen ?2 avbildar Λk(V) p˚a sig sj¨alvt. Vad ¨ar det d˚a f¨or avbildning? Svaret ¨ar att det ¨ar multiplikation med ett tal som ¨ar ±1:

Sats 6 Vi har att

?2 = (−1)k(n−k)V, σV) p˚a Λk(V).

Bevis. Notera f¨orst att

?(v1[∧ . . . ∧ vk[)(vk+1, . . . , vnV = v1[∧ . . . ∧ vn[ = (σV, σVV(v1, . . . , vn), d¨ar h¨ogerledet ocks˚a kan skrivas (σV, σV)i(v1) . . . i(vnV. Vi f˚ar d˚a

(?2ω)(v1, . . . , vnV = (?ω)∧v1[∧. . .∧vk[ = ?(v[1∧. . .∧v[k)∧ω = (σV, σV)i(v1) . . . i(vnV∧ω = (−1)k(n−k)V, σVV ∧ (i(v1) . . . i(vn)ω) = (−1)k(n−k)V, σV)ω(v1, . . . , vkV.  En f¨orsta konsekvens av detta ¨ar att

ω ∧ ?η = (σV, σV)(ω, η)σV, eftersom v¨ansterledet ¨ar lika med

(−1)k(n−k)? η ∧ ω = (−1)k(n−k)(?2η, ω)σV = (σV, σV)(η, ω)σV. Det f¨oljer nu att stj¨arnoperatorn n¨astan bevarar skal¨arprodukt:

(?ω, ?η) = (σV, σV)(ω, η).

Vi har n¨amligen att

V, σV)(?ω, ?η)σV = (?ω) ∧ (?2η) = ?2(?ω) ∧ η = ?2(?2ω, η)σV = (ω, η)σV Anv¨andbara resultat som ing˚ar i detta ¨ar

(ω, η) = ?−1(ω ∧ ?η), (?ω, ?η) = ?(ω ∧ ?η).

References

Related documents

[r]

Resultatet kan sk¨ arpas till f¨ oljande: sannolikheten att n˚ agot liknande problem dyker upp ¨ ar omv¨ ant proportionell mot din arbetsinsats.. Vi kan ¨ aven formulera f¨

https://caravanclub.se/arsmoteshandlingar/ (Inloggning krävs och markering som förtroendevald) Guide för att ansluta till RP mötet samt regelverk för densamma finns på samma

De riktiga XYZ-värdena för färgkartan kan beräknas fram om modellen för kameran byts ut till färgmatchningsfunktionerna för CIEXYZ.. Eftersom nu både RGB-värdena, som ges av

[r]

[r]

[r]

[r]