Anders K¨all´en MatematikCentrum LTH
anderskallen@gmail.com
Sammanfattning
I det h¨ar kapitlet diskuterar vi de algebraiska grunderna f¨or dif- ferentialformer, vilket g¨ors ur ett abstrakt perspektiv. Vi b¨orjar i ett vektorrum, som vi sedan l¨agger p˚a en skal¨arprodukt p˚a, och ser vad det tillf¨or – den musikaliska isomorfismen och volymsfor- men. En annan sak det tillf¨or ¨ar Hodges stj¨arnavbildning som ytterst f¨orklarar vad som ¨ar speciellt med analys i rummet.
1 Introduktion
I det h¨ar kapitlet ska vi studera multilinj¨ara avbildningar p˚a ett vektorrum. Inom de delar av analysen som behandlar geometriska problem spelar s˚adana en stor roll. Den allm¨anna relativitetsteorin brukar t.ex. beskrivas med hj¨alp av tensorer, vilka ¨ar objekt som i varje punkt ¨ar just en s˚adan avbildning. Andra exempel ¨ar differentialformer som ¨ar grund f¨or mycket h¨ogre differentialkalkyl.
P˚a de objekt vi ska studera ska vi inf¨ora diverse viktiga rent algebraiska operationer, vilka spelar stor roll i den h¨ogre differentialkalkylen. Hit h¨or skal¨arprodukter, den inre produkten och Hodges stj¨arnavbildning p˚a former.
2 Linj¨ ara rum och avbildningar
L˚at K beteckna antingen R eller C (eller n˚agon annan kropp av karakteristik 0). Ett linj¨art rum, eller vektorrum, ¨over K ¨ar en icke-tom m¨angd, vars element kallas vektorer, p˚a vilken man definierat
(i) en addition s˚adan att
u + v = v + u, u + (v + w) = (u + v) + w, (ii) en multiplikation med element i K s˚adan att
0.u = 0, 1.u = u, a(u + v) = au + av, (a + b)u = au + bu, (ab)u = a(bu).
H¨ar ¨ar u, v, w vektorer i V och a, b element i K. Element i K kallar vi ofta skal¨arer. En delm¨angd W till V kallas ett underrum om det g¨aller att
u, v ∈ W, a, b ∈ K ⇒ au + bv ∈ W.
Vektorn u ∈ V ¨ar en linj¨arkombination av vektorerna u1, . . . , uk i V om det finns skal¨arer ak∈ K s˚adana att u =P
jajuj. M¨angden av alla linj¨arkombinationer av u1, . . . , uk bildar ett underrum i V som betecknas L(u1, . . . , uk) och kallas linj¨ara h¨oljet av u1, . . . , uk. Om L(u1, . . . , uk) = V s¨ager man att u1, . . . , uk genererar V . Ett linj¨art rum s¨ags vara
¨andligtdimensionellt om det kan genereras av ¨andligt m˚anga vektorer. Slutligen kallas u1, . . . , uk linj¨art beroende om a1u1 + . . . + akuk = 0 f¨or n˚agon upps¨attning skal¨arer a1, . . . , ak som inte alla ¨ar noll. Om vektorerna u1, . . . , uk inte ¨ar linj¨art beroende s¨ags de vara linj¨art oberoende. Om vektorerna ¨ar linj¨art oberoende och sp¨anner upp V utg¨or de en bas f¨or V , och dimensionen av V ¨ar d˚a lika med k.
En avbildning T : V //W mellan tv˚a vektorrum ¨ar linj¨ar om det f¨or alla a, b ∈ K och v, w ∈ V g¨aller att
T (av + bw) = aT (v) + bT (w).
M¨angden av s˚adana avbildningar bildar ett vektorrum som vi betecknar L(V, W ).
Antag i forts¨attningen att V har dimensionen n. Om e1, . . . , en ¨ar en bas f¨or V finns d˚a entydigt best¨amda koordinater x1, . . . , xn som ¨ar reellv¨arda funktioner p˚a V s˚adana att
u = P
ixi(u)ei. Fixerar vi d¨arf¨or en bas i V kan vi sedan identifiera V med Kn, varf¨or differentialkalkyl i ett vektorrum egentligen inte skiljer sig fr˚an differentialkalkyl i Kn. Men vi noterar ocks˚a att funktionerna xi : V //K ¨ar linj¨ara funktioner och som s˚adana detsamma som deras differentialer dxi.
De linj¨ara avbildningarna θ : V //K utg¨or ocks˚a ett vektorrum som vi betecknar med V∗. Dess element kallar vi 1-former. Om e1, . . . , en ¨ar en bas f¨or V s˚a definieras dess duala bas θ1, . . . , θn av att θi(ej) = δij, och man inser l¨att att θi = dxi. Det ¨ar emellertid f¨ordelaktigt i m˚anga sammanhang att inte blanda in koordinaterna x1, . . . , xn.
Men nu kan vi utg˚a ifr˚an V∗ och bilda dess dual V∗∗. Men vi kan uppfatta en vektor v ∈ V som en linj¨ar funktion p˚a V∗, n¨amligen som funktionen
v(θ) = θ(v).
Vi kan d¨arf¨or identifiera V∗∗ med V .
Slutligen, om T : V //W ¨ar en linj¨ar avbildning, s˚a definieras naturligt en linj¨ar avbild- ning T∗ : W∗ //V∗. Denna kallas den transponerade avbildnignen till T och definieras av att
T∗(θ)(v) = θ(T (v)), θ ∈ W∗, v ∈ V.
3 Tensorprodukten av tv˚ a vektorrum
L˚at V vara ett vektorrum av dimension n och U ett av dimension m (b˚ada ¨over samma skal¨arer). Dess tensorprodukt V × U best˚ar d˚a av alla bilinj¨ara avbildningar En bilinj¨ar avbildning B : V × U //K. Att detta ¨ar ett vektorrum ¨ar klart, och f¨or att se att det har dimensionen nm definierar vi bilinj¨arformen α ⊗ β ut en α ∈ V∗ och β ∈ U∗ genom
(α ⊗ β)(v, u) = α(v)β(u).
Det ¨ar d˚a l¨att att se att om e1, . . . , en ¨ar en bas f¨or V och f1, . . . , fm en bas f¨or U , s˚a ¨ar {ei ⊗ fj} en bas f¨or V × U . Dessa ¨ar nm element och allts˚a g¨aller att
dim(V ⊗ U ) = (dim V )(dim U ).
Uttryckt i en s˚adan bas kan vi skriva
B(v, u) =X
i,j
B(ei, fj)uivj,
s˚a den beskrivs av en n × m-matris.
Antag nu att U = V och B ¨ar en bilinj¨arform p˚a V × V , vi s¨ager d˚a bilinj¨arform p˚a V . Vi kan d˚a definiera
Sym(B)(u, v) = 1
2(B(u, v) + B(v, u)), Alt(B)(u, v) = B(u, v) − B(v, u).
Dessa ¨ar nya bilinj¨arformer p˚a V med de speciella egenskaperna att Sym(B)(u, v) = Sym(v, u), Alt(u, v) = − Alt(v, u).
Det betyder att Sym(B) ¨ar en symmetrisk bilinj¨ar form p˚a V medan Alt(B) ¨ar en skevsymmetrisk bilinj¨ar form p˚a V . De symmetriska och de skevsymmetriska bilinj¨ara formerna p˚a V utg¨or vektorrum var f¨or sig, vilka vi betecknar med S2(V∗) respektive Λ2(V∗).
De symmetriska formerna svarar mot symmetriska matriser (B(ei, ej)), vilket betyder att dim S2(V∗) =n
2
+ n = n(n + 1)
2 ,
medan de skevsymmetriska formerna svarar mot skevsymmetriska matriser, s˚a dim Λ2(V∗) = n
2
.
F¨or att hitta baser i dessa vektorrum inf¨or vi de tv˚a multiplikationerna av 1-former:
(α ⊗sβ)(u, v) = 1
2(α(u)β(v) + α(v)β(u)) = Sym(α ⊗ β)(u, v), och
(α ∧ β)(u, v) = α(u)β(v) − α(v)β(u) = Alt(α ⊗ β)(u, v).
Den f¨orsta av dessa ger en symmetrisk bilinj¨ar form, och den andra ger en skevsymmetrisk s˚adan. Notera speciellt att α ∧ α = 0. Vi ser att elementen {θi⊗sθj}i≤j bildar en bas f¨or S2(V∗) och {θi∧ θj}i<j en bas f¨or Λ2(V∗).
4 Tensorer
I syfte att skapa den algebraiska grunden f¨or differentialformer beh¨over vi generalisera begreppet dualrum till ett reellt vektorrum V . En p-tensor p˚a V ¨ar en reellv¨ard funktion T p˚a den kartesiska produkten Vp = V × . . . × V som ¨ar multilinj¨ar, dvs linj¨ar i varje variabel n¨ar de andra h˚alls fixa:
T (v1, . . . , vj+ av0j, . . . , vp) = T (v) + aT (v1, . . . , vj0, . . . , vp).
Speciellt ¨ar 1-tensorer detsamma som 1-former p˚a V . En k¨and 2-tensor ¨ar skal¨arprodukten p˚a Rk och en k¨and n-tensor ¨ar determinantfunktionen.
Summor och skal¨ara produkter av multilinj¨ara funktioner ¨ar ocks˚a multilinj¨ara, s˚a m¨angden av p-tensorer utg¨or ett vektorrum Tp(V∗). Notera att T1(V∗) = V∗. Vi kan ocks˚a multi- plicera tensorer p˚a ett enkelt s¨att: om T ¨ar en p-tensor och S en q-tensor definierar vi en p + q-tensor T ⊗ S genom
(T ⊗ S)(v1, . . . , vp, vp+1, . . . , vp+q) = T (v1, . . . , vp)S(vp+1, . . . , vp+q).
T ⊗S kallas tensorprodukten av T med S. Notera att tensorprodukten inte ¨ar kommutativ, men man ser l¨att att den ¨ar associativ och distributiv.
N¨ar man arbetar med tensorer ¨ar det bekv¨amt att arbeta med multiindex. Ett multiindex
¨ar en upps¨attning (i1, . . . , ik) av index 1 ≤ ik ≤ n och vi skriver antalet element som |I|
(s˚a att |I| = k h¨ar). Vi anv¨ander sedan detta vid olika sorters produkt, s˚asom θI = θt1 ⊗ . . . ⊗ θtp.
Sats 1 L˚at {θ1, . . . , θn} vara en bas f¨or V∗. D˚a bildar p-tensorerna {(θI; |I| = p} en bas f¨or Tp(V∗). Speciellt g¨aller att dim Tp(V∗) = np.
Bevis. L˚at {e1, . . . , ek} vara den duala basen i V och beteckna med eI f¨oljden (ei1, . . . , eip).
Per definition, om I och J ¨ar tv˚a s˚adana indexseqvenser s˚a ¨ar θI(vJ) = 1 om I = J och
= 0 om I 6= J . Det ¨ar klart fr˚an multilinj¨ariteten att tv˚a p-tensorer T och S ¨ar lika om och endast om T (eJ) = S(eJ) f¨or varje svit eJ. Allts˚a g¨aller att T = P
JT (eJ)θI, och allts˚a sp¨anner upp Tp(V∗). Att θI:na ¨ar oberoende f¨oljer av att om S =P
IaIθI = 0 s˚a
g¨aller att 0 = S(eJ) = aJ f¨or alla J .
En allm¨an tensor T ¨ar symmetrisk om den inte ¨andras om tv˚a variabler transponeras:
T (v1, . . . , vi, . . . , vj, . . . , vp) = T (v1, . . . , vj. . . , vi, . . . , vp).
Alla 1-tensorer ¨ar automatiskt symmetriska. Ett annat exempel ¨ar skal¨arprodukten. En omformulering av villkoret bygger p˚a att vi inf¨or gruppen Sp av permutationer av talen 1 till p. F¨or en p-tensor T och en permutation π ∈ Sp definierar vi en annan p-tensor Tπ genom
Tπ(v1, . . . , vp) = T (vπ(1), . . . , Tπ(p)).
En symmetrisk p-tensor ¨ar d˚a en som uppfyller
Tπ = T, f¨or alla π ∈ Sp. Notera att det alltid g¨aller att (Tπ)σ = Tπ◦σ.
Det ¨ar l¨att att konstruera en symmetriska tensor fr˚an en given s˚adan. Om T ¨ar en god- tycklig p-tensor definierar vi helt enkelt
Sym(T ) = 1 p!
X
π∈Sp
Tπ.
Det ¨ar uppenbart att om T redan ¨ar symmetrisk s˚a g¨aller att Sym(T ) = T .
Eftersom summor och skal¨ara multipler av symmetriska funktioner ocks˚a ¨ar symmetriska f¨oljer att de symmetriska p-tensorerna bildar ett underrum Sp(V∗) ⊂ Tp(V∗). Tensorpro- dukter av symmetriska tensorer ¨ar inte symmetrisk, men vi kan definiera den symmetriska produkten
S ⊗sT = Sym(S ⊗ T )
om S ∈ Sp(V∗) och T ∈ Sq(V∗) och produkten ¨ar d˚a i Sp+q(V∗). Utskrivet blir detta (S ⊗sT )(v1, . . . , vp+q) = 1
(p + q)!
X
v∈Sp+q
S(vπ(1), . . . , vπ(p))T (vπ(p+1), . . . , vπ(p+q))
5 Skevsymmetriska tensorer alias p-former
En tensor T ¨ar skevsymmetrisk (eller alternerande) om tecknet p˚a T ¨andras om tv˚a variabler transponeras:
T (v1, . . . , vi, . . . , vj, . . . , vp) = −T (v1, . . . , vj. . . , vi, . . . , vp).
Alla 1-tensorer ¨ar automatiskt alternerande. Determinanten ¨ar alternerande, medan skal¨ar- produkten inte ¨ar det. Liksom ovan omformulerar vi detta villkor med hj¨alp av gruppen Sp. En permutation π ∈ Sp ¨ar j¨amn eller udda beroende av om den kan skrivas som en produkt av ett j¨amnt eller udda antal transpositioner och dess signatur, sign π, definieras som +1 eller −1 om permutationen ¨ar j¨amn eller udda. De alternerande p-tensorerna ¨ar nu de som uppfyller
Tπ = sign π T, f¨or alla π ∈ Sp.
Standardmetoden att skapa alternerande tensorer fr˚an godtyckliga s˚adana anv¨ander ope- ratorn
Alt(T ) = 1 p!
X
π∈Sp
sign πTπ. Att den ¨ar alternerande f¨oljer av att sign π ◦ σ = sign π sign σ:
Alt(T )σ = 1 p!
X
π∈Sp
sign π(Tπ)σ = 1 p!
X
π∈Sp
sign(π ◦ σ) Tπ◦σ.
Om vi nu s¨atter τ = π ◦ σ f¨oljer att τ genoml¨oper Sp d˚a π g¨or det. Allts˚a g¨aller att h¨ogerledet ¨ar lika med (sign σ) Alt(T ).
Vi kan ocks˚a notera att om T redan ¨ar alternerande g¨aller att Alt(T ) = T eftersom det g¨aller f¨or varje term att sign π Tπ = T .
Eftersom summor och skal¨ara multipler av alternerande funktioner altj¨amt ¨ar alterne- rande f¨oljer att de alternerande p-tensorerna bildar det underrum Λp(V∗) ⊂ Tp(V∗).
Tensorprodukter av alternerande tensorer ¨ar inte alternerande, men vi kan definiera kil- produkten
T ∧ S =p + q p
Alt(T ⊗ S)
om T ∈ Λp(V∗) och S ∈ Λq(V∗) och kilprodukten ¨ar d˚a i Λp+q(V∗). Koefficienten ¨ar vald s˚a att vi ˚aterf˚ar v˚ar definition fr˚an ovan i fallet p = q = 1 Utskrivet blir det
(S ∧ T )(v1, . . . , vp+q) = 1 p!q!
X
v∈Sp+q
sign π S(vπ(1), . . . , vπ(p))T (vπ(p+1), . . . , vπ(p+q)).
Anm¨arkning Om θ, η ¨ar godtyckliga 1-former p˚a V ger detta samma kilprodukt som ovan:
θ ∧ η = 1
2(θ ⊗ η − η ⊗ θ).
Observera att
θ ∧ η = −η ∧ θ och θ ∧ θ = 0, vilket visar att ∧ ¨ar antikommutativ p˚a Λ1(V∗).
Alt ¨ar en linj¨ar operation, s˚a det ¨ar klart att kilprodukten ¨ar distributiv ¨over addition och skal¨ar multiplikation. Att den ¨ar associativ ¨ar dock lite mer besv¨arligt att visa.
Lemma 1 Om Alt(T ) = 0 g¨aller att T ∧ S = 0 = S ∧ T .
Bevis. L˚at G vara den undergrupp den symmetriska gruppen till Sp+q som h˚aller de sista q talen fixt, vilken naturligt identifieras med den symmetriska gruppen Sp. Vi har d˚a (T ⊗ S)π = Tπ0 ⊗ S och sign π = sign π0 d¨ar primmad beteckning ¨ar motsvarigheten i Sp av den oprimade i G. Allts˚a g¨aller att
X
π∈G
(−1)π(T ⊗ S)π = [X
π0∈Sp
sign π0Tπ0] ⊗ S = Alt(T ) ⊗ S = 0.
Nu g¨aller att G delar upp Sp+qi en disjunkt union av h¨ogerbiklasser G◦σ = {π◦σ; π ∈ G}.
F¨or varje biklass X
π∈G
sign(π ◦ σ)(T ⊗ S)π◦σ = sign σ[X
π∈G
sign π(T ⊗ S)π]σ = 0.
Eftersom T ∧ S = p+qp Alt(T ⊗ S) ¨ar summan dessa partialsummor ¨over h¨ogerbiklaserna till G, s˚a T ∧ S = 0. P˚a ett motsvarande s¨att visar vi att S ∧ T = 0. Sats 2 Kilprodukten ¨ar associativ:
(T ∧ S) ∧ R = T ∧ (S ∧ R), s˚a vi kan skriva T ∧ S ∧ R utan att det blir tolkningsproblem.
Bevis. Vi ska visa att (T ∧ S) ∧ R = Alt(T ⊗ S ⊗ R). Per definition har vi att (T ∧ S) ∧ R = Alt((T ∧ S) ⊗ R),
s˚a lineariteten av Alt medf¨or att
(T ∧ S) ∧ R − Alt(T ⊗ S ⊗ T ) = Alt([T ∧ S − T ⊗ S] ⊗ R).
Eftersom T ∧ S ¨ar alternerande g¨aller att
Alt(T ∧ S − T ⊗ S) = Alt(T ∧ S) − Alt(T ⊗ S) = T ∧ S − T ∧ S = 0.
S˚a lemmat medf¨or att
Alt([T ∧ S − T ⊗ S] ⊗ R) = 0,
vilket bevisar satsen. Ett analogt resonemang visar att T ∧ (S ∧ R) = Alt(T ⊗ S ⊗ R).
Formeln T ∧ S ∧ R = Alt(T ⊗ S ⊗ T ) kan utvidgas till att relatera kil och tensorprodukter av godtyckligt antal tensorer. Vi kan anv¨anda den till att best¨amma en bas f¨or Λp(V∗).
Om n¨amligen T ¨ar en p-tensor kan vi skriva T =X
I
tIθi1 ⊗ . . . ⊗ θip
d¨ar {θi} ¨ar en bas f¨or V∗. Om T ¨ar alternerande s˚a g¨aller att T = Alt(T ), s˚a T =X
I
tIAlt(θI) = X tIθI,
d¨ar vi anv¨ant beteckningen θI = θi1∧ . . . ∧ θip n¨ar I = {i1, . . . , ip}. Vi har visat att θI d¨ar I genoml¨oper alla multiindex sp¨anner upp Λp(V∗), men det ¨ar en fundamental egenskap hos kilprodukten att de inte ¨ar oberoende.
Ur definitionen av kilprodukten f¨oljer att en produkt av 1-former ber¨aknas genom en determinant
(θ1 ∧ . . . ∧ θp)(v1, . . . , vp) =
θ1(v1) . . . θp(v1) ... ... θ1(vp) . . . θp(vp)
.
Utvecklar vi determinanten efter f¨orsta raden ser vi att, om S ¨ar en (p − 1)-form, (θ ∧ S)(v1, . . . , vp) = X
i
(−1)i−1θ(vi)S(v1, . . . , ˆvi, . . . , vp),
d¨ar ˆvi inneb¨ar att detta element inte ¨ar med. Detta g¨aller f¨orst f¨or (p − 1)-former S som
¨ar produkt av 1-former, men sedan av linj¨aritersk¨al f¨or allm¨anna (p − 1)-former.
Anm¨arkning Det ¨ar ofta bekv¨amt att inf¨ora beteckningen v−i = (v1, . . . , ˆvi, . . . , vp). D˚a kan vi skriva formeln kortare som
(θ ∧ S(v) =X
i
(−1)i−1θ(vi)S(v−i).
Antikommutativen leder till n˚agra relationer ang˚aende θI. Om tv˚a indexsviter I och J skiljs ˚at bara i ordningsf¨oljd f¨oljer att θI = ±θJ. Om tv˚a index i I ¨ar lika g¨aller att θI = 0.
F¨oljaktligen kan vi eliminera redundans genom att bara anv¨anda θI f¨or vilka alla index
¨ar str¨angt v¨axande. Antalet s˚adana sviter ¨ar kp. Det ¨ar l¨att att se att de ˚aterst˚aende tensorerna ¨ar linj¨art oberoende. L˚at vj vara basen i V som ¨ar dual till θj. L˚at vI vara som ovan. Enligt definitionen av Alt-operatorn g¨aller d˚a att θI(vI) = 1/p!, men om J har andra v¨axande indices g¨aller att θI(vJ) = 0. Allts˚a g¨aller att omP aIθI = 0, s˚a ¨ar
0 =X
I
aIθI(vJ) = 1 p!aJ. Vi har d¨armed visat
Sats 3 Om θi ¨ar en bas f¨or V∗ s˚a ¨ar θI = θi1 ∧ . . . ∧ θip (v¨axande index) en bas f¨or Λp(V∗). Det f¨oljer att dim Λp(V∗) = np.
Antag nu att indexsviten I har l¨angd p medan J har l¨angd q. Fr˚an antikommutativiteten f¨or kilprodukten i Λ1(V∗) ser vi d˚a att
θI∧ θJ = (−1)pqθJ ∧ θI, vilket visar att
T ∧ S = (−1)pqS ∧ T, om S ∈ Λp(V∗), S ∈ Λq(V∗).
Bassatsen ovan medf¨or att λn(V∗) ¨ar endimensionell om n = lim V . Om V = Rn bety- der detta att varje alternerande n-mutilinj¨ar funktion ¨ar en multipel av determinanten (entydigheten av determinantfunktionen).
Om l¨angden av I ¨ar > k m˚aste n˚agot index repeteras, vilket betyder att θI = 0. Det f¨oljer att Λp(V∗) = 0 om p > k. Man inf¨or ocks˚a Λ0(V∗) = R, vilket kan tolkas som de konstanta funktionerna p˚a V . Vi utvidgar kilprodukten genom att helt enkelt l˚ata multiplikation i detta rum vara skal¨ar multiplikation. Med kilprodukten blir d˚a den direkta summan
Λ(V∗) = Λ0(V∗) ⊕ Λ1(V∗) ⊕ . . . ⊕ Λk(V∗)
en icke-kommutativ algebra som kallas den yttre algebran p˚a V∗. Identitetselementet ¨ar 1 ∈ Λ0(V∗).
Det finns ytterligare en basal konstruktion. L˚at A : V // W vara en linj¨ar avbild- ning. Transponatet A∗ : W∗ //V∗ utvidgas d˚a naturligt till den yttre algebran: A∗ : Λp(W∗) //Λp(V∗) genom att vi f¨or T ∈ Λp(W∗) definierar A∗T ∈ Λ(V∗) genom
A∗T (v1, . . . , vp) = T (Av1, . . . , Avp), vi ∈ V.
Man ser l¨att att A∗ ¨ar linj¨ar och att
A∗(T ∧ S) = A∗T ∧ A∗S.
S˚a A∗ ¨ar en algebrahomomorfism: Λ(W∗) //Λ(V∗). Notera att om B : W //U ¨ar en annan linj¨ar avbildning s˚a g¨aller att (BA)∗ = A∗B∗.
Som specialfall, om A : V //V ¨ar en bijektion s˚a ¨ar den inducerade avbildningen A∗ : Λn(V∗) //Λn(V∗) en linj¨ar avbildning mellan tv˚a 1-dimensionella vektorrum, och m˚aste d¨arf¨or inneb¨ara multiplikation med en konstant λ ∈ R, allts˚a A∗T = λT f¨or alla T ∈ Λn(V∗). Vi ska visa att λ ¨ar precis determinanten av A.
F¨or detta, tag vilken som helst bijektion B : V //Rnoch betrakta T = B∗(det) ∈ Λn(V∗).
D˚a g¨aller att A∗B∗(det) = λB∗(det), vilket medf¨or att
(B∗)−1A∗B∗(det) = λ(B∗)−1B∗(det) = λ(BB−1)∗(det) = λ(det), allts˚a
(BAB−1)∗(det) = λ(det).
Vi ber¨aknar nu b˚ada sidor i denna ekvation i standardbasen i Rk. D˚a ser vi att λ = det(BAB−1) = det A.
Vi har allts˚a visat
Sats 4 (Determinantsatsen) Om A : V //V ¨ar en linj¨ar isomorfism s˚a g¨aller att A∗T = (det A)T f¨or varje T ∈ Λn(V ). Speciellt
A∗θ1 ∧ . . . ∧ A∗θn= (det A)θ1∧ . . . ∧ θn.
6 Allm¨ annare tensorer
Man beh¨over inom tensoranalysen inte enbart multilinj¨ara avbildningar, utan ¨aven vek- torv¨arda multilinj¨ara avbildningar. Mer precis, multilinj¨ara avbildningar Vs //Vr f¨or
positiva heltal r och s. Det linj¨ara rummet av s˚adana betecknar vi Tr,s(V∗) och en tensor i det s¨ags vara kovariant av ordning s med kontravariant av ordning r.
Klassiskt betraktar man ett element i Tr,s(V∗) inte som en vektorv¨ard avbildning p˚a Vr utan som en skal¨arv¨ard multilinj¨ar avbildning p˚a (V∗)r× Vr, precis som vi kan betrakta en vektor som en linj¨ar avbildning p˚a V∗. Vi kan d˚a alternativt skriva Tr,s(V∗) som tensorprodukten (V∗)⊗r⊗ V⊗s. Speciellt ser vi att en tensor av typ (1, 0) ¨ar en vektor och en tensor av typ (0, 1) ¨ar en 1-form, medan en tensor av typ (0, p) ¨ar det som vi tidigare kallade en p-tensor. Vidare ¨ar Ts(V∗) = T(0,s)(V∗).
Anm¨arkning Inom tensoranalysen l˚ater man den duala basen till basen ei i V betecknas med ei (som allts˚a ¨ar v˚art θi). Vidare inf¨or man
eJI = ei1 ⊗ . . . ⊗ eir ⊗ ej1 ⊗ . . . ⊗ ejs,
d¨ar I = {i1, . . . , ir}, J = {j1, . . . , js} som blir en bas f¨or Tr,s. Tensorerna av typ (r, s) skrivs sedan
S = X
|I|=r,|J|=s
SJIeJI, d¨ar SJI = S(eIJ).
H¨ar utel¨amnas summatecknet oftast till f¨orm˚an f¨or konventionen att samma index uppe och nere alltid ska summeras ¨over (Einsteins summationskonvention). Vi ser speciellt att S ¨ar entydigt best¨amd av sina v¨arden p˚a baselementen. Mer explicit:
S = X
Tk...li...jei⊗ . . . ⊗ ej ⊗ ek⊗ . . . ⊗ el. d¨ar Tk...li...j = T (ei . . . , ej, ek, . . . , el).
Ofta n¨ar man beskriver tensorer anger man endast koefficienterna SJI, och utel¨amnar bas- elementen. Det fungerar s˚a l¨ange man endast diskuterar algebra, men n¨ar man ska derivera tensorer leder det till inf¨orandet av diverse korrektionsfaktorer (Christoffel-symboler) som h¨ar¨or fr˚an att man ocks˚a m˚aste derivera baselementen.
Vi noterar nu att vi kan skriva
S = X
|I|=r
(X
|J|=s
SJIeJ) ⊗ eI = X
|I|=r
SIeI,
d¨ar SI =P
|J|=sSJIθJ, vilket betyder att vi kan uppfatta en (r, s)-tensor som en upps¨attning Vr-v¨arda Ts(V∗)-tensorer.
Av speciellt intresse ¨ar h¨ar (1, 1)-tensorer S = P
ijsij(θj ⊗ ei) som allts˚a svarar mot avbildningar p˚a V vars koordinater ¨ar 1-former. Sp˚aret av α ⊗ v definierar vi som
Tr(α ⊗ v) = α(v) vilket utvidgas till den allm¨anna (1, 1)-tensorn S som
Tr S =X
ij
sijθj(ei) = X
i
sii.
Inom tensoranalysen kallas denna operator kontraktionen av S och betecknas oftast C(S).
Den kan utvidgas till allm¨anna (r, s) tensorer med konventionen att det ¨ar f¨orsta argu- mentet i varje komponent man kontraherar (tar sp˚aret ¨over). Vi ska strax ge den en annan formulering i form av den s.k. inre produkten (som ska skiljas fr˚an en skal¨arprodukt).
7 Orientering av vektorrum
Vi ska nu b¨orja l¨agga lite mer struktur p˚a vektorrummet V och se vilka konsekvenser denna f˚ar f¨or tensorer p˚a V . Vi b¨orjar med att orientera vektorrummet.
Man kan ge ett vektorrum V en av tv˚a olika orienteringar. Om vi har tv˚a baser i det, g¨aller n¨amligen e0 = Ae, d¨ar A ¨ar en linj¨ar avbildning p˚a V . Vi kan d¨arf¨or dela upp baserna i V i tv˚a ekvivalensklasser d¨ar vi s¨ager att baserna e, e0 har samma orientering om det A > 0. Att v¨alja en orientering f¨or V ¨ar att konsekvent v¨alja baser ur endast en av dessa ekvivalensklasser.
Ett beh¨andigare s¨att att beskriva detta ¨ar genom att betrakta vektorrummet Λn(V∗), som ju ¨ar endimensionellt. F¨or ett element σ i det g¨aller att, om baserna e, e0 ¨ar relatierade genom e0 = Ae,
σ(e01, . . . , e0n) = det A σ(e1, . . . , en)
vilket betyder att σ inte ¨andrar tecken om vi byter till en ny bas med samma orientering.
Att orientera V ¨ar d¨arf¨or detsamma som att v¨alja ett element σ ∈ Λn(V∗).
8 Den inre produkten
Vi ska nu formulera den klassiska tensoranalysens kontraktioner p˚a ett alternativt s¨att.
F¨or en tensor S ∈ Tr,s(V∗), som vi uppfattar som en vektorv¨ard tensor, och v ∈ V ¨ar en vektor, kan vi definiera en Tr,s−1-form i(v)S genom att stoppa in v i det f¨orsta argumentet f¨or S (s positionerna) och sedan variera de ¨ovriga:
i(v)S(v1, . . . , vs−1) = S(v, v1, . . . , vs−1).
Notera att det alltid ¨ar i f¨orsta argumentet vi s¨atter v. Per definition g¨aller att i(v)a = 0 om a ¨ar en skal¨ar.
Exempel 1 F¨or en 1-form inneb¨ar den inre produkten endast att vi ber¨aknar den i vek- torn i fr˚aga och f˚ar en skal¨ar:
i(v)θ = θ(v) = Tr(θ ⊗ v).
P˚a motsvarade s¨att ser vi att S ¨ar en (0, 2)-tensor s˚a g¨aller att S(u, v) = (i(u)S(v) = i(v)i(u)S,
en observation som ofta ¨ar anv¨andbar och naturligtvis generaliseras till (0, s)-tensorer.
Vidare ser vi att
i(v)(θi∧ θj)(u) = (θi∧ θj)(v, u) = θi(v)θj(u) − θi(u)θj(v) = viθj(u) − vjθi(u) s˚a om B ¨ar en 2-form s˚a f˚ar vi att
(i(v)B)(u) =X
i<j
Biji(v)(θi∧ θj)(u) =X
i<j
Bijviθj −X
i<j
Bijvjθi,
vilket vi kan skriva som
i(v)B = B(v, θ) − B(θ, v).
Detta kan generaliseras med en formel som bygger p˚a observationen att
i(v)(θ1∧. . .∧θs)(v1, . . . , vs−1) =
θ1(v) . . . θs(v) θ1(v1) . . . θs(v1)
... ...
θ1(vs−1) . . . θs(vs−1)
=X
i
(−1)i−1θi(v)θ−i(v1, . . . , vs−1),
d¨ar vi satt
θ−i = θ1 ∧ . . . ∧ ˆθi∧ . . . ∧ θs. Ett annat s¨att att t¨anka ges i n¨asta exempel.
Exempel 2 Vi noterar f¨orst att
i(ek)θm = θm(ek) = δkm. Om S ¨ar en k-form, s˚a g¨aller att vi kan skriva
S = A + θj ∧ B, d¨ar varken A eller B inneh˚aller θj. D˚a f¨oljer att
i(ej)S = B.
Vi ser ocks˚a att om S, T ¨ar allm¨anna tensorer s˚a har vi att i(v)(S ⊗ T ) = (i(v)S) ⊗ T + S ⊗ (i(v)T ), medan formeln ¨ar lite annorlunda f¨or skev-symmetriska former:
i(v)(S ∧ T ) = (i(v)S) ∧ T + (−1)kS ∧ (i(v)T ), d¨ar S ¨ar en T0,k-tensor.
Det tre-dimensionella fallet ¨ar v¨ard en egen m¨assa, eftersom det indikerar vad det ¨ar som
¨
ar speciellt med just tre dimensioner.
Exempel 3 Vi har att
ω = i(u)(dx1∧ dx2∧ dx3) = (i(u)dx1) ∧ (dx2∧ dx3) − dx1∧ i(u)(dx2∧ dx3) = u3dx1 ∧ dx2+ u2dx3∧ dx1+ u1dx2∧ dx3.
Ur detta f¨oljer sedan att
i(v)ω = (u2v3− u3v2)dx1+ (u3v1− u1v3)dx2 + (u1v2− u2v1)dx3,
d¨ar vi k¨anner igen koefficienterna i vektorform som den klassiska vektorproduktens kom- ponenter. Detta betyder att (med den vanliga, euklidiska skal¨arprodukten)
(dx1∧ dx2∧ dx3)(u, v, w) = i(w)i(v)ω = (u × v) · w.
9 Metriker i vektorrum
Vi ska nu f¨orse v˚art vektorrum V med en skal¨arprodukt. Med en skal¨arprodukt p˚a V menar vi en symmetrisk bilinj¨arform g som ¨ar icke-degenererad, d.v.s. g(u, u) = 0 endast d˚a u = 0. Motsvarande kvadratiska form u → g(u, u) kallas d˚a en metrik p˚a V och enligt tr¨oghetssatsen f¨or kvadratiska former kan vi skriva V = V+⊕ V− som en direkt summa av underrum s˚adana att g(u, u) > 0 d˚a u ∈ V+ och g(u, u) < 0 d˚a u ∈ V−. Om V = V+ s¨ags rummet vara Euklidiskt, medan fallet n¨ar V+ ¨ar en-dimensionellt och dim V− > 0 svarar mot Minkowski-rum som ¨ar kopplade till den speciella relativitetsteorin.
Vi s¨ager att e1, . . . , en ¨ar en ortonormerad bas f¨or V om det g¨aller att g(ei, ej) = 0, i 6= j och |g(ei, ei)| = 1 f¨or alla i. Notera att eftersom vi inte kr¨aver en positivt definit metrik s˚a blir formeln f¨or hur man hittar koordinaterna f¨or en vektor i en ortonormerad bas lite annorlunda mot den vanliga: om v = P
ixiei s˚a g¨aller att g(v, ei) = P
jxjg(ei, ej) = xig(ei, ei), och allts˚a (eftersom g(ei, ei) = ±1) xi = g(v, ei)g(ei, ei). I en allm¨an, icke n¨odv¨andigtvis ortonormerad, bas p˚a V skriver vi
g(u, v) =X
ij
gijθi(u)θj(v)
(eller g =P
ijgijθi⊗ θj om vi vill), d¨ar matrisen G = (gij) ¨ar symmetrisk.
10 Den musikaliska isomorfismen
Med hj¨alp av metriken g kan vi p˚a ett naturligt s¨att identifiera V med sitt duala rum V∗. Om n¨amligen v ∈ V s˚a blir
Lv : V 3 u //g(u, v) ∈ R
en linj¨ar avbildning, allts˚a ett element i V∗. Om e1, . . . , en ¨ar en bas f¨or V s˚a kommer elementen {Lei} att utg¨ora en bas f¨or V∗ av dimensionssk¨al, s˚a avbildningen v //Lv definierar en isomorfism mellan V och V∗. Eftersom denna isomorfism ¨ar fundamental inf¨or vi ocks˚a speciella beteckningar: den linj¨ara form som h¨or till v ∈ V (allts˚a Lv ovan) betecknar vi v[, och om en linj¨ar form L ∈ V∗ ¨ar given, s˚a betecknas det v ∈ V som ¨ar s˚adant att θ = v[ med θ]. Detta betyder att
v[(u) = g(u, v), θ(u) = g(u, θ]).
Exempel 4 Ibland vill man tolka 1-former α som det n−1-dimensionella underrum som definieras av att α(u) = 0, allts˚a
g(u, α]) = 0.
Kilprodukten av tv˚a 1-former blir d˚a det i allm¨anhet n − 2-dimensionella underrum som
¨ar ortogonalt mot b˚ada de duala vektorerna osv. N¨ar vi d¨arf¨or kommer upp i kilprodukten av n 1-former blir resultatet (i allm¨anhet) endast origo.
Men h¨arigenom f˚ar vi ocks˚a en skal¨arprodukt p˚a V∗: vi definierar bara (u[, v[) = g(u, v) ⇔ (θ, η) = g(θ], η]).
Andra s¨att att uttrycka detta ¨ar att (θ, v[) = θ(v), eller (θ, η) = θ(η]) = g(θ], η]).
Exempel 5 1-formerna ηi = e[i utg¨or f¨oljaktligen ocks˚a en bas f¨or V∗, liksom den duala basen θi. Per definition har vi att
ηi(v) = g(ei, v) = X
j
gijθj(v),
fr˚an vilket vi l¨att ser att
(θi)]=X
j
gikek d¨ar (gij) ¨ar inversen till (gij). Det f¨oljer att
(θi, θj) = gij.
Speciellt ser vi allts˚a att om ei ¨ar en ON-bas f¨or V , s˚a ¨ar θi en ON-bas f¨or V∗.
Anm¨arkning Det ¨ar v¨art att notera hur indexen ¨andrar sig n¨ar vi g˚ar fr˚an en vektor till en 1-form och tillbaka med den musikaliska isomorfismen. Om vi har en vektor v =P
iviei, s˚a g¨aller att
v[ =X
i
viηi =X
ij
vigijdxj =X
j
(X
i
gjivi)dxj, s˚a koefficienterna f¨or v[ ges allts˚a av v0j =P
igjivi. Omv¨ant, om vi utg˚ar ifr˚an en 1-form ω = P
iωidxi, s˚a f˚ar vi att
ω] =X
j
ωj0ej, ω0j =X
i
gjiωi.
Inom den klassiska tensoranalysen, d¨ar man endast r¨aknar med koefficienterna, har detta
¨oversatts till en speciell teknik att h¨oja och s¨anka index. Man skiljer d¨ar, som redan p˚apektas, p˚a kontravarianta och kovarianta vektorer, d¨ar de f¨orra ¨ar v˚ara vektorer och de senare ¨ar v˚ara 1-former. De f¨orra skrivs med koordinater vi och de senare vi. Formlerna ovan inneb¨ar d˚a att
vi = gijvj, vi = gijvj,
d¨ar vi ocks˚a inf¨ort Einsteins summationskovention: om vi har samma index uppe och nere, summerar vi ¨over det. Den musikaliska isomorfismen mellan bas och motsvarande koordinatbas inneb¨ar d˚a den klassiska tekniken att h¨oja och s¨anka index.
11 Volymsformer och skal¨ arprodukt av tensorer
Vi har sett hur vi f˚ar en metrik p˚a V∗ och vi har en metrik p˚a V . Vidare, har vi en metrik p˚a tv˚a vektorrum U och V , s˚a f˚ar vi en metrik p˚a tensorprodukten U ⊗ V genom definitionen
(S, u[⊗ v[) = S(u ⊗ v).
Om S = α ⊗ β betyder detta allts˚a α(u)β(v). P˚a V∗⊗ V∗ betyder detta att (S, θi⊗ θj) = S((θi)], (θj)]) =X
k,l
gikgjlS(ek, el) =X
k,l
gikgjlSkl= Sij,
d¨ar sista ledet ¨ar definition. Det f¨oljer d˚a att (S, T ) =X
ij
SijTij. Detta generaliseras naturligt till godtyckliga tensorrum.
Det betyder att vi f˚ar en metrik p˚a alla tensorrum, och vi kan utvidga den musikaliska isomorfismen s˚a att t.ex. en bilinj¨ara form p˚a V , allts˚a ett element S ∈ T0,2(V ), svarar mot en vektorv¨ard 1-form S] p˚a V genom
(S](u), v) = S(u, v).
Om vi skriver S =P
ijSijθi⊗θjoch S] =P
ijsjiθi⊗ej s˚a inneb¨ar detta att sji =P
kgjkSik. Med andra ord, n¨ar vi g˚ar ¨over till koefficienterna ska vi h¨oja index i andra variabeln.
F¨or skal¨arprodukterna p˚a rummen Λk(V∗) g¨aller att
(S, u[1∧ . . . ∧ u[k) = S(u1, . . . , uk).
F¨or en produkt av 1-former betyder det
(α1∧ . . . ∧ αk, β1∧ . . . ∧ βk) = det
(α1, β1) . . . (α1, βk)
... ...
(αk, β1) . . . (αk, βk)
, och vi ser att
(θI, θJ) = det
gi1j1 . . . gi1jk ... ... gikj1 . . . gikjk
= det(gIiJj).
Om e1, . . . , en ¨ar en ortonormerad bas f¨or V betyder detta att {θI}, d¨ar I ¨ar str¨angt v¨axande index av l¨angd k, utg¨or en ortonormerad bas f¨or Λk(V∗), och i det fallet har vi allts˚a att
(X
I
aIθI,X
J
bJθJ) = X
I
aIbI.
Vektorrummet Λn(V∗) ¨ar som vi sett endimensionellt, vilket g¨or att det finns tv˚a n-former σ s˚adana att (σ, σ) = (−1)n− d¨ar dim V− = n−. Genom att v¨alja en av dessa, v¨aljer man en orientering av vektorrummet V och den valda n-formen, som vi betecknar σV, kallas d˚a vektorrummets volymform (¨aven om det inte ¨ar en sann volym). Om e1, . . . , en ¨ar en ON-bas s˚a g¨aller att σV = ±θ1∧ . . . ∧ θn d¨ar teckenvalet definierar orienteringen.
F¨or att best¨amma ett uttryck f¨or σV i en icke-ortonormerad bas noterar vi f¨orst att f¨or en bas e1, . . . , en ¨ar positivt orienterad om det g¨aller att
θ1∧ . . . ∧ θn= KσV, K > 0.
F¨or en positivt orienterad ON-bas {oi} i V har vi h¨ar att K = 1 och om e = oA d¨ar det A > 0, s˚a ser vi att (x0 ¨ar koordinaterna f¨or den ortonormerade basen)
σV = (θ1)0∧ . . . ∧ (θn)0 = det A θ1∧ . . . ∧ θn.
Vidare har vi att (g(ei, ej)) = A(g(oi, oj))At vilket betyder att | det gij| = (det A)2, s˚a σV =
q
| det gij| θ1∧ . . . ∧ θn, och vi har d˚a att
(σV, σV) = det((θi, θj)) = det(gij).
12 Tv˚ a relaterade operatorer
F¨or k-former har vi att f¨or fixt v ∈ V g¨aller att i(v) ¨ar en avbildning Λk(V∗) //Λk−1(V∗).
P˚a ett metriskt rum kan vi ocks˚a definiera en avbildning j(v) : Λk(V∗) //Λk+1(V∗) genom j(u)S = u[∧ ω.
Dess relation till den inre produkten framg˚ar f¨orst av att vi har att j(u)j(v)ω = −j(v)j(u)ω, men ocks˚a att
i(u)j(v)ω = i(u)(v[∧ ω) = (i(u)v[) ∧ ω − v[∧ (i(v)ω) = g(u, v)ω − j(v)i(u)ω.
Sammanfattningvis g¨aller allts˚a p˚a Λk(V∗) att
(i(u)i(v) + i(v)i(u) = 0, j(u)j(v) + j(v)j(u) = 0
i(u)j(v) + j(v)i(u) = g(u, v) .
Anm¨arkning I fallet med Euklidiskt rum har operatorerna ovan en viktig betydelse i kvantfysiken d¨ar de kallas skapelse- och f¨orst¨orelse-operatorer f¨or fermioner. Formlerna ovan utg¨or d˚a anti-kommuteringsreglerna f¨or dessa operatorer.
Vi kan ocks˚a notera f¨oljande. Fr˚an definitionen av skal¨arprodukt har vi f¨or ω ∈ Λk(V∗) och η = u[2 ∧ . . . ∧ u[k att
(i(uk)ω, η) = ω(uk, u2, . . . , un) = (ω, u[k∧ η) = (ω, j(uk)η) = 0, k ≥ 2 och att
(i(u1)ω, η) = ω(u1, . . . , uk) = (ω, u[1∧ η) = (ω, j(u1)η).
Tillsammans med linj¨ariteten ger detta formeln
(i(v)ω, η) = (ω, j(v)η), v ∈ V, ω ∈ Λk(V∗), η ∈ Λk−1(V∗).
13 Hodges stj¨ arnoperator
Om vi tar en k-form ω och en n − k-form η s˚a g¨aller att deras kilprodukt ¨ar en n-form.
Om vi dessutom har valt en metrik p˚a och en orientering av V , och d¨armed en volymform σV, s˚a g¨aller att kilprodukten ¨ar proportionell mot σV:
ω ∧ η = B(ω, η)σV
d¨ar B : Λk(V∗) × Λn−k(V∗) → K ¨ar en bilinj¨ar-form. Om vi nu fixerar ω ∈ Λk(V∗) s˚a blir avbildningen Λn−k(V∗) 3 η //B(ω, η) ∈ K en linj¨ar avbildning, vilket betyder att det finns ett element ?ω ∈ Λn−k(V∗) s˚adant att B(ω, η) = (?ω, η). Detta ger oss en linj¨ar avbildning
? : Λk(V∗) //Λn−k(V∗) genom
ω ∧ η = (?ω, η)σV.
Vi m˚aste dock komplettera denna definition med fallen k = 0, n. Om vi betecknar ba- selementet i Λ0(V∗) med 1, s˚a har vi att ?σV = 1 och att ?1 = (σV, σV)σV, eftersom σV = 1 ∧ σV = (?1, σV)σV.
Anm¨arkning Notera att v˚ar definition ger att ω ∧ ?ω = (?ω, ?ω)σV. H¨ar g¨aller, som vi ska se nedan, att (?ω, ?ω) = ±(ω, ω), d¨ar tecknet best¨ams av metrikens signatur. Vi har plustecken om metriken ¨ar positivt definit.
Exempel 6 Vi ska best¨amma uttryck f¨or ?-operatorn i en ON-bas θ1, . . . , θnp˚a V∗ s˚adan att σV = θ1∧ . . . ∧ θn ¨ar definierar den givna orienteringen. Eftersom θI∧ θJ = 0 om I, J har n˚agot gemensamt element f¨oljer att ?θI = aθJ, d¨ar J ¨ar de komplement¨ara indexen till I. Men θI∧ θJ = sign πσV d¨ar π ¨ar den permutation som ¨overf¨or {I, J } p˚a {1, . . . , n}, varf¨or definitionen p˚a ?-avbildningen ger att a = (θJ, θJ) sign π och allts˚a
?θI = (θJ, θJ)(sign π)θJ.
Exempel 7 Om V ¨ar ett orienterat 2-dimensionellt Euklidiskt rum och dx, dy ¨ar positivt orienterad ortonormerad bas f¨or V∗, ber¨aknar vi ?dx genom att notera att
σV = dx ∧ dy = (?dx, dy)σV ⇒ (?dx, dy) = 1.
Genom att ers¨atta dy med dx ser vi att (?dx, dx) = 0, s˚a det g¨aller att ?dx = dy. En enkel modifiering av r¨akningen ovan visar sedan att ?dy = −dx. Geometriskt betyder allts˚a stj¨arnoperatorn i detta fall rotation ett kvarts varv.
Andrar vi nu f¨¨ oruts¨attningarna s˚a att rummet inte ¨ar Euklidiskt utan har Minkowski- metriken dt2 − dx2 och σV = dt ∧ dx, d¨ar dt, dx ¨ar en orienterad och ortonormerad bas f¨or V∗. D˚a g¨aller att (σV, σV) = −1 och nu f˚ar vi att dt ∧ dx = (?dt, dx)σV, allts˚a (?dt, dx) = 1, vilket betyder att ?dt = (?dt, dx)(σV, σV) = −dx. En motsvarande r¨akning visar att ?dx = −dt, eftersom (dt, dt) = 1. Geometriskt betyder allts˚a stj¨arnoperatorn nu spegling i linjen dt + dx = 0.
Exempel 8 Betrakta nu tv˚a-former i ett orienterat Minkowski-rum av dimension fyra med metrik dt2− dx2− dy2 − dz2. Vi har d˚a att
σV = (dt ∧ dx) ∧ dy ∧ dz) = (?(dt ∧ dx), dy ∧ dz)σV ⇒ (?(dt ∧ dx), dy ∧ dz) = 1 och ¨ovriga skal¨arprodukter blir noll. Det f¨oljer att
?(dt ∧ dx) = (dy, dy)(dz, dz)dy ∧ dz = dy ∧ dz.
Ur detta f¨oljer att om ω ¨ar en 1-form i dx, dy, dz s˚a g¨aller att
?(dt ∧ ω) = ?0ω
d¨ar ?0 i h¨ogerledet ¨ar stj¨arnoperatorn i det Euklidiska underrummet som sp¨anns upp av dx, dy, dz. Vidare har vi att
σV = dx ∧ dy ∧ dt ∧ dz = (?dx ∧ dy, dt ∧ dz)σV,
s˚a ?(dx ∧ dy) = (dt, dt)(dz, dz)dt ∧ dz = −dt ∧ dz. Tillsammans med motsvarande formler f¨or de andra baselementen ser vi att om ω ¨ar en 2-form i dx, dy, dz s˚a g¨aller att
?ω = −dt ∧ ?0ω.
Dessa formler kommer att bli anv¨andbara n¨ar vi l¨angre fram ska diskutera Maxwells ek- vationer.
Vi beh¨over nu ett antal formler som relaterar stj¨arnoperatorn till operatorer vi ovan st¨ott p˚a. F¨or att h¨arleda dem ska vi anv¨anda f¨oljande “explicita” formeln f¨or stj¨arnoperatorn:
med η = v[k+1∧ . . . ∧ v[n blir definitionen att
(?ω)(vk+1, . . . , vn)σV = ω ∧ v[k+1∧ . . . ∧ v[n. Vi b¨orjar med att konstatera att
ω ∧ ?η = η ∧ ?ω,
vilket f¨oljer av att skal¨arprodukten ¨ar symmetrisk. Sedan har vi de tv˚a viktiga formlerna Sats 5 Vi har de tv˚a formlerna
i(u)(?ω) = (−1)k? j(u)ω, och j(u)(?ω) = (−1)k−1? i(u)ω.
Bevis. Den f¨orsta likheten f¨oljer d˚a av att i(u)(?ω)(vk+2, . . . , vn)σV =
?ω(u, vk+2, . . . , vn)σV = ω ∧ u[∧ vk+2[ ∧ . . . ∧ v[n= ?(ω ∧ u[)(vk+2, . . . , vn)σV fr˚an vilket resultatet kan avl¨asas. Den andra ¨ar lite mer komplicerad:
(j(u)(?ω))(vk, . . . , vn)σV =
n
X
k
(−1)i−1u[(vi)(?ω)(vk, . . . ,vbk, . . . , vn)σV =
n
X
k
(−1)i−1v[i(u)(ω ∧ vk[ ∧ . . . ∧ ˆvk∧ . . . ∧ v[n) = ω ∧ i(u)(vk[ ∧ . . . ∧ v[n) = (−1)k+1(i(u)ω) ∧ (v[k∧ . . . ∧ vn[) = (−1)k+1? i(u)ω(vk, . . . , vn)σV.
H¨ar har vi anv¨ant att om ω ∧ λ = 0 s˚a g¨aller att i(u)ω ∧ λ + (−1)kω ∧ i(u)λ = 0 och allts˚a
i(u)ω ∧ λ = (−1)k+1ω ∧ i(u)λ.
Exempel 9 L˚at oss inte skilja p˚a 1-former och vektorer utan beteckna dessa med samma bokstav s˚a att vi t.ex. har att a × b = ?(a ∧ b). Att f˚a ett k¨ant uttryck f¨or trippelprodukten (a × b) × c ¨ar d˚a l¨att:
(a × b) × c = ?((?(a ∧ b)) ∧ c) = − ? (c ∧ (?(a ∧ b)) =
−j(c)(?(a ∧ b)) = ?i(c)(a ∧ b) = a(c)b − b(c)a = (a, c)b − (b, c)a.
Vi ser hur dessa operationer ers¨atter komplicerade vektoroperationer!
Exempel 10 Med samma l¨att oegentliga beteckningar som i f¨oreg˚aende exempel har vi i det Euklidiska rummet att
(i(u)(?a), b) = (u, b × a).
Detta f¨oljer av f¨oljande r¨akning:
(i(u)(?a), b)dx = b ∧ ?(i(u)(?a)) = b ∧ (− ?2j(u)a) = j(u)(b ∧ a), f¨or tar vi stj¨arna p˚a det f˚ar vi att
(i(u)(?a), b) = i(u)(?(b ∧ a)) = (u, b × a).
Exempel 11 Vi har f¨oljande tolkning av stj¨arnoperatorn. L˚at ek+1, . . . , en sp¨anna upp underrummet U och s¨att ω = e[1∧ . . . ∧ e[k. D˚a g¨aller att
u ∈ U ⇐⇒ i(u)ω = 0
eftersom e[i(u) = 0 d˚a i ≤ k om u ¨ar en linj¨arkombination av ek+1, . . . , en. Vidare har vi att
i(u) ? ω = (−1)k? j(u)ω = (−1)k? u[∧ e[1∧ . . . ∧ e[k = 0 om u ¨ar en linj¨arkombination av e1, . . . , ek s˚a vi har
u ∈ U⊥ ⇐⇒ i(u)(?ω) = 0
Avbildningen ?2 avbildar Λk(V∗) p˚a sig sj¨alvt. Vad ¨ar det d˚a f¨or avbildning? Svaret ¨ar att det ¨ar multiplikation med ett tal som ¨ar ±1:
Sats 6 Vi har att
?2 = (−1)k(n−k)(σV, σV) p˚a Λk(V∗).
Bevis. Notera f¨orst att
?(v1[∧ . . . ∧ vk[)(vk+1, . . . , vn)σV = v1[∧ . . . ∧ vn[ = (σV, σV)σV(v1, . . . , vn), d¨ar h¨ogerledet ocks˚a kan skrivas (σV, σV)i(v1) . . . i(vn)σV. Vi f˚ar d˚a
(?2ω)(v1, . . . , vn)σV = (?ω)∧v1[∧. . .∧vk[ = ?(v[1∧. . .∧v[k)∧ω = (σV, σV)i(v1) . . . i(vn)σV∧ω = (−1)k(n−k)(σV, σV)σV ∧ (i(v1) . . . i(vn)ω) = (−1)k(n−k)(σV, σV)ω(v1, . . . , vk)σV. En f¨orsta konsekvens av detta ¨ar att
ω ∧ ?η = (σV, σV)(ω, η)σV, eftersom v¨ansterledet ¨ar lika med
(−1)k(n−k)? η ∧ ω = (−1)k(n−k)(?2η, ω)σV = (σV, σV)(η, ω)σV. Det f¨oljer nu att stj¨arnoperatorn n¨astan bevarar skal¨arprodukt:
(?ω, ?η) = (σV, σV)(ω, η).
Vi har n¨amligen att
(σV, σV)(?ω, ?η)σV = (?ω) ∧ (?2η) = ?2(?ω) ∧ η = ?2(?2ω, η)σV = (ω, η)σV Anv¨andbara resultat som ing˚ar i detta ¨ar
(ω, η) = ?−1(ω ∧ ?η), (?ω, ?η) = ?(ω ∧ ?η).