Das Thema ist andererseits für Mathematik und Physik sehr wichtig. Ich möchte daher in diesem Kapitel versuchen, den Schwerpunkt auf die Hintergründe und die anschauliche Interpretation zu legen. Längere Rechnungen und Beweise werde ich weglassen (diese findet man dann in den Standard-Lehrbüchern) und an ihre Stelle kurze Beweisskizzen und anschauliche Begründungen setzen. An manchen Stellen kann deshalb die Präzision etwas leiden -- in der umfangreichen mathematischen Literatur kann der Leser die präzise Version dann ggf. nachschlagen.
Co-Tangentialvektoren (1-Formen):
Beginnen wir mit Objekten, die wir bereits aus Kapitel 5.1.5: Co-Tangentialräume und Differentialformen kennen: den Co-Tangentialvektoren, die wir auch als 1-Formen bezeichnet hatten. Eine kurze Wiederholung:
Der Co-Tangentialraum im Punkt p (also T*(p) ) ist der Dualraum zum Tangentialraum T(p), d.h. T*(p) ist der Vektorraum aller Linearformen auf dem Tangentialraum T(p). Das bedeutet: Jedes Element ω(p) des Co-Tangentialraums ist eine lineare Abbildung auf dem Tangentialraum, die jedem Tangentialvektor u(p) die reelle Zahl ω(p) u(p) zuordnet. Man kann jedes Element ω des Co-Tangentialraums nach einer Basis dxν|p entwickeln, d.h.
ω(p) = ∑ν ων(p) dxν|p
wobei die Basis dxν|p durch die Eigenschaft
dxν|p d/dxμ|p = δνμ
festgelegt ist. Die Basis wird also wie beim Tangentialraum auch durch eine Koordinatenfunktion f in einer Umgebung von p auf der Mannigfaltigkeit festgelegt. Schreibt man u(p) = ∑μ uμ(p) d/dxμ|p , so folgt
ω(p) u(p) = ∑μ ωμ(p) uμ(p)
Der d-Operator macht aus Null-Formen (Funktionen) 1-Formen:
Man kann jeden Co-Tangentialvektor ω(p) mit einer skalaren Funktion Φ in Verbindung bringen, die in einer Umgebung von p definiert sein muss. Wir schreiben ω(p) := dΦ(p) . Das Änderungsverhalten von Φ im Punkt p legt dabei den Co-Tangentialvektor ω(p) fest, d.h. dΦ(p) angewendet auf einen Tangentialvektor u(p) ergibt die Veränderungsrate von Φ in u(p)-Richtung:
dΦ(p) u(p) := u(p) Φ = dΦ(γ(t)) / dt |t = 0
Dabei ist u(p) der zur Kurve γ gehörende Tangentialvektor mit p = γ(0) . Für die Entwicklung nach den Basisvektoren dxν|p bedeutet das:
dΦ(p) =
∑ν
dΦ(f -1(x)) / dxν
dxν|p
mit
dxν|p u(p) =
df ν(γ(t)) / dt |t = 0
= uν(p)
( f ist dabei die Koordinatenfunktion oder Karte auf der Mannigfaltigkeit) oder in Kurzschreibweise
ω =
dΦ =
∑ν
dΦ/dxν
dxν mit
dxν u =
dγν(t) / dt
= uν
Diese Kurzschreibweise gilt zunächst für einen Punkt p, also lokal. Es kann sein, dass man an verschiedenen Punkten auch verschiedene skalare Funktionen Φ mit entsprechendem Änderungsverhalten in diesen Punkten braucht. Dabei ist zunächst unklar, ob man diese Funktionen zu einer einzigen Funktion zusammensetzen kann. Wir werden uns etwas weiter unten noch genauer ansehen, wann das möglich ist, so dass ω = dΦ für alle Punkte p eines Teilgebietes der Mannigfaltigkeit mit einer dort überall definierten skalaren Funktion Φ gilt.
In der Beziehung ω(p) = dΦ(p) können wir d als einen Ableitungsoperator verstehen, denn das Änderungsverhalten von Φ im Punkt legt ω(p) fest. Man spricht bei der d-Ableitung auch von der äußeren Ableitung. Wenn wir skalare Funktionen als Null-Formen bezeichnen, so macht d demnach aus einer Null-Form eine Eins-Form. Weiter unten werden wir diese Vorgehensweise auch auf andere Differentialformen erweitern.
Noch eine Bemerkung: Man kann sogar in dem Ausdruck dxν|p
das d vor dem x als den d-Ableitungsoperator verstehen, wenn wir unter xν
die Koordinatenfunktion xν = f ν(p) verstehen,
denn es ist
df ν(p) u(p) = u(p) f ν
=
df ν(γ(t)) / dt |t = 0
= uν(p)
= dxν|p u(p)
Man sieht, wie die Schreibweisen elegant zusammenpassen.
Kurvenintegrale über 1-Formen:
Um ω(p) = ∑ν ων(p) dxν|p auswerten zu können, benötigt man im Punkt p eine Richtung, d.h. eine Kurve γ und den dadurch gegebenen Tangentialvektor u(p). Das Ergebnis ist eine reelle Zahl. Schreibt man   ω(p) = dΦ(p) , so ist diese Zahl gerade die Richtungsableitung von Φ in Kurvenrichtung. Man könnte nun auf die Idee kommen, die durch die Kurve γ und die 1-Form ω definierten reellen Zahlen entlang der Kurve γ aufzusummieren (genauer: aufzuintegrieren). Dabei setzen wir natürlich voraus, dass ω entlang der Kurve überall definiert ist. Uns interessiert also das Integral
I γ(T) := ∫ab [ω(γ(t)) u(γ(t))] dt
wobei natürlich u(γ(t)) der Tangentialvektor der Kurve γ im Punkt γ(t) ist. Weiterhin soll T das Intervall von a bis b sein, also der Parameterbereich, über den integriert wird. Und schließlich wollen wir generell die Kurve in positiver Parameterrichtung durchlaufen, d.h. es soll a ≤ b sein. Damit ist die Schreibweise eindeutig definiert.
Was geschieht nun mit diesem Integral, wenn wir die Parametrisierung der Kurve γ verändern? Die Kurvenpunkte auf der Mannigfaltigkeit sind dabei dieselben. Es wird über dasselbe Kurvenstück integriert, aber die Kurve wird mit einer anderen Geschwindigkeit durchlaufen. Eine Einschränkung wollen wir noch machen: die Kurve soll immer noch in derselben Richtung durchlaufen werden, d.h. die Umparametrisierung soll die Orientierung des Kurvenstücks nicht ändern. Wir werden bald sehen, warum das wichtig ist.
Umparametrisierung bedeutet, dass wir vom Kurvenparameter t zu einem neuen Kurvenparameter t' übergehen. Wir stellen uns vor, dass t von t' abhängt, also t = φ(t') mit einer (umkehrbaren) skalaren Funktion φ. Die Kurve wird bzgl. der neuen Parametrisierung durch eine neue Funktion ρ(t') beschrieben, wobei γ(t) = γ(φ(t')) =: ρ(t') sein soll, d.h. γ ο φ = ρ . Da wir die Kurve in derselben Richtung (nur mit anderer Geschwindigkeit) durchlaufen wollen, muss φ eine monoton wachsende Funktion sein, d.h. ein wachsender Parameter t' führt zu einem wachsenden Parameter t. Für die Parametermengen T und T' gilt: T = φ(T') . Dabei ist γ(t) = ρ(t') gleich der Menge der Kurvenpunkte, die durchlaufen werden.
Analog analog zu oben können wir uns nun das folgende Integral ansehen, das sich auf die neue Kurvenfunktion ρ bezieht:
I ρ(T') := ∫a'b' [ω(ρ(t')) v(ρ(t'))] dt'
Dabei ist v(ρ(t')) Tangentialvektor zur Kurve ρ im Punkt ρ(t'), und a = φ(a') sowie b = φ(b') , so dass die Integration im selben Kurvenpunkt startet und endet wie beim Integral I γ(T) oben. Da φ monoton wachsend ist, gilt a' ≤ b' , so wie wir das für unsere Schreibweise auch verlangt haben.
Es stellt sich nun die Frage, wie die beiden Integrale I γ(T) und I ρ(T') miteinander zusammenhängen.
Um das herauszufinden, wollen wir I ρ(T') etwas umschreiben, indem wir γ(φ(t')) = ρ(t') einsetzen:
I ρ(T') = ∫a'b' [ω(γ(φ(t'))) v(γ(φ(t')))] dt'
Versuchen wir, in diesem Integral den Tangentialvektor v durch den Tangentialvektor u auszudrücken:
v(ρ(t')) Φ =
=
dΦ(ρ(t'))/dt' =
=
dΦ(γ(φ(t')))/dt' =
=
dΦ(γ(t))/dt dφ(t')/dt' =
=
[u(γ(t)) Φ] dφ(t')/dt' =
=
[u(γ(φ(t'))) Φ] dφ(t')/dt' =:
=:
[dφ(t')/dt' u(γ(φ(t')))] Φ
Wenn wir eine Einbettung der Mannigfaltigkeit voraussetzen, ist diese Beziehung
unmittelbar einsichtig, denn dann können Tangentialvektoren direkt als
Ableitung der Kurve schreiben:
v(ρ(t')) =
dρ(t')/dt' =
dγ(φ(t'))/dt' =
dγ(t)/dt dφ(t')/dt' =
u(γ(t)) dφ(t')/dt' =
u(γ(φ(t'))) dφ(t')/dt'
Physiker würden sogar noch kürzer einfach schreiben:
dx/dt' = dx/dt dt/dt'
Fassen wir das Ergebnis noch einmal zusammen:
|
Dieses Ergebnis können wir nun im Integranden von I ρ(T') einsetzen, wobei wir zusätzlich ausnutzen, dass ω eine lineare Abbildung ist, so dass wir den Faktor dφ(t')/dt' herausziehen können. Im letzten Schritt können wir dann die Substitutionsregel für Integrale verwenden:
I ρ(T') =
∫a'b' [ω(γ(φ(t'))) v(γ(φ(t')))] dt' =
=
∫a'b' [ω(γ(φ(t')))
{ dφ(t')/dt' u(γ(φ(t'))) }] dt' =
=
∫a'b' [ω(γ(φ(t')))
u(γ(φ(t'))) ] dφ(t')/dt' dt' =
=
∫ab [ω(γ(t)) u(γ(t)) ] dt =
= I γ(T)
Das Kurvenintegral ändert sich also bei der orientierungserhaltenden Umparametrisierung nicht.
Physiker würden übrigens die obige Rechnung vermutlich in der folgenden intuitiven Kurzschreibweise durchführen:
I ρ(T') =
∫a'b' [ω dx/dt'] dt' =
=
∫a'b' [ω
{ dx/dt dt/dt' }] dt' =
=
∫a'b' [ω dx/dt] dt/dt' dt' =
=
∫ab [ω dx/dt] dt =
= I γ(T)
Anmerkung: Hätten wir eine monoton fallende Funktion φ verwendet (d.h. hätten wir die Orientierung des Kurvenstücks geändert), so hätten wir an einer Stelle in der obigen Rechnung die Integrationsgrenzen vertauschen müssen, da wir ja die Schreibweise so festgelegt hatten, dass immer in aufsteigender Parameterrichtung integriert wird. Das hätte zu einem Minuszeichen geführt: Der Wechsel der Orientierung führt zu einem Vorzeichenwechsel im Integral!
Fassen wir zusammen:
|
Wir haben oben bereits mehrfach den Begriff der Orientierung kennengelernt. Hier noch einmal eine saubere Definition:
In Kapitel 5.1.9: Abstände und Winkel: die Metrik haben wir bereits ein sehr ähnliches Integral kennengelernt: Die Länge Lγ(T) eines Kurvenstücks γ zwischen zwei Punkten pa := γ(a) und pb := γ(b) (im Metrik-Kapitel hatten wir die Bezeichnung L(γ,a,b) verwendet). Sie ist definiert durch
Lγ(T) := ∫ab √ g( u(γ(t)), u(γ(t)) ) dt
(wieder ist u der Tangetialvektor der Kurve und a < b ). Auch hier kann man einen Faktor c vor dem Tangentialvektor aus dem Integranden hinausziehen, wobei dann allerdings der Betrag von c vor dem Integranden steht: √ g( c u(γ(t)), c u(γ(t)) ) = |c| √ g( u(γ(t)), u(γ(t)) ) . Die obige Rechnung lässt sich nun analog wiederholen, wobei allerdings das Ergebnis nicht von der Richtung abhängt, in der man die Kurve durchläuft. Daher hängt Lγ(T) nicht von der Parametrisierung der Kurve ab, wobei hier auch richtungsändernde Umparametrisierungen erlaubt sind. Man könnte daher analog zu oben die Schreibweise
Lγ(T) = ∫γ(T) √g
einführen. Allerdings: Der Integrand √g ist keine Differentialform (1-Form), denn er ist nicht linear im Tangentialvektor u(γ(t)) . Dennoch ist das Integral unabhängig von der Parametrisierung. Es gibt also über die Differentialformen hinaus durchaus weitere sinnvolle Integranden, die zu Parametrisierungs-unabhängigen Kurvenintegralen (oder später Flächenintegralen etc.) führen.
Interpretationen und Schreibweisen (über die scheinbare Doppelnatur von dxμ ):
In der Physik schreibt man das Kurvenintegral
I γ(T) = ∫ab [ω(γ(t)) u(γ(t))] dt
gerne noch ein wenig um. Dazu zieht man formal das infinitesimale Parameterintervall dt in den Integranden hinein:
I γ(T) = ∫ab [ω(γ(t)) {u(γ(t)) dt}]
Wenn man sich dt als sehr kleine reelle Zahl vorstellt, ist das ja erlaubt, da ω linear ist. Dann ist u(γ(t)) dt gleichsam ein sehr kleiner Tangentialvektor (wobei der Begriff ohne Metrik natürlich noch gar nicht definiert ist).
Anschaulicher wird das, wenn man von einer Einbettung der Mannigfaltigkeit
im Rn ausgeht.
Dann ist u(γ(t)) dt
einfach ungefähr gleich dem Vektor, der vom Punkt γ(t)
zum Punkt γ(t + dt) führt.
Man könnte auch sagen, u(γ(t)) dt ist das kleine Wegstück
zwischen den beiden Punkten. Wir wollen dieses Wegstück mit
dx bezeichnen, also
dx := u(γ(t)) dt
= dγ(t)/dt dt
Der Fettdruck soll andeuten, dass dx ein Vektor im Einbettungsraum
tangential zur Kurve ist.
Wir wollen nun dx nach der Koordinatenbasis entwickeln.
In einbettungsfreier Formulierung war die Zerlegung eines
Tangentialvektors u(p) nach einer Koordinatenbasis
gegeben durch
u(p) = ∑μ
uμ(p) d/dxμ|p
= ∑μ
d(f μ ο γ)(t)/dt d/dxμ|p
mit p = γ(t) .
Bei einer Formulierung mit Einbettung wird aus d/dxμ|p
einfach der Vektor dX(x)/dxμ ,
der in die μ-te Koordinatenrichtung im Einbettungsraum zeigt.
Dabei ist dann x = f(p) und p = X(x) = f -1(x) ,
d.h. X liefert eine Parametrisierung der Mannigfaltigkeit
im Einbettungsraum mit Hilfe der Koordinaten x.
(siehe Kapitel 5.1.4 über Tangentialvektoren).
Zum (infinitesimalen) Tangentialvektor dx gelangt man nun, indem man einfach mit dem winzigen Intervall dt multipliziert:
dx =
=
∑μ
(uμ(p) dt) dX(x)/dxμ
=
=
∑μ
(d(f μ ο γ)(t)/dt dt) dX(x)/dxμ
=:
=:
∑μ
dxμ dX(x)/dxμ
Anschaulich ist dxμ die Komponente des kleinen Wegstücks dx in die μ-te Koordinatenrichtung.
Dies können wir nun einsetzen:
I γ(T) =
=
∫ab [ω(γ(t)) {u(γ(t)) dt}] =
=
∫ab ∑μ
ωμ(γ(t)) (uμ(γ(t)) dt) =
=
∫ab ∑μ
ωμ(γ(t)) dxμ
Vorsicht: dxμ ist hier weiterhin die Komponente des kleinen Wegstücks dx in die μ-te Koordinatenrichtung, also gleich uμ(γ(t)) dt .
Nun hatten wir oben andererseits die Schreibweise
I γ(T) = ∫γ(T) ω = ∫γ(T) ∑μ ωμ dxμ
eingeführt, die ganz ähnlich aussieht, bei der aber ω und damit auch dxμ lineare Abbildungen auf den Tangentialvektoren sind. Nun wird verständlich, wie diese Schreibweise zu verstehen ist: Setze für dxμ formal die μ-te Komponente dxμ = uμ(γ(t)) dt des infinitesimalen Wegstücks dx ein, und du erhälst automatisch die korrekte Formel
I γ(T) = ∫γ(T) ω = ∫ab [ω(γ(t)) u(γ(t))] dt
für das Wegintegral. Das läuft im Grunde darauf hinaus, dass man die lineare Abbildung dxμ|γ(T) auf den infinitesimalen Kurven-Tangentialvektor u(γ(t)) dt anwendet, um daraus die μte Komponente dxμ = uμ(γ(t)) dt des infinitesimale Wegstücks dx zu gewinnen.
Da man nun in der Literatur (vor allem in der Physik-Literatur) in der Schreibweise meist nicht zwischen der Abbildung dxμ|γ(T) und der Wegstück-Komponente dxμ = uμ(γ(t)) dt unterscheidet, führen 1-Formen hier manchmal ein merkwürdiges Doppelleben: Erst führt man sie als lineare Abildungen auf den Tangentialvektoren ein, und in Integralen haben sie auf einmal die Bedeutung von gewichtet aufsummierten Wegstück-Komponenten. Ähnlich erging es uns ja bereits bei der Metrik in Kapitel 5.1.9: Abstände und Winkel: die Metrik mit dem Ausdruck ds2 = ∑μν gμν dxμ dxν . Ich hoffe, die obige Darstellung konnte diese scheinbare Doppelnatur etwas aufklären.
Übrigens wird in der mathematischen Literatur oft der Pullback-Formalismus verwendet, um mit dieser Doppelnatur von dxμ umzugehen: Man schreibt γ*dxμ := uμ(γ(t)) dt für die Wegstück-Komponente, d.h. γ*ω := [ω(γ(t)) u(γ(t))] dt . Man sagt, γ* ist der Pullback der Parametrisierungsfunktion γ. Damit wird aus der Differentialform ω, die auf der Mannigfaltigkeit M definiert ist, die in den Parameterraum T zurückgeholte Differentialform γ*ω (die dann auf T definiert ist). Man kann sich γ* auch als Einsetz-Abbildung veranschaulichen, denn es wird die Parametrisierung γ in ω eingesetzt. Formal gilt dann:
I γ(T) = ∫T γ*ω = ∫ab [ω(γ(t)) u(γ(t))] dt
1-Formen und Metrik (Skalarprodukt):
Wir konnten bisher 1-Formen und Kurvenintegrale über 1-Formen vollkommen ohne den Begriff der Metrik formulieren. Oft hat man es aber ohnehin mit Mannigfaltigkeiten zu tun, die über eine Metrik verfügen. Wie wir in Kapitel 5.1.9: Abstände und Winkel: die Metrik gesehen haben, kann man mit Hilfe der Metrik jeder 1-Form ω(p) einen eindeutigen Tangentialvektor (nennen wir ihn hier vω(p) ) zuordnen über die Beziehung
g( vω(p), u(p) ) := ω(p) u(p)
die für alle u(p) erfüllt sein soll. In Komponenten ist (vω)μ(p) = ∑ν gμν(p) ων(p) mit gμν(p) = [g− 1(p)]μν . Wir sprachen vom Hochziehen des Indexes. Oft schreibt man einfach ωμ(p) an Stelle von (vω)μ(p) .
Wir können die Beziehung g( vω(p), u(p) ) := ω(p) u(p) nun in das Wegintegral über die 1-Form ω einsetzen:
I γ(T) = ∫γ(T) ω = ∫ab [ω(γ(t)) u(γ(t))] dt = ∫ab g( vω(γ(t)), u(γ(t)) ) dt
Bei einer positiv definiten Metrik, die durch eine Einbettung induziert wird, ist diese Metrik
durch das euklidische Skalarprodukt in n-dimensionalen reellen Einbettungsraum gegeben
(siehe Kapitel 5.1.9: Abstände und Winkel: die Metrik):
g(u(p), v(p)) :=
á
u(p), v(p)
ñ
so dass wir das Wegintegral schreiben können als
I γ(T) = ∫γ(T) ω = ∫ab á vω(γ(t)), dγ(t)/dt ñ dt = ∫γ(T) á vω(γ(t)), dx ñ
Diese Schreibweise ist bei Physikern sehr beliebt, da sie sehr intuitiv ist. Man multipliziert an jedem Kurvenpunkt den von außen vorgegebenen Vektor vω mit dem Wegstück dx und integriert über alle Wegstücke. Solche Ausdrücke braucht man beispielsweise, wenn man ausrechnen will, welche Energie man in einem Kraftfeld vω entlang des Weges γ gewinnt oder verliert, wenn die Kraft nur vom Ort abhängt.
Man kann mit Hilfe der Metrik nun weiterhin das sogenannte Linienelement ds
(auch Bogenlängenelement genannt) einführen
(siehe wieder Kapitel 5.1.9) und mit ihrer Hilfe das Integral über die 1-Form
noch weiter umschreiben. Formal schreibt man gerne
ds =
√
(∑μν
gμν
dxμ dxν)
=
√
(∑μν
gμν
uμ uν) dt
=
√
(g(u,u)) dt
und meint damit, dass das Integral
Lγ(T)
= ∫γ(T) ds
= ∫ab
√ g( u(γ(t)), u(γ(t)) ) dt
die Länge der Kurve γ zwischen γ(a) und γ(b) angibt.
Vorsicht: Bei positiv definiter Metrik (d.h. g(u,u) > 0 , wenn u nicht
der Nullvektor ist) ist das alles kein Problem und entspricht der anschaulichen
Längeninterpretation.
Ist die Metrik nicht positiv definit (wie in der Relativitätstheorie),
so muss man ggf. hier aufpassen, da g(u,u) gleich Null werden kann.
Die Bogenlänge ds erhält in der Relativitätstheorie die
Interpretation der Eigenzeit (siehe
Kapitel 3.7: Die spezielle Relativitätstheorie:
Geschwindigkeit, Zeitdilatation, Vierergeschwindigkeit und Eigenzeit );
das ist die Zeit,
die für ein Objekt auf der Raum-Zeit-Kurve γ verstreicht.
Für Objekte, die sich mit Lichtgeschwindigkeit bewegen (und die deshalb masselos
sein müssen), ist diese Eigenzeit immer gleich Null -- Licht altert nicht!
Im Folgenden wollen wir den Fall g(u,u) = 0 ausschließen.
Dann kann man die Bogenlänge auch als spezielle Parametrisierung der Kurve γ
ansehen. Wir können also wie oben einen speziellen Parameterwechsel durchführen,
bei dem wir
t' = s = φ− 1(t)
= √ g( u(γ(t)), u(γ(t)) ) t
sowie ρ(s) = γ(t) setzen.
Rechnen wir damit das Integral auf die Bogenlängenparametrisierung um
(sein Wert ändert sich dabei ja nicht, wie wir wissen):
I γ(T) =
=
∫ab [ω(γ(t)) u(γ(t))] dt =
=
∫s(a)s(b)
[ω(ρ(s)) u(ρ(s))] ds / √ g( u(ρ(s)), u(ρ(s)) )
=
=
∫s(a)s(b)
[ω(ρ(s)) {u(ρ(s)) / √ g( u(ρ(s)), u(ρ(s)) )}] ds
=
=
∫s(a)s(b)
[ω(ρ(s)) v(ρ(s))] ds
Wie man sieht, ist der neue Tangentialvektor gegeben durch v = u / √ g(u,u) (nicht mit vω verwechseln!). Das ist ein Vektor vom Betrag (Metrik) Eins, also ein Einheitsvektor! Die Bogenparametrisierung zeichnet sich also dadurch aus, dass man die Kurve mit Geschwindigkeit Eins durchläuft. Vergleicht man diesen Ausdruck nun mit der Einbettungs-Physiker-Schreibweise
I γ(T) = ∫γ(T) á vω(γ(t)), dx ñ
von oben, so sieht man, dass dx = v ds ist. Da v die Länge Eins hat, muss dx die Länge ds haben, also die Länge des kleinen Kurvenstücks, über das integriert wird. Man schreibt daher auch |dx| = ds . Dies macht erneut die anschauliche Bedeutung von dx als kleines Kurvenstück deutlich. Physiker verwenden die Schreibweise I γ(T) = ∫γ(T) á vω, dx ñ übrigens auch gerne, um die Parametrisierungs-Unabhängigkeit des Integrals intuitiv zu demonstrieren, indem man formal mit dt erweitert und
I γ(T) = ∫γ(T) á vω, dx ñ = ∫γ(T) á vω, dx/dt ñ dt
schreibt. Da dabei t eine beliebige Parametrisierung sein darf, kann es offenbar darauf nicht ankommen. Verwendet man die spezielle Bogenlängen-Parametrisierung, d.h. dt = ds = |dx| , so zeigt diese Schreibweise sehr schön, dass der Tangentialvektor hier die Länge Eins hat:
I γ(T) = ∫γ(T) á vω, dx ñ = ∫γ(T) á vω, dx/|dx| ñ ds
An dieser Stelle noch eine Warnung vor zu unbedachtem Vorgehen:
Man kann keineswegs jedes Integral über eine Kurve als Integral
über eine 1-Form schreiben. Als Beispiel aus der Physik
nehmen wir die Arbeit, die notwendig ist, um sich entlang einer Kurve
gegen den Luftwiederstand fortzubewegen.
Diese Arbeit ist in Physiker-Kurzschreibweise gegeben durch
W = ∫γ(T)
á
F, dx
ñ
Die Kraft F, die aufgrund des Luftwiderstandes wirkt, ist dabei
nicht vom Ort, sondern von der Geschwindigkeit dx/dt abhängig.
Es gilt F = c |dx/dt| dx/dt
mit einer (negativen) Konstanten c. Der Luftwiderstand wächst also quadratisch
mit der Geschwindigkeit an. Setzen wir dies ein und verwenden
dx = dx/dt dt , so ergibt sich
W = ∫γ(T)
á
F, dx
ñ
= ∫γ(T)
á
c |dx/dt| dx/dt,
dx/dt
ñ dt
= ∫γ(T)
c |dx/dt|3 dt
Hier kann man dt nicht wegkürzen, d.h. das Integral ist nicht
invariant bei Umparametrisierungen der Kurve.
Mathematiker würden übrigens W schreiben als
W =
∫ab
c [g( u(γ(t)), u(γ(t)) )]3/2 dt
Natürlich kann man auch in dieser Schreibweise die Parametrisierungs-Abhängigkeit
leicht nachweisen.
Integrabilität und d-Ableitung bei 1-Formen (Lemma von Poincaré):
Wir möchten uns nun mit ganz speziellen 1-Formen befassen, die eine besonders wichtige Rolle spielen: den 1-Formen, die sich in dem uns interessierenden Gebiet der Mannigfaltigkeit (nennen wir es G) als d-Ableitung einer (einzigen) skalaren Funktion Φ darstellen lassen (siehe oben):
ω = dΦ
für jeden Punkt im betrachteten Gebiet der Mannigfaltigkeit. Man bezeichnet Φ dann als Stammform (Stammfunktion). 1-Formen, die sich so schreiben lassen, nennt man exakt (warum auch immer).
Für die Komponenten bedeutet das für jeden Punkt p
ωμ(p) =
d(Φ ο f -1) / dxμ (f(p))
oder in Kurzschreibweise ωμ =
dΦ/dxμ .
Bei einer gegebenen Metrik können wir auch
vω = grad Φ
schreiben (siehe Kapitel 5.1.9: Abstände und Winkel: die Metrik
zur Definition des Gradienten). Physiker schreiben bei einer Einbettung
dann auch gerne
ω =
á
grad Φ, dx
ñ
Nun weiß man aus der Physik bzw. der klassischen dreidimensionalen Vektoranalysis bereits, dass
sich nicht jedes Vektorfeld vω als Gradient einer skalaren Funktion Φ
schreiben lässt. Nur Vektorfelder mit verschwindender Rotation lassen sich so schreiben!
Diese Bedingung kann man in den Formalismus der Differentialformen übertragen.
Dazu versucht man, die skalare Funktion Φ explizit aus ω zu konstruieren
(so dass ω = dΦ gilt) und schaut während der Rechnung nach, welche Bedingungen
für ω gelten müssen, damit das gelingt. Es stellt sich heraus, dass man ein passendes Φ(p)
als Integral ∫γ(T) ω über eine Kurve γ konstruieren kann.
Die Kurve startet dabei für t = 0 in einem beliebigen Startpunkt γ(0) = q im Gebiet G und endet
für t = 1 in
γ(1) = p (d.h. a = 0 und b = 1 wurde gewählt).
Bei gegebener Koordinatenfunktion f kann man die Kurve so festlegen, dass
ihre Koordinaten eine gerade Linie
von f(q) nach f(p) bilden, d.h. es ist
f(γ(t)) = f(q) + t [ f(p) − f(q) ]
Das Gebiet G darf dabei natürlich nicht verlassen werden (man sagt, das Gebiet
muss sternförmig bezüglich irgendeines Punktes q sein -- es darf also z.B. keine Löcher enthalten).
Außerdem soll das Gebiet G topologisch trivial sein, soll also keine Löcher wie ein Doughnut
enthalten.
Nun muss man nachprüfen, dass ω(p) = dΦ(p) für die so konstruierte Funktion Φ
gilt. Man findet, dass das genau dann gilt, wenn im Gebiet G die
Bedingungen
dωμ(f −1(x)) / dxν =
dων(f −1(x)) / dxμ
für alle μ und ν erfüllt sind
(dabei ist p = f(x) ).
Für Vektorfelder im dreidimensionalen Raum ist dies genau die Bedingung,
dass die Rotation des Vektorfeldes verschwinden muss.
Nun kann man die Bedingung noch etwas umformulieren, indem man den d-Operator auch auf 1-Formen geeignet definiert:
|
Zur Erinnerung (siehe 5.1.8 Krümmung ): Das Dachprodukt (äußere Produkt) von 1-Formen hatten wir definiert durch
[ dxμ Λ dxν ] (u, v) := uμ vν − uν vμ
(die Argumente p haben wir weggelassen). Das äußere Produkt dxμ Λ dxν ist also eine antisymmetrische bilineare Abbildung auf dem Raum der Tangentialvektoren, deren Ergebniswert eine reelle Zahl ist. Aus der Definition geht unmittelbar hervor, dass dxμ Λ dxν = − dxν Λ dxμ ist. Man bezeichnet dxμ Λ dxν (bzw. Linearkombinationen davon) auch als 2-Formen. Der d-Operator macht also aus einer 1-Form eine 2-Form, so wie er oben aus einer 0-Form eine 1-Form gemacht hat. Weitere Details zu 2-Formen folgen weiter unten.
Diese antisymmetrische Definition von dω ist sehr nützlich, denn die
Bedingung
dωμ(f −1(x)) / dxν =
dων(f −1(x)) / dxμ
von oben lässt sich nun einfach schreiben als dω(p) = 0
für alle p aus G. Begründung:
Man kann die Doppelsumme über alle μ und ν in dω aufteilen in eine Summe mit μ < ν
und eine Summe mit μ > ν (die Terme mit μ = ν sind wegen der Antisymmetrie sowieso
gleich Null). Nun benennt man in der zweiten Summe die Indices um (μ in ν und umgekehrt)
und vertauscht dxμ und dxν im Dachprodukt, was ein Vorzeichen ergibt.
Nun fasst man die beiden Summen wieder zusammen. Ergebnis:
dω = ∑μ < ν (dων / dxμ − dωμ / dxν) dxμ Λ dxν
Aus dω = 0 folgt dann die Bedingung dων / dxμ − dωμ / dxν = 0 . Im dreidimensionalen Raum bedeutet das, dass die Rotation des Vektorfeldes verschwinden muss, wenn man es als Gradient einer skalaren Funktion schreiben möchte. Details sehen wir weiter unten noch genauer. Halten wir zunächst fest:
|
Komplikationen wie nicht-triviale Topologien oder die Notwendigkeit mehrerer Koordinatensysteme haben wir hier erst einmal weggelassen -- das gebiet G soll einfach so klein sein, dass wir uns darum nicht zu kümmern brauchen.
Man sieht, wie elegant die Formulierung mit Differentialformen ist. Diese Eleganz bleibt auch bei höheren Dimensionen erhalten, wie wir bald sehen werden. Zentral ist dabei die Antisymmetrie bei der Definition des d-Operators und bei der Definition der 2-Formen (und später der höheren Formen). Wir werden im weiteren Verlauf an mehreren Stellen sehen, dass diese Antisymmetrie noch weitere sehr elegante Formulierungen ermöglicht.
Der Integralsatz von Stokes für exakte 1-Formen:
Für Kurvenintegrale exakter 1-Formen ω gilt nun eine wichtige Eigenschaft: sie hängen nur vom Anfangspunkt γ(a) und vom Endpunkt γ(b) ab, nicht aber vom Verlauf der Kurve γ dazwischen. Das kann man leicht wie folgt sehen (dabei verwenden wir, dass nach Definition oben dΦ(γ(t)) u(γ(t)) = dΦ(γ(t)) / dt ist, und wir betrachten die Funktion Φ ο γ einfach als skalare Funktion einer reellen Variablen, für die der Hauptsatz der Differential- und Integralrechnung gilt):
∫γ(T) ω = ∫γ(T) dΦ = ∫ab dΦ(γ(t)) u(γ(t)) dt = ∫ab dΦ(γ(t)) / dt dt = Φ(γ(b)) − Φ(γ(a)) =: ∫γ(δT) Φ
Man bezeichnet den Zusammenhang ∫γ(T) ω = ∫γ(δT) Φ auch als Integralsatz von Stokes. Wie wir gesehen haben, ist dieser Satz bei exakten 1-Formen identisch mit dem Hauptsatz der Differential- und Integralrechnung. Die Schreibweise ∫γ(δT) Φ soll dabei bedeuten, dass wir Φ über den (orientierten) Rand γ(δT) der Kurve γ integrieren, also über Anfangs- und Endpunkt der Kurve mit Vorzeichen summieren. Dabei ist δT der orientierte Rand des Intervalls T (also des Intervalls von a bis b), d.h. δT umfasst die t-Werte a und b inclusive einer Vorzeichenkonvention. Diese Schreibweise wird weiter unten bei höheren Dimensionen noch genauer erklärt und macht dort dann auch mehr Sinn. Halten wir fest:
|
Wichtig dabei ist, dass wir die Metrik an keiner Stelle benötigt haben. Der Integralsatz von Stokes benötigt keine Metrik!
Ein Beispiel aus der Physik (mit Skalarprodukt formuliert): Das statische klassische Gravitationsfeld (nach Newton) F lässt sich als Gradient einer skalaren Funktion Φ (das Gravitationspotential) schreiben: ω = á F, dx ñ = á grad Φ, dx ñ = dΦ . Die Arbeit, die das Gravitationsfeld entlang eines Weges γ verrichtet, ist also allein gegeben durch den Potentialunterschied (Höhenunterschied) zwischen Start- und Zielpunkt: ∫γ(T) á F, dx ñ = ∫γ(T) á grad Φ, dx ñ = ∫γ(T) dΦ = ∫γ(δT) Φ = Φ(γ(b)) − Φ(γ(a)) . Es kommt also nur darauf an, wieviel man bergauf oder bergab geht, aber nicht auf den genauen Weg. Bei geschlossenen Wegen (d.h. Anfangs- gleich Endpunkt) ist dieses Integral gleich Null, d.h. man kann auf einer Rundreise im Gravitationsfeld keine Energie gewinnen. Hätte das Kraftfeld dagegen einen Rotationsanteil (eine Wirbelstärke analog zu einem sich drehenden Wasserwirbel), so könnte man auf einer Rundreise Energie gewinnen. Dann wäre aber auch dω ungleich Null. So etwas kommt beispielsweise bei elektrischen Feldern vor, die aufgrund eines sich ändernden Magnetfeldes entstehen, z.B. in einem Dynamo.
Man kann den Integralsatz von Stokes bei 1-Formen auch
anschaulich gut verstehen:
Dazu stellen wir uns wieder vor, dass wir das Kurvenparameter-Intervall von a nach b in viele
sehr kleine Stückchen der Größe dt aufteilen. Das zugehörige Kurvenstück geht jeweils von
γ(t) bis γ(t + dt) . Das Integral können wir uns dann als Summe über all diese
kleinen Kurvenabschnitte vorstellen, wobei jeder Kurvenabschnitt eine Zahl
dΦ =
dΦ(γ(t)) / dt dt =
Φ(γ(t + dt)) − Φ(γ(t))
zur Summe beiträgt (das zweite Gleichheitszeichen gilt streng genommen erst im Grenzübergang
zu infinitesimal kleinen dt). Hier ist dΦ als die kleine Zahl zu verstehen,
die der jeweilige Kurvenabschnitt zur Summe (zum Integral) beiträgt.
Der Ausdruck dΦ spielt also (wie oben bereits dxμ ) eine Doppelrolle:
Zunächst einmal ist er als Linearform auf Tangentialvektoren definiert.
Im Kurvenintegral kann man ihn als Veränderung von Φ auf dem kleinen
Kurvenstück interpretieren und erhält so automatisch die korrekte
Bedeutung des Integrals ∫γ(T) dΦ ,
so wie sie durch die formal saubere Definition
∫γ(T) dΦ =
∫ab dΦ(γ(t)) u(γ(t)) dt
gegeben ist.
Wenn man nun dΦ =
Φ(γ(t + dt)) − Φ(γ(t)) über alle
Kurvenabschnitte aufsummiert (also dabei den Kurvenparameter in dt-Schritten von a
nach b wandern lässt), so heben sich die Φ-Werte aller Zwischenpunkte auf, und
man erhält das Ergebnis Φ(γ(b)) − Φ(γ(a)) .
So muss es auch sein, denn das Integral summiert ja alle Veränderungen
von Φ entlang der Kurve auf, so dass man am Ende die Gesamtveränderung von Φ
entlang der Kurve erhält.
Veranschaulichung von 1-Formen:
Differentialformen haben oft den Ruf, nicht gerade anschauliche Objekte zu sein. Nur in bestimmten Fällen gelingt es, mit ihnen anschauliche Vorstellungen zu verbinden (z.B. wenn eine Metrik vorhanden ist und man sich eine 1-Form als Kraftwirkung entlang eines Wegstücks vorstellen kann, siehe oben). Es gibt jedoch eine recht interessante Möglichkeit, zu einer anderen halbwegs anschaulichen Vorstellung zu gelangen, die nicht auf einer Metrik aufbaut, und die man einigermaßen auch auf höhere Dimensionen übertragen kann (siehe z.B. Dan Piponi: On the Visualisation of Differential Forms, December 1998, http://homepage.mac.com/sigfpe/Mathematics/forms.pdf ). Wir sind in Kapitel 5.1.5. Co-Tangentialräume und Differentialformen bereits darauf eingegangen und wollen hier die wichtigsten Aspekte noch einmal wiederholen (auch im Hinblick auf die Anwendung bei höherdimensionalen Formen).
Als Ausgangspunkt dient uns die Darstellung
ω(p) u(p) = dΦ(p) u(p) = u(p) Φ = dΦ(γ(t)) / dt |t = 0
von oben, d.h. die Tatsache, dass man jede 1-Form ω(p) lokal durch das Änderungsverhalten einer skalaren Funktion Φ beschreiben kann: ω(p) = dΦ(p) . Das Änderungsverhalten von Φ in einer kleinen Umgebung von p können wir durch Höhenlinien / Höhenflächen anschaulich darstellen, also in einer n-dimensionalen Mannigfaltigkeit M durch (n − 1) - dimensionale Flächen, auf denen Φ konstant ist -- wir werden zur Vereinfachung auch die (n − 1) - dimensionalen Höhenflächen als Höhenlinien bezeichnen. Diese Höhenlinien nahe bei p sollten also auch eine Veranschaulichung der 1-Form ω(p) = dΦ(p) liefern.
Wenn das so ist, müssten wir aus den Höhenlinien von Φ nahe bei p auch den Wert von ω(p) u(p) ableiten können. Und tatsächlich geht das ganz einfach: Wenn wir in Richtung von u(p) ein kleines Stück vorangehen, so werden wir umso mehr Höhenlinien überschreiten, je schneller sich Φ in dieser Richtung ändert. Dabei zählen wir Höhenlinien positiv, wenn es bergauf geht, ansonsten negativ. Der Wert von ω(p) u(p) entspricht also in diesem Bild der Zahl der Höhenlinien (mit Vorzeichen), die man in u(p)-Richtung überschreitet. So ergibt sich anschaulich für ω(p) u(p) die Richtungsableitung von Φ im Punkt p in u(p)-Richtung.
Nun gilt diese Vorstellung zunächst nur lokal, also nur in einer kleinen (sogar infinitesimalen)
Umgebung von p. Wir können uns aber vorstellen, dass wir die Mannigfaltigkeit näherungsweise
mit sehr vielen sehr kleinen Umgebungen gleichsam pflastern und in jeder dieser Umgebungen
die 1-Form ω durch Höhenlinien einer Funktion Φ darstellen.
Dabei ist Φ jeweils nur in dieser winzigen Umgebung definiert, und es kann sein,
dass wir in jeder Umgebung eine andere Funktion Φ brauchen.
Schauen wir uns ein einfaches Beispiel an: Die Mannigfaltigkeit M ist die zweidimensionale reelle Ebene R2 mit den beiden Koordinaten x und y, und die 1-Form ω ist gegeben durch ω = x dy . Nun ist dω = dx Λ dy ungleich Null. Nach dem Lemma von Poincare kann es daher keine einzelne skalare Funktion Φ geben, so dass überall ω = dΦ gilt. Nur lokal ist das möglich. Dazu wählen wir einen beliebigen Punkt p = (a,b) aus und betrachten die Umgebung dieses Punktes. In dieser Umgebung definieren wir die skalare Funktion Φ als Φ(x,y) = a y , so dass dΦ(x,y) = a dy ist. Damit haben wir erreicht, dass im Punkt p = (a,b) die gewünschte Beziehung ω(a,b) = dΦ(a,b) gilt.
Schauen wir uns die Höhenlinien von Φ(x,y) = a y nahe bei p = (a,b) an: Φ steigt nur in y-Richtung an, und zwar mit der Steigung a. Der Anstieg wird also in Umgebungen weiter rechts immer steiler, aber gleichzeitig erfolgt der Anstieg immer in y-Richtung. So etwas ist nur mit lokal definierten Funktionen Φ erreichbar, nicht aber mit einer einzigen Funktion Φ.
Die Höhenlinien liegen also parallel zur x-Achse, und ihre Dichte ist proportional zur Steigung a. Je weiter rechts der Punkt p = (a,b) liegt, umso dichter sind die Höhenlinien der dort lokal definierten Funktion Φ. Wenn wir uns nun die gesamte Ebene mit kleinen Umgebungen gepflastert vorstellen und überall die Höhenlinien der entsprechenden Φ-Funktion einzeichnen, so erhalten wir folgendes Bild: Je weiter rechts eine Umgebung liegt, umso mehr waagrechte Höhenlinien enthält sie, weil das lokal definierte Φ stärker in y-Richtung ansteigt. An den Grenzen der Umgebungen kommen also von links nach rechts immer neue Höhenlinien dazu. Wenn wir die Umgebungen unendlich klein werden lassen, so entspricht dies einer bestimmten Entstehungsdichte von nach rechts fortlaufenden Höhenlinien. Diese Entstehung von neuen Höhenlinien ist die Ursache dafür, dass wir nicht die Höhenlinien einer einzigen Funktion Φ in der ganzen Ebene verwenden können. Daraus folgt auch, dass dω ≠ 0 sein muss, denn sonst gäbe es nach dem Lemma von Poincare eine einzige Funktion Φ mit ω = dΦ . Also haben wir: Wenn neue Höhenlinien entstehen, so ist dω ≠ 0 . Wir werden später sehen, dass wir tatsächlich die Verteilung der Anfangspunkte von Höhenlinien als eine Veranschaulichung der 2-Form dω = dx Λ dy ansehen können. Mehr dazu weiter unten
Das Höhenlinien-Bild lässt sich auch gut auf Kurvenintegrale
von 1-Formen anwenden. Bei einem solchen Kurvenintegral werden einfach die
auf dem Weg durchstoßenen Höhenlinien (ggf. mit negativem Vorzeichen beim Abstieg)
aufsummiert. Ist dω = 0 , so gehören die Höhenlinien
zum Gebirge einer einzigen Funktion Φ, und es ist egal, auf welchem Weg man von einem
Punkt p zu einem Punkt q geht: man muss immer insgesamt denselben Höhenunterschied überwinden.
Das Kurvenintegral ist dann wegunabhängig (Integralsatz von Stokes für exakte 1-Formen).
Dies ist anders, wenn Höhenlinien neu entstehen können, so dass dω ≠ 0
ist. Hier kommt es sehr wohl auf den Weg an!
Damit haben wir 1-Formen und Kurvenintegrale im Detail besprochen. Wir wollen nun versuchen, die Begriffe und Ideen auch auf höhere Dimensionen zu übertragen. Dabei wollen wir schrittweise vorgehen und statt 1-Formen zunächst 2-Formen sowie statt Integralen über Kurven nun Integrale über zweidimensionale Flächen betrachten. Wenn wir das erst einmal verstanden haben, ist der Schritt zu beliebigen Dimensionen dann nicht mehr schwer.
2-Formen:
Man kann alle oben für 1-Formen formulierten Begriffe und Zusammenhänge auf 2-Formen (und allgemein auf p-Formen) übertragen. Dabei sind 2-Formen einfach antisymmetrische bilineare Abbildung von den Tangentialräumen in die reellen Zahlen. In dem Ausdruck ω(p) (u(p), v(p)) ist also ω(p) die 2-Form im Punkt p, u(p) und v(p) sind Tangentialvektoren aus dem Tangentialraum T(p) , und ω(p) (u(p), v(p)) ist insgesamt eine reelle Zahl. Die Abbildung ω(p) ist dabei linear in jedem der beiden Argumente, und es gilt ω(p) (u(p), v(p)) = − ω(p) (v(p), u(p)) (Antisymmetrie).
Dabei ist die Antisymmetrie entscheidend. Dies haben wir bei der Definition der d-Ableitung und dem Integralsatz von Stokes bereits gesehen. Es wird sich weiter unten noch zeigen, dass man Integrale von 2-Formen über Flächen nur dann unabhängig von der Flächenparametrisierung definieren kann, wenn man die Antisymmetrie der 2-Form verwendet. Nur dann ist das Symmetrieverhalten nämlich verträglich mit der Substitutionsregel für Integrale, bei der die Determinante des Parameterwechsels auftritt.
Wir kennen 2-Formen das bereits aus Kapitel 5.1.8 Krümmung sowie oben von der Definition von dω mit der 1-Form ω . Schauen wir uns die Details noch einmal an:
Aus der Bilinearität der 2-Form ω und der Antisymmetrie folgt (wir lassen die Argumente wie p zur Vereinfachung weg; u und v sind beliebige Tangentialvektoren):
ω(u,v) =
=
∑μν uμ vν
ω(d/dxμ, d/dxν)
=
=
∑μ < ν uμ vν
ω(d/dxμ, d/dxν)
+
∑μ > ν uμ vν
ω(d/dxμ, d/dxν)
=
=
∑μ < ν uμ vν
ω(d/dxμ, d/dxν)
+
∑ν > μ uν vμ
ω(d/dxν, d/dxμ)
=
=
∑μ < ν uμ vν
ω(d/dxμ, d/dxν)
−
∑μ < ν uν vμ
ω(d/dxμ, d/dxν)
=
=
∑μ < ν
(uμ vν − uν vμ)
ω(d/dxμ, d/dxν)
=:
=:
∑μ < ν
ωμν
[ dxμ Λ dxν ] (u, v)
Dabei haben wir verwendet, dass die Terme mit μ = ν wegen der Antisymmetrie gleich Null sind, und wir haben einmal die Indices μ und ν ineinander umbenannt sowie die Antisymmetrie von ω(d/dxμ, d/dxν) verwendet, was den Vorzeichenwechsel bewirkt. Zusammengefasst haben wir also:
|
Der d-Operator verwandelt 1-Formen in 2-Formen:
Wir hatten oben bereits gesehen, dass der d-Operator 1-Formen in 2-Formen verwandelt. Lokal (also in einer Umgebung eines festen Punktes p) geht das immer, d.h. man kann zu einer 2-Form ω(p) immer eine 1-Form π finden, die in einer (kleinen) Umgebung von p definiert ist, so dass dπ(p) = ω(p) gilt. Zur Erinnerung hier die Basis-abhängige Definition des d-Operators von oben:
dπ(p) =
:= ∑ν
dπν(p) Λ dxν|p
=
= ∑μν
dπν(f −1(x)) / dxμ
dxμ|p Λ dxν|p
=
=
∑μ < ν
[ dπν(f −1(x)) / dxμ −
dπμ(f −1(x)) / dxν ]
dxμ|p Λ dxν|p
=
ω(p) =
= ∑μ < ν
ωμν(p)
dxμ|p Λ dxν|p
so dass
ωμν(p) = dπν(f −1(x)) / dxμ − dπμ(f −1(x)) / dxν
Wann eine solche Beziehung zwischen π und ω über einen Punkt p hinaus in einem Gebiet G gilt, werden wir wieder weiter unten sehen (Integrabilitätsbedingung).
Die obige Basis-abhängige Definition ist leider etwas unanschaulich: Warum definiert man die d-Ableitung gerade so? Wir wollen daher noch eine zweite Basis-unabhängige Definition angeben und zeigen, dass sie zur obigen Basis-abhängigen Definition führt. Dazu schauen wir uns noch einmal die Basis-unabhängige Definition der d-Ableitung bei 0-Formen an:
dΦ(p) u(p) := u(p) Φ = dΦ(γ(t)) / dt |t = 0
mit p = γ(0) . Die d-Ableitung der 0-Form Φ ist also so definiert, dass sich mit ihrer Hilfe die Richtungsableitung der Funktion Φ in eine beliebige Richtung ausrechnen lässt, indem man dΦ auf den entsprechenden Tangentialvektor anwendet.
Wie lässt sich das auf 1-Formen übertragen?
Schauen wir uns dazu den Ausdruck π(p) u2(p) mit einer 1-Form π an. Durch diesen Ausdruck wird eine skalare Funktion auf der Mannigfaltigkeit M definiert, denn π(p) u2(p) ist für jeden Punkt p eine reelle Zahl. Wir wollen diese Funktion mit π u2 bezeichnen, d.h. [π u2](p) := π(p) u2(p) .
Da dπ eine 2-Form werden soll, benötigen wir 2 Tangentialvektoren. Daher ersetzen wir die Kurve γ(t) durch eine Flächenparametrisierung γ(t1, t2) mit zwei Parametern t1 und t2 , d.h. γ ist eine Abbildung von R2 in die Mannigfaltigkeit M. Zur Vereinfachung der Schreibweise schreiben wir (t1, t2) = t . Wir setzen p = γ(0) = γ(0, 0) . Die Tangentialvektoren in ti -Richtung in t = 0 bezeichnen wir mit ui(p) .
Für die Funktion π u2 können wir nun analog zu Φ die Richtungsableitung beispielsweise in t1-Richtung bilden:
d[π(γ(t)) u2(γ(t))] / dt1 |t = 0 = u1(p) [π u2]
Dieser Ausdruck ist linear in u2 (denn die skalare Funktion π(γ(t)) u2(γ(t)) ist linear in u2) und linear in u1 (so wie auch dΦ(p) u(p) linear in u(p) war). Er ist also bilinear in u1 und u2 . Allerdings ist d1π noch keine 2-Form, denn sie ist nicht unbedingt antisymmetrisch in u1 und u2 . Außerdem treten noch Ableitungen von u2 darin auf. Wir können aber leicht einen entsprechenden antisymmetrischen Ausdruck konstruieren:
dπ(p) (u1(p), u2(p))
:=
=
u1(p) [π u2]
−
u2(p) [π u1]
=
=
d[π(γ(t)) u2(γ(t))] / dt1 |t = 0
−
d[π(γ(t)) u1(γ(t))] / dt2 |t = 0
Dieser Ausdruck leistet das Gewünschte: er ist bilinear und antisymmetrisch in u1 und u2 , und er enthält keine Ableitungen der Tangentialvektoren ui mehr (wie wir gleich noch sehen werden). Hier sehen wir, wie sich in natürlicher Weise die Definition der d-Ableitung von 0-Formen auf 1-Formen übertragen lässt (und analog auf höhere Differentialformen). Besonders für den Integralsatz von Stokes wird sich weiter unten diese Basis-unabhängige Schreibweise noch als nützlich erweisen.
Wir wollen noch zeigen, dass die obige Definition tatsächlich unserer Basis-abhängigen Definition von oben entspricht, und dass die Ableitungen der Tangentialvektoren ui wegfallen:
d[π(γ(t)) u2(γ(t))] / dt1 − d[π(γ(t)) u1(γ(t))] / dt2 =
=
∑μ (
dπμ(γ(t))/dt1
u2μ(γ(t))
+
πμ(γ(t))
du2μ(γ(t))/dt1
+
−
dπμ(γ(t))/dt2
u1μ(γ(t))
−
πμ(γ(t))
du1μ(γ(t))/dt2 )
= ...
Die Ableitungen von πμ rechnen wir mit Hilfe der
Kettenregel aus, wobei wir πμ direkt als Funktion der Koordinaten
x = f(γ(t)) auffassen (wir sparen uns also das
explizite Einschieben der Koordinatenfunktion f, um die Schreibweise nicht zu überfrachten;
die formal saubere Schreibweise findet man weiter oben).
Außerdem verwenden wir die Kurzschreibweise
uμi = dγμ/dti
= df μ(γ(t))) / dti
und lassen die Argumente γμ(t) weg.
Die Ableitungsterme von ui heben sich wegen der Vertauschbarkeit
der Ableitungen nach t1 und t2 gegenseitig auf,
denn
du2μ/dt1 =
d(dγμ/dt2) dt1)
=
d(dγμ/dt1) dt2)
=
du1μ/dt2
Wir haben also:
= ∑μν ( dπμ/dxν dγν/dt1 u2μ − dπμ/dxν dγν/dt2 u1μ ) =
= ∑μν dπμ/dxν ( u1ν u2μ − u1μ u2ν ) =
= ∑μν dπμ/dxν [dxν Λ dxμ] (u1, u2) =
= dπ(γ(t)) (u1(γ(t)), u2(γ(t)))
Fassen wir zusammen (wobei wir analog zur Basis-abhängigen Definition von oben wieder ω statt π schreiben wollen):
|
Diese Definition lässt sich leicht auch auf höhere Dimensionen verallgemeinern. Details folgen weiter unten.
Flächenintegrale über 2-Formen:
Gehen wir analog zu den 1-Formen vor:
Um eine 2-Form ω(p) auswerten zu können, benötigt man im Punkt p zwei Tangentialvektoren. Eine 2-dimensionale Untermannigfaltigkeit (Fläche) in unserer mindestens 2-dimensionalen Mannigfaltigkeit M liefert in jedem ihrer Punkte zwei solche Tangentialvektoren. Die Anwendung von ω(p) auf diese beiden Tangentialvektoren liefert eine reelle Zahl. Wir können diese Zahlen nun über die Fläche (oder über einen Teil davon) aufsummieren (genauer: aufintegrieren), wobei wir wieder voraussetzen, dass ω dort überall definiert ist.
Wie bei der Kurve wollen wir auch die Fläche (oder einen Teil davon) durch eine Parameterdarstellung kennzeichnen, also durch eine Funktion γ , die jeweils zwei reellen Zahlen (Flächenparametern) t1 und t2 einen Punkt p = γ(t1, t2) zuordnet. Wir schreiben im Folgenden t := (t1, t2) , also z.B. p = γ(t) Dabei müssen wir noch den Zahlenbereich festlegen, den die beiden Flächenparameter überstreichen sollen. Wir wollen diesen Bereich analog zum eindimensionalen Fall mit T bezeichnen, d.h. es gilt t = (t1, t2) ∈ T , und T ist eine geeignete Untermenge von R2. Dabei bedeutet geeignet, dass T konvex ist oder das diffeomorphe Bild einer solchen Menge ist (konvex heißt, dass gerade Verbindungsstrecken zwischen zwei Punkten von T auch in T liegen). Außerdem soll die Parameterfunktion γ differenzierbar und injektiv sein. Mit anderen Worten: wir wollen über ein vernünftiges zusammenhängendes Flächenstück integrieren und keine Probleme mit Löchern, Überlappungen, unzusammenhängenden Stücken etc. haben. Wir sprechen auch von einem einfachen 2-Flächenstück. Außerdem soll γ so sein, dass für jeden Punkt des Flächenstücks ein zweidimensionaler Tangentialraum existiert, der durch Tangentialvektoren in Richtung der beiden Parameter aufgespannt wird. Die Fläche soll also wirklich zweidimensional sein (auf was man so alles achten muss ... ). Später werden wir solche 2-Flächenstücke zu größeren Untermannigfaltigkeiten zusammensetzen. Dabei wird sich als wichtig erweisen, dass diese Untermannigfaltigkeiten orientierbar sind, also nicht wie das Möbiusband aussehen (Bild siehe weiter unten). Für das Möbiusband sind Flächenintegrale von 2-Formen nicht definiert.
Für das Integral brauchen wir noch ein geeignetes Integrationsmaß dμ(t) auf dem Parameterraum T. Wie üblich verwenden wir das Standardmaß für karthesische Koordinaten im R2 :
dμ(t) = dt1 dt2
Das uns interessierende Flächenintegral definieren wir nun analog zum Kurvenintegral durch
I γ(T) := ∫T [ω(γ(t)) (u1(γ(t)), u2(γ(t)))] dμ(t)
wobei natürlich ui(γ(t)) der Tangentialvektor in ti-Richtung ist, d.h. beispielsweise u1(p) Φ = dΦ(γ(t)) / dt1 mit p = γ(t).
Es wäre schön, wenn dieses Integral analog zum eindimensionalen Fall nicht von der Parametrisierung der Fläche abhängen würde. Schauen wir uns also an, was bei einer Umparametrisierung der Fläche geschieht.
Umparametrisierung der Fläche bedeutet, dass wir das Parameterpaar
t = (t1, t2)
als Funktion eines neuen Parameterpaars ansehen:
t = (t1, t2)
= φ(t1', t2')
= φ(t')
mit einer umkehrbaren Funktion φ, die von R2 nach R2
geht. So könnte man beispielsweise zu zweidimensionalen sphärischen
Koordinaten übergehen, also
t1 = t1' cos t2'
t2 = t1' sin t2'
verwenden.
Die Fläche wird bzgl. der neuen Parametrisierung durch eine neue Funktion ρ(t') beschrieben, wobei γ(t) = γ(φ(t')) =: ρ(t') sein soll, d.h. γ ο φ = ρ (ganz analog zum eindimensionalen Fall). Betrachten wir nun das folgende Integral, das sich auf die neue Flächenparametrisierung ρ bezieht:
I ρ(T') := ∫T' [ω(ρ(t')) (v1(ρ(t')), v1(ρ(t')))] dμ(t')
Dabei sind vi(γ(t')) die Tangentialvektoren in die neuen Parameterrichtungen ti' im Punkt ρ(t'), und T' ist der Parameterbereich der gestrichenen Parameter, so dass die Integration über dieselbe Fläche geht wie beim Integral I γ(T) oben (also T = φ(T') ). Wir hoffen natürlich, dass wie oben wieder I γ(T) = I ρ(T') gilt. Also versuchen wir, den Nachweis dafür analog zum eindimensionalen Fall zu führen, indem wir wieder I ρ(T') durch Einsetzen von γ(φ(t')) = ρ(t') umschreiben:
I ρ(T') := ∫T' [ω(γ(φ(t'))) (v1(γ(φ(t'))), v2(γ(φ(t'))))] dμ(t')
Wir wollen nun wieder die v-Tangentialvektoren durch die u-Tangentialvektoren ausdrücken:
vi(ρ(t')) Φ =
=
dΦ(ρ(t'))/dti' =
=
dΦ(γ(φ(t')))/dti' =
=
∑j
dΦ(γ(t)/dtj dφj(t')/dti' =
=
∑j
[uj(γ(t)) Φ] dφj(t')/dti' =
=
∑j
[uj(γ(φ(t'))) Φ] dφj(t')/dti'
=:
=:
[∑j dφj(t')/dti'
uj(γ(φ(t')))] Φ
d.h. für die Umrechnung benötigen wir die Jacobimatrix der Umparametrisierungsfunktion φ
mit den Matrixelementen dφj(t'))/dti' .
Physiker würden bei einer Einbettung kürzer einfach schreiben:
dx/dti' =
∑j dx/dtj dtj/dti'
Fassen wir das Ergebnis noch einmal zusammen:
|
Dieses Ergebnis können wir nun im Integranden von I ρ(T') einsetzen, wobei wir wieder ausnutzen, dass ω eine bilineare Abbildung ist:
I ρ(T') =
∫T' [ω(γ(φ(t')))
(v1(γ(φ(t'))), v2(γ(φ(t'))))]
dμ(t')
=
=
∫T' [ω(γ(φ(t')))
(
∑j dφj(t')/dt1'
uj(γ(φ(t')))
,
∑k dφk(t')/dt2'
uk(γ(φ(t')))
)]
dμ(t')
=
=
∫T'
∑jk
dφj(t')/dt1'
dφk(t')/dt2'
[ω(γ(φ(t')))
( uj(γ(φ(t'))), uk(γ(φ(t'))))]
dμ(t')
= ...
Wir würden nun gerne für jeden Summanden die Tangentialvektoren uj und uk in ω so vertauschen, dass ω(u1, u2) entsteht, so wie das in I γ(T) der Fall ist. Wir wollen dies direkt so vornehmen, dass sich die Vorgehensweise auf den höherdimensionalen Fall übertragen lässt.
Dazu verwenden wir den bekannten Begriff der Permutation: eine Permutation ist eine Umsortierung in einer geordneten Liste natürlicher Zahlen. So kann eine spezielle Permutation beispielsweise aus der Liste (2, 5, 11, 3) die neue Liste (11, 2, 3, 5) machen. Nun kann man jede Permutation dadurch erzeugen, dass man nacheinander einzelne Zahlen miteinander vertauscht. In dem obigen Beispiel vertauscht man dazu zuerst die Zahlen 2 und 11 mit dem Ergebnis (11, 5, 2, 3) (damit ist die erste Zahl schon mal richtig), danach die Zahlen 2 und 5 mit dem Ergebnis (11, 2, 5, 3) , und zum Schluss noch die Zahlen 3 und 5 mit dem Ergebnis (11, 2, 3, 5) . Wir haben also drei Vertauschungen benötigt, um die Permutation zu erreichen. Man kann nun das Signum (Vorzeichen) einer Permutation definieren: Für eine gerade Zahl von Vertauschungen ist das Signum der Permutation gleich 1 , bei einer ungeraden Zahl von Vertauschungen gleich − 1 . In unserem Beispiel wäre also das Signum der Permutation gleich − 1 . Übrigens macht die Signum-Definition natürlich nur Sinn, wenn in der Zahlenliste keine Zahl doppelt vorkommt, denn sonst wäre die Zahl der Vertauschungen nicht eindeutig festgelegt (man könnte ja zwei identische Zahlen miteinander vertauschen, ohne dass sich etwas ändert). Daher definieren wir das Signum für solche Fälle mit mehrfach vorkommenden Zahlen als Null.
In unserem Integranden oben können wir (j, k) als Permutation von (1, 2) betrachten (j und k sind ja gleich 1 oder 2, und die Terme mit i = j können wir aufgrund der Antisymmetrie von ω sowieso weglassen. Wir schreiben einfach direkt (j, k) für diese Permutation. Dann gilt:
ω(uj, uk) = sign(j, k) ω(u1, u2)
Dabei ist der Fall j = k wegen sign(j, j) = 0 direkt mit enthalten. Das Verhalten von ω beim Vertauschen der Argumente ist übrigens vollkommen identisch mit dem Verhalten einer Determinante beim Vertauschen der Spalten -- auch im mehrdimensionalen Fall (siehe unten). In diesem Sinn sind Differentialformen gleichsam verträglich mit Determinanten, und genau deshalb ergibt sich auch die Unabhängigkeit von der Parametrisierung, denn bei Umparametrisierungen von Integralen tritt gemäß der Transformationsformel die Jacobideterminante der Umparametrisierung auf. Die Details sehen wir gleich noch genauer.
Man könnte natürlich fragen, ob wir hier nicht mit Kanonen auf Spatzen geschossen haben. Schließlich sind oben nur die beiden Fälle sign(1, 2) = 1 und sign(1, 2) = − 1 interessant, und wir hätten alles auch ganz ohne Permutationen und den Signum-Begriff durchführen können. Bei mehr Dimensionen wird es aber immer schwieriger, sich zu Fuß durchzuschlagen. Daher haben wir schon hier alles so formuliert, wie wir es auch bei mehr Dimensionen brauchen. Setzen wir also unser Ergebnis oben ein:
... =
∫T'
∑jk sign(j, k)
dφj(t')/dt1'
dφk(t')/dt2'
[ω(γ(φ(t')))
( u1(γ(φ(t'))), u2(γ(φ(t'))))]
dμ(t')
=
=:
∫T' det( dφ(t')/dt' )
[ω(γ(φ(t')))
( u1(γ(φ(t'))), u2(γ(φ())))]
dμ(t')
= ...
Dabei haben wir die Definition der Determinante der Jacobimatrix dφ(t')/dt' = (dφj(t')/dtk') verwendet, also
det( dφ(t')/dt' ) := ∑jk sign(j, k) dφj(t')/dt1' dφk(t')/dt2'
In unserem zweidimensionalen Fall ist dann natürlich
det( dφ(t')/dt' ) := dφ1(t')/dt1' dφ2(t')/dt2' − dφ2(t')/dt1' dφ1(t')/dt2'
(zum Begriff der Determinante siehe z.B. im Wikipedia-Online-Lexikon http://en.wikipedia.org/wiki/Determinant ). Man kann nun direkt die Transformationsregel für mehrdimensionale Integrale anwenden. Wir wollen hier diese Regel noch einmal kurz motivieren:
Wenn man auf das zweidimensionale Einheitsquadrat mit Flächeninhalt gleich 1 eine 2 x 2 - Matrix A anwendet (d.h. aus jedem Punkt t wird der Punkt A t ) , so einsteht ein Parallelogramm, dessen Kanten durch die beiden Spaltenvektoren von A gegeben sind. Wie man in der Vektoranalysis zeigt, hat es den Flächeninhalt |det(A)| . Analog ist es auch in höheren Dimensionen. Den Beweis führt man mit Hilfe der vollständigen Induktion, mit der man sich durch geeignete Zerlegung der Matrix A in den Dimensionen nach oben hangeln kann. Weiter unten werden wir für den zweidimensionalen Fall noch einmal explizit zeigen, dass det(A) die Fläche des Parallelogramms ist (Stichwort: Gramsche Matrix).
Nun kann man die Abbildung φ lokal durch die 2 x 2 - Jacobi-Matrix
dφ(t')/dt' annähern. Wendet man daher
φ auf ein sehr kleines Quadrat mit Kantenlängen
dt1' und dt2' und Flächeninhalt
dμ(t') = dt1' dt2'
an, so entsteht daraus ein Parallelogramm mit Flächeninhalt
dμ(t) =
dμ(φ(t')) =
|det( dφ(t')/dt' )| dμ(t')
Dies können wir oben verwenden und so im Integral zu den
ungestrichenen Integrationsvariablen übergehen.
Um dabei keine Vorzeichenprobleme zu bekommen, wollen wir uns auf
solche Umparametrisierungen beschränken, die eine positive
Jacobi-Determinante det( dφ(t')/dt' ) haben,
so dass wir die Betragsstriche weglassen können. Diese Umparametrisierungen bezeichnen
wir als orientierungserhaltend:
I ρ(T') =
=
∫T' det( dφ(t')/dt' )
[ω(γ(φ(t')))
( u1(γ(φ(t'))), u2(γ(φ(t'))))]
dμ(t')
=
=
∫T
[ω(γ(γ(t))
( u1(γ(t)), u2(γ(t)))]
dμ(t)
=
= I γ(T)
Das Flächenintegral ändert sich also wieder bei der Umparametrisierung (mit positiver Jacobi-Determinante) nicht. Die Ursache dafür liegt darin, dass aufgrund der Antisymmetrie der 2-Form bei der Umparametrisierung genau die Jacobi-Determinante entsteht, die man für die Transformationsregel (also für die Umrechnung der kleinen Parameter-Flächenstücke im Integral in die neue Parametrisierung) benötigt. Fassen wir zusammen:
|
In der mathematischen Literator findet man oft andere elegant aussehende Formulierungen für die obige Aussage, die mit Hilfe des sogenannten Pullbacks von Differentialformen formuliert sind -- wir sind bei den 1-Formen oben bereits kurz darauf eingegangen. Im Prinzip kennen wir den Pullback bereits aus Kapitel 5.1.10: Lie-Ableitung und Killingsche Vektorfelder , nur dass die dortige Flussabbildung hier durch die Umparametrisierung φ zu ersetzen ist. Wir wollen hier nicht näher darauf eingehen, da wir dadurch inhaltlich nichts Neues erfahren würden (von dem manchmal etwas kryptischen Formalismus einmal abgesehen). Das Kapitel ist sowieso schon lang genug.
Interpretationen und Schreibweisen:
Versuchen wir, analog zu den 1-Formen vorgehen. Dazu schreiben wir dμ(t) = dt1 dt2 , ziehen die dti unter die 2-Form und verwenden dxi := ui dti (anschaulich ist dann dxi ein kleiner Tangentialvektor in ti-Richtung):
I γ(T) =
=
∫T
[ω(γ(t))
( u1(γ(t)), u2(γ(t)))]
dμ(t)
=
=
∫T
[ω(γ(t))
( u1(γ(t)) dt1, u2(γ(t)) dt2)]
=
=
∫T
[ω(γ(t))
( dx1, dx2 )]
=
=
∫T ∑μν
ωμν(γ(t))
dxμ1 dxν2
Hier ist die Ähnlichkeit mit
I γ(T) = ∫γ(T) ω = ∫γ(T) ∑μ < ν ωμν dxμ Λ dxν
auf den ersten Blick noch nicht so überzeugend wie bei den 1-Formen.
Wenn wir jedoch wie in Kapitel 5.1.9: Abstände und Winkel: die Metrik
die Schreibweise
dxμ Λ dxν =
dxμ ο dxν −
dxν ο dxμ
mit dem Tensorprodukt
[dxμ ο dxν] (u, v)
:=
[dxμ u] [dxν v]
=
uμ vν
verwenden, so ist
ω =
∑μν
ωμν
dxμ ο dxν
und wir haben
I γ(T) = ∫γ(T) ω = ∫γ(T) ∑μν ωμν dxμ ο dxν
Das sieht unserem obigen Ausdruck
I γ(T) =
∫T ∑μν
ωμν(γ(t))
dxμ1 dxν2
schon sehr ähnlich, wobei die Indices 1 und 2 anzeigen, dass
zwei verschiedene Tangentialvektoren zu verwenden sind,
da man ja über eine Fläche integriert.
Zum Vergleich:
Bei der Metrik g = ∑μν
gμν
dxμ ο dxν
und dem entsprechenden Integral
Lγ(T)
= ∫γ(T)
√ g
integriert man über eine Kurve und hat es deshalb nur mit einem
Tangentialvektor zu tun -- daher gibt es hier keinen Index 1 oder 2.
Bei den 1-Formen konnte man bei einer vorhandenen Metrik nun weiter die Bogenlänge einführen und dx als Wegstück der Länge ds ansehen. Bei 2-Formen hätten wir sicher gerne analog so etwas wie ein Flächenstück. Außerdem konnte man 1-Formen im Wegintegral dann sehr schön als Skalarprodukt eines Vektors mit dem Wegstück dx verstehen. Bei 2-Formen geht das offenbar nicht ganz so einfach, aber wir wollen uns im Folgenden ansehen, was sich erreichen lässt.
2-Formen und Metrik (Skalarprodukt):
Wie bei 1-Formen wollen wir uns ansehen, was geschieht, wenn wir auf der Mannigfaltigkeit eine Metrik zur Verfügung haben (siehe Kapitel 5.1.9: Abstände und Winkel: die Metrik ). Kann man analog zum Bogenmaß ein Flächenmaß finden? Lassen sich 2-Formen anschaulich über das Skalarprodukt interpretieren?
Dazu stellen wir uns die Fläche γ(t) eingebettet in den
dreidimensionalen euklidischen Raum vor, so dass
wir uns die beiden kleinen Wegstücke
dx1 := u1 dt1
und
dx2 := u2 dt2
(siehe oben) anschaulich als zwei sehr kleine Tangentialvektoren vorstellen können.
Wir können uns weiter vorstellen, dass wir die Fläche γ(t) in sehr viele
sehr kleine Fast-Parallelogramme mit solchen Kantenvektoren aufteilen können.
Diese Kanten haben die Längen
|dxi| = dsi
= √
(g(ui, ui)) dti
Schauen wir uns zum Vergleich ein Parallelogramm im R2 mit Kantenvektoren a1 und a2 an. In karthesischen Koordinaten (hier geht die Metrik ein!) ist die Fläche dieses Parallelogramms gegeben durch die Determinante der Matrix A mit den Spaltenvektoren a1 und a2, d.h. A hat die Komponenten Aij = (aj)i mit den karthesischen Vektorkomponenten (aj)i (genauer müssten wir den Betrag der Determinante nehmen, da die Fläche positiv sein soll).
Es wäre nun ungünstig, karthesische Koordinaten voraussetzen zu müssen.
Daher wollen wir det(A) noch etwas umrechnen. Dazu verwenden wir die
transponierte Matrix AT, so dass
ATij := Aji ist.
Die Matrix AT A hat dann die Komponenten
(AT A)ij =
∑k ATik Akj
=
∑k Aki Akj
=
∑k
(ai)k
(aj)k
=
á
ai, aj
ñ
=: Gij
Das vorletzte Gleichheitszeichen ist dabei die Präzisierung der Aussage,
dass wir mit karthesischen Vektorkomponenten (aj)i
gearbeitet haben, denn nur dann ergibt die Summe über k auch das euklidische
Skalarprodukt. Man bezeichnet G als Gramsche Matrix.
Bilden wir nun die Determinante:
det(G) = det(AT A) = det(AT) det(A) = det(A) det(A) = [det(A)]2
d.h. die Fläche des Parallelogramms (gegeben durch det(A) ) ist auch gleich √ det(G) . Diese Formulierung hat den Vorteil, dass keine karthesischen Koordinaten mehr gebraucht werden. Außerdem kann man im zweidimensionalen Fall nun direkt verifizieren, dass √ det(G) anschaulich die Fläche des Parallelogramms sein muss. Diese Fläche ist nämlich gegeben durch die Länge der Grundseite (also z.B. |a1| ) mal der Höhe des Parallelogramms über dieser Grundseite, also mal |a2 − á e1, a2 ñ e1| mit e1 = a1/|a1| .
Rechnen wir das Quadrat dieses Betrages (also der Höhe) aus:
|a2 −
á
e1, a2
ñ e1|2 =
=
á
a2 −
á
e1, a2
ñ e1
,
a2 −
á
e1, a2
ñ e1
ñ
=
=
á
a2, a2
ñ
−
2
á
e1, a2
ñ2
+
á
e1, a2
ñ2
=
=
á
a2, a2
ñ
−
á
e1, a2
ñ2
und mulitiplizieren es mit dem Betragsquadrat der Grundseite, also mal á a1, a1 ñ , so erhalten wir als Quadrat der Fläche den Ausdruck
á
a1, a1
ñ
{
á
a2, a2
ñ
−
á
e1, a2
ñ2
}
=
=
á
a1, a1
ñ
á
a2, a2
ñ
−
á
a1, a2
ñ2
=
= det(G)
d.h. die Wurzel dieses Ausdrucks entspricht der anschaulichen geometrischen Flächendefinition des Parallelogramms als Grundseite mal Höhe.
Im Folgenden wollen wir nun an Stelle des euklidischen Skalarproduktes des Einbettungsraums wieder die Metrik der Mannigfaltigkeit verwenden, um uns von der Einbettung zu lösen. Dabei setzen wir voraus, dass die Metrik positiv definit ist, um Komplikationen zu vermeiden (für die Relativitätstheorie mit ihrer indefiniten Metrik muss man also bei Bedarf darüber nachdenken, unter welchen Voraussetzungen sich die Überlegungen auch dort anwenden lassen). Damit ist die Fläche dA jedes der winzigen Parallelogramme mit Kantenvektoren dx1 = u1 dt1 und dx2 = u2 dt2 gleich
dA := √ det( g(dxi, dxj) ) = √ [det( g(ui, uj) )] dt1 dt2
in Analogie zur Länge ds eines Kurvenstücks.
Achtung: der Faktor dt1 dt2 steht
nicht mehr unter der Wurzel, denn die dt-Faktoren kommen in der Determinante
häufiger vor!
Und:
die Schreibweise
[det(g(ui, uj) )]
bedeutet, dass man die Determinante einer Matrix bildet,
die die Matrixelemente
g(ui, uj) hat.
Wie bei der Kurvenlänge Lγ(T)
können wir nun auch die Fläche Aγ(T) eines Flächenstücks γ(t)
definieren über
Aγ(T) = ∫T dA = ∫T √ [det( g( ui(γ(t)), uj(γ(t)) ) ) ] dt1 dt2
Auch hier ist -- wie bei der Bogenlänge -- der Integrand nichtlinear in den Tangentialvektoren. Es handelt sich also nicht um ein Integral über eine Differentialform. Dennoch ist das Integral unabhängig von der Parametrisierung (und von der Orientierung).
Versuchen wir, das Flächenintegral so zu parametrisieren, dass dA als Integrationsmaß verwendet werden kann. Dazu erweitern wir mit der Gramschen Determinante, so dass wir das Flächenelement dA erhalten, und werten das Ergebnis als eine Umparametrisierung der Fläche analog zu oben:
I γ(T) =
=
∫T
[ω(γ(t))
( u1(γ(t)), u2(γ(t)))]
dμ(t)
=
=
∫T
[ω(γ(t))
( u1(γ(t)), u2(γ(t)))]
√ [det( g( ui(γ(t)), uj(γ(t)) ) ) ]
dμ(t) /
√ [det( g( ui(γ(t)), uj(γ(t)) ) ) ]
=
=
∫T
[ω(ρ(t'))
( v1(ρ(t')), v2(ρ(t')))]
dA(t')
Die Umparametrisierung
t = φ(t')
wurde dabei gerade so gewählt, dass
dμ(t) =
dμ(φ(t')) =
|det( dφ(t')/dt' )| dμ(t')
=
√ [det( g( ui(γ(t)), uj(γ(t)) ) ) ]
dA(t') ist mit
dμ(t') = dA(t')
und
|det( dφ(t')/dt' )|
=
√ [det( g( ui(γ(t)), uj(γ(t)) ) ) ]
(d.h. φ muss entsprechend gewählt werden).
Anschaulich legt die spezielle t'-Parametrisierung ein Netz aus kleinen Parallelogrammen über die
Fläche, so dass jedes Mini-Paralellogramm auf der Fläche (gegeben durch die
Tangentialvektoren v1 dt1 und
v2 dt2 ) eine Fläche dA aufweist, die identisch
ist mit der Fläche dμ(t') = dt1 dt2 .
Man könnte sagen, dass das rechteckige Koordinaten-Gitternetz aus dem Parameterraum
flächentreu über die Fläche gelegt wird.
Im eindimensionalen Fall konnten wir das Skalarprodukt (die Metrik) weiter dazu
verwenden, um unter dem Integral
1-Formen als Skalarprodukt eines Vektors mit den Linienelement dx zu schreiben:
I γ(T) = ∫γ(T) ω
=
∫γ(T)
á
vω(γ(t)), dx
ñ
Dabei konnten wir dx mit der Bogenlänge in Verbindung bringen:
|dx| = ds .
Können wir analog auch bei 2-Formen vorgehen und unsere obige Schreibweise
I γ(T) =
∫T
[ω(γ(t))
( dx1, dx2 )]
=
∫T ∑μν
ωμν(γ(t))
dxμ1 dxν2
mit dem Flächenelement dA in Verbindung bringen?
Nun, zunächst haben wir natürlich von oben bereits
den Zusammenhang dA =
√ det(
g(dxi, dxj) ) ,
d.h. dA ist die Fläche des kleinen Parallelogramms mit den
Kantenvektoren dx1 und dx2 .
Oben haben wir gesehen, wie sich das Integral dann durch Umparametrisierung
als Integral über dA schreiben lässt.
Wir würden aber gerne noch weitergehen und aus den Kantenvektoren
dx1 und dx2 einen
Flächenelement-Vektor dA mit Länge dA machen.
Dann lässt sich vielleicht der Integrand wieder als Skalarprodukt
schreiben, beispielsweise als
á
v, dA
ñ
mit einem geeigneten Vektor v.
Es stellt sich heraus, dass sich unser Ziel erreichen lässt, wenn die Dimension der Mannigfaltigkeit, in der unsere Fläche liegt, um eins größer ist als die Fläche, über die integriert wird. In unserem Fall ist die Fläche zweidimensional (wir integrieren ja eine 2-Form), d.h. die Mannigfaltigkeit muss dreidimensional sein. Die Rolle des Skalarproduktes übernimmt dann die Metrik der Mannigfaltigkeit.
Wenn die Mannigfaltigkeit nur zweidimensional ist und das Integral über ein zweidimensionales Teilgebiet läuft, so kann man eine Einbettung zu Hilfe nehmen und den Einbettungsraum R3 mit seinem euklidischen Skalarprodukt als Mannigfaltigkeit verwenden. Wir wollen diese beiden Fälle im Folgenden nicht unterscheiden. Wichtig ist lediglich, dass wir im Tangentialraum genau eine Dimension mehr zur Verfügung haben, als die Dimension der Differentialform und damit der Integrationsfläche ist.
Schauen wir uns an, wie sich in diesem Fall das Flächenintegral schreiben lässt. Dazu wollen wir zunächst die 2-Form ω in einer speziellen Weise mit Hilfe der Antisymmetrie umschreiben:
ω =
∑μ < ν
ωμν
dxμ Λ dxν
=
=
ω2,3
dx2 Λ dx3
+
ω3,1
dx3 Λ dx1
+
ω1,2
dx1 Λ dx2
(dabei sind wie immer x1, x2 und x3 die Koordinaten auf der Mannigfaltigkeit). Diese Schreibweise lässt sich leicht auf mehr Dimensionen verallgemeinern. Bei 3-Formen im vierdimensionalen Raum wäre z.B. der zweite Summand gegeben durch ω3,4,1 dx3 Λ dx4 Λ dx1 , d.h. man macht immer eine zyklische Rundreise durch alle Koordinaten-Indices, wobei im i-ten Summanden der Index i nicht vorkommt. Das Verfahren funktioniert immer, wenn man eine (n-1)-Form im n-dimensionalen Raum hat.
Wir können nun das Flächenintegral in dieser Schreibweise ausdrücken:
∫γ(T) ω =
=
∫T
[ω2,3
dx2 Λ dx3
+
ω3,1
dx3 Λ dx1
+
ω1,2
dx1 Λ dx2]
(u1(γ(t)), u2(γ(t)))
dt1 dt2
=
=:
∫T
[Ω1
dA1
+
Ω2
dA2
+
Ω3
dA3
]
mit
Ω1 := ω2,3 usw. (zyklisch) sowie
dA1 :=
[dx2 Λ dx3] (u1, u2) dt1 dt2
=
(u12 u23
− u13 u22) dt1 dt2
usw. (zyklisch)
Wenn die Mannigfaltigkeit M der euklidische Raum R3 ist, dann können wir in euklidischen Koordinaten xμ die dAμ als Komponenten des Vektors
dA := dx1 x dx2
ansehen. Dabei ist x das Vektor-Kreuzprodukt (siehe z.B. http://de.wikipedia.org/wiki/Kreuzprodukt ). Man kann zeigen, dass dA senkrecht auf auf dx1 und dx2 steht und dass er auch die richtige Länge hat, d.h. diese Länge ist gleich der durch dx1 und dx2 aufgespannten Parallelogrammfläche. Daher bezeichnet man dA auch als Normalenvektor des Flächenelements. Weiter kann man im euklidischen dreidimensionalen Raum auch die Ωμ als Komponenten eines Vektors Ω ansehen und das Flächenintegral schreiben als
∫γ(T) ω = ∫γ(T) á Ω(γ(t)), dA ñ
Man kann sich vorstellen, dass Ω eine Flüssigkeits-Stromdichte darstellt, und dass á Ω(γ(t)), dA ñ den Durchfluss durch das Flächenelement dA ergibt. Dabei wird durch das Skalarprodukt automatisch berücksichtigt, dass der Durchfluss am größten ist, wenn die Fläche senkrecht (also dA parallel) zum Strom Ω steht.
Bleiben wir im euklidischen dreidimensionalen Raum: Man verwendet dort auch gerne die Schreibweise
dA1 := dx2 Λ dx3 usw. (zyklisch)
ohne diese dAμ in der Schreibweise von den Komponenten des Flächen-Normalenvektors dAμ von oben zu unterscheiden. Das ist analog zur Doppelbedeutung von dxμ bei den 1-Formen. Man muss sich einfach merken: In Flächenintegralen werden aus den 2-Formen dAμ durch Anwenden auf die beiden Tangential-Vektoren u1 dt1 und u2 dt2 die Flächen-Normalenvektor-Komponenten dAμ wie oben angegeben, so dass die korrekte Definition des Flächenintegrals für 2-Formen automatisch entsteht.
Interpretiert man die dAμ als 2-Formen,
so kann man in R3 in euklidischen Koordinaten
die 2-Form ω formal als Skalarprodukt schreiben:
ω =
á
Ω, dA
ñ
in Analogie zur 1-Form-Schreibweise
ω =
á
vω, dx
ñ .
Gilt für eine 1-Form, dass sie die d-Ableitung einer 0-Form
(Funktion) ist, also ω = dΦ , so konnten wir gleichwertig
auch
dΦ =
á
grad Φ, dx
ñ
schreiben.
Bei der d-Ableitung einer 1-Form
ω =
á
vω , dx
ñ
schreiben wir
im euklidischen R3 analog
d á
vω , dx
ñ
=
á
rot vω , dA
ñ
In euklidischen Koordinaten kann man leicht nachrechnen,
dass sich die übliche Definition der Rotation eines Vektorfeldes ergibt.
Etwas weiter unten werden wir auch noch die d-Ableitung einer 2-Form kennenlernen.
Hier ein kurzer Vorgriff darauf:
Wenn wir im R3 in euklidischen Koordinaten
dV := dx1 Λ
dx2 Λ dx3 schreiben,
so ergibt diese d-Ableitung die Form
d á
Ω , dA
ñ
=
á
div Ω , dV
ñ
mit der üblichen Definition der Divergenz eines Vektorfeldes
in euklidischen Koordinaten. Die obigen Formeln machen die anschauliche Bedeutung
der d-Ableitung vielleicht etwas klarer. Wir kommen unten noch einmal darauf zurück.
Anmerkung:
Für die korrekte Definition von dA und Ω
sowie der obigen Beziehungen für Divergenz und Rotation
in krummlinigen Koordinaten
(z.B. in einer gekrümmten dreidimensionalen Mannigfaltigkeit)
muss man sorgfältiger
vorgehen und eine koordinaten-unabhängige Definition
verwenden (die obige Definition benötigte
euklidische Koordinaten). Bei den 1-Formen und dem Gradienten
ist uns dies ja bereits gelungen
(siehe Kapitel 5.1.9: Abstände und Winkel: die Metrik ).
Dafür werden wir den sogenannten Hodge-Sternoperator benötigen.
Wir kommen im nächsten Kapitel darauf zurück.
Integrabilität und d-Ableitung bei 2-Formen (Lemma von Poincaré):
Wir möchten uns nun analog zu den 1-Formen mit den exakten 2-Formen ω befassen, also mit den 2-Formen, die sich in jedem Punkt in dem uns interessierenden Gebiet G der Mannigfaltigkeit M als d-Ableitung einer einzigen 1-Form (Stammform) π darstellen lassen:
ω = dπ
Ausgeschrieben bedeutet das (den d-Operator für 1-Formen hatten wir oben bereits definiert; wir lassen die Argumente wie p und x hier weg):
ω = dπ
=
=
∑ν
dπν Λ dxν
=
= ∑ν
( ∑μ
dπν / dxμ
dxμ )
Λ dxν
=
= ∑μν
dπν / dxμ
dxμ Λ dxν
=
= ∑μ < ν
(dπν / dxμ −
dπμ / dxν)
dxμ Λ dxν
Für die Komponenten bedeutet das für jeden Punkt p
ωμν =
dπν / dxμ −
dπμ / dxν
Bei karthesischen Koordinaten ist dies die Rotation
eines Vektorfeldes.
Wie bei den 1-Formen kann man auch bei den 2-Formen Bedingungen herleiten,
die garantieren, dass eine 2-Form ω exakt ist, also eine Stammform π besitzt.
Die Idee ist vollkommen analog zu den 1-Formen:
Man konstruiert die Stammform π explizit aus ω
durch geeigntete Integration über eine Kurve, die genauso wie bei den
1-Formen von einem beliebigen (aber dann festen) Startpunkt q zum
betrachteten Punkt p führt, wobei die Koordinaten eine Gerade im Koordinatenraum
beschreiben. Daher muss das betrachtete Gebiet wieder sternförmig sein.
Nun muss man wieder nachprüfen, ob ω(p) = dπ(p) für die so konstruierte 1-Form π
gilt. Man findet erneut, dass das genau dann gilt, wenn im Gebiet G die
Bedingungen
dω = 0
erfüllt ist (die relativ lange Rechnung dazu wollen wir hier überspringen;
sie steht in jedem Lehrbuch über Differentialformen).
Dabei ist der d-Operator für 2-Formen in in Analogie zu den 1-Formen definiert:
|
Im dreidimensionalen Raum (euklidische Koordinaten) bedeutet dω = 0 , dass die Divergenz des Vektorfeldes Ω (siehe oben) verschwinden muss. Ein divergenzfreies (also quellenfreies) Vektorfeld lässt sich daher als Rotation eines anderen Vektorfeldes (genannt Vektorpotential) schreiben, wie man als Physiker beispielsweise in der Elektrodynamik lernt. Fassen wir zusammen:
|
Das Ergebnis sieht also formal genauso aus wie bei den 1-Formen, wobei wir Komplikationen wie nicht-triviale Topologien oder die Notwendigkeit mehrerer Koordinatensysteme wieder erst einmal weggelassen haben. Generell können wir uns merken, dass das obige Ergebnis auch in mehr Dimensionen weiter gilt.
Der Integralsatz von Stokes für exakte 2-Formen:
Bei den 1-Formen hatten wir gesehen, dass das Kurvenintegral über die exakte 1-Form dΦ nur von den Φ-Werten am Anfangs- und Endpunkt des Kurvenstücks γ(T) abhängt (wir sprachen vom Rand γ(δT) des Kurvenstücks):
∫γ(T) dΦ = Φ(γ(b)) − Φ(γ(a)) =: ∫γ(δT) Φ
Anschaulich konnten wir uns vorstellen, wie man über viele kleine Kurvenstücke die Φ-Veränderungen dΦ entlang der Kurve aufsummiert und so den Φ-Unterschied zwischen Start- und Zielpunkt bestimmt. Die Form der Kurve dazwischen spielt dabei keine Rolle.
Wie wir sehen werden, kann man dieses Ergebnis auch auf exakte 2-Formen (und generell auf alle höherdimensionalen Differentialformen) übertragen. Wir wollen uns bei den 2-Formen ansehen, wie es dazu kommt, und was unter dem Integral über den Rand zu verstehen ist. Dazu betrachten wir ein Rechteck T im Parameterraum, so dass das Bild γ(t) des Rechtecks die Eckpunkte
p1 = γ(a1, a2)
p2 = γ(b1, a2)
p3 = γ(b1, b2)
p4 = γ(a1, b2)
besitzt. Die Reihenfolge der Punkte ist so gewählt, dass wir im Parameterraum gegen den Uhrzeigersinn um das Rechteck T herumlaufen (dies hat etwas mit dem Begriff der Orientierung zu tun, auf den wir weiter unten noch eingehen). Übrigens muss das Bild γ(t) des Rechtecks T kein Parallelogramm sein, da die Seiten nicht parallel sein müssen im Sinn der Parallelverschiebung (siehe Kapitel 5.1.7: Torsion ). Wir erinnern uns: ein richtiges Parallelogramm kann ja aufgrund von Torsion eine Lücke (wie eine Schraubenversetzung) aufweisen. Das kann bei unserem Rechteck nicht passieren.
Den Rundweg von p1 über p2, p3 und
p4 wieder zurück nach p1 (in dieser Reihenfolge!) wollen wir als
γ(δT) oder als Rand von γ(T) bezeichnen.
Den Rand von T im Parameterraum bezeichnen wir analog als δT .
Im 1-dimensionalen Fall oben wird eine Null-Form Φ über den Rand eines Kurvenstücks integriert, d.h. Anfangs- und Endpunkt werden betrachtet. Analog wollen wir nun im zweidimensionalen Fall eine 1-Form ω über den Rand des Rechtecks integrieren, also über den obigen Rundweg γ(δT) entlang der Rechteck-Kanten. Um das Randintegral ∫δγ(T) ω auszurechnen, teilen wir es in vier Teilintegrale auf, entsprechend den vier Teilwegen entlang der einzelnen Kanten. Die entsprechenden Tangentialvektoren wollen wir wie bisher mit u1 und u2 (ggf. mit Vorzeichen) bezeichnen, je nachdem, ob sie in t1 oder in t2 -Richtung zeigen. Als Kurvenparameter verwenden wir analog entweder t1 oder t1 , je nachdem, in welche Richtung wir laufen. Also haben wir:
∫γ(δT) ω =
=
∫a1b1
[ω(γ(t1, a2))
u1(γ(t1, a2))] dt1
+
+
∫a2b2
[ω(γ(b1, t2))
u2(γ(b1, t2))] dt1
+
−
∫a1b1
[ω(γ(t1, b2))
u1(γ(t1, b2))] dt1
+
−
∫a2b2
[ω(γ(a1, t2))
u2(γ(a1, t2))] dt1
= ...
Die negativen Vorzeichen berücksichtigen, dass die Kanten 3 und 4 entgegen der Parameterrichtung durchlaufen werden. Wir können nun Term 1 und 3 sowie Term 2 und 4 zusammenfassen und die Differenz jeweils durch ein Integral ausdrücken, so dass aus den Differenzen der eindimensionalen Kantenintegrale ein zweidimensionales Integral über das Rechteck T wird. An dieser Stelle kommt der Hauptsatz der Differential- und Integralrechnung ins Spiel, analog zu den Kurvenintegralen oben! Daran erkennt man, dass der Integralsatz von Stokes eigentlich nur eine geschickte Übertragung dieses Hauptsatzes auf mehrdimensionale Integrale ist. Es ergibt sich:
=
∫a1b1 {
[ω(γ(t1, a2))
u1(γ(t1, a2))]
−
[ω(γ(t1, b2))
u1(γ(t1, b2))]
}
dt1
+
+
∫a2b2 {
[ω(γ(b1, t2))
u2(γ(b1, t2))]
−
[ω(γ(a1, t2))
u2(γ(a1, t2))]
}
dt1
=
=
∫a1b1
∫b2a2
{ d [ω(γ(t1, t2))
u1(γ(t1, t2))] / dt2 }
dt1 dt2
+
+
∫a2b2
∫a1b1
{ d [ω(γ(t1, t2))
u2(γ(t1, t2))] / dt1 }
dt1 dt2
= ...
Im ersten Term vertauschen wir die Grenzen b2 und a2 , was ein Minuszeichen bewirkt, und fassen die beiden Integrale zusammen:
= ∫a2b2 ∫a1b1 { d [ω(γ(t1, t2)) u2(γ(t1, t2))] / dt1 − d [ω(γ(t1, t2)) u1(γ(t1, t2))] / dt2 } dt1 dt2 = ...
Zur Vereinfachung der Schreibweise wollen wir wieder (t1, t2) = t sowie ∫a2b2 ∫a1b1 dt1 dt2 = ∫T dμ(t) schreiben:
= ∫T { d [ω(γ(t)) u2(γ(t))] / dt1 − d [ω(γ(t)) u1(γ(t))] / dt2 } dμ(t) = ...
Der Integrand ist identisch mit der Basis-unabhängigen Darstellung von dω(γ(t)) (u1(γ(t)), u2(γ(t)) (siehe oben). Wir haben also:
= ∫T dω(γ(t)) (u1(γ(t)), u2(γ(t)) dμ(t) =
= ∫γ(T) dω
Wir haben also mit dieser sehr einfachen Rechnung gezeigt:
|
Man kann diesen Satz leicht auf andere Parameterbereiche verallgemeinern. So kann man durch Parametertransformationen aus dem Rechteck andere Integrationsgebiete gewinnen. Man kann auch viele sehr kleine Rechtecke verwenden und das gewünschte Integrationsgebiet damit gleichsam pflastern. Die Kantenbeiträge an den gemeinsamen Kanten der Pflasterstücke heben sich dabei gegenseitig auf, so dass nur die Kantenbeiträge am Außenrand der Pflasterfläche übrig bleiben. Die Pflasterfläche muss dabei noch nicht einmal zusammenhängend sein.
Wie weit man diese Verallgemeinerung treiben kann, wollen wir hier nicht untersuchen. Anschaulich können wir uns vorstellen:
|
Auch hier sind Verallgemeinerungen denkbar, z.B. mehrere verträgliche Pflasterungen, Dreiecke statt Rechtecke oder infinitesimal kleine Rechtecke.
Die letzte Bedingung, dass sich die Rand-Integralbeiträge der inneren Kanten aufheben müssen, bedeutet, dass die Fläche orientierbar sein muss. Für das Möbiusband gilt der Integralsatz von Stokes also nicht. Wir werden uns im n-dimensionalen Fall noch einmal genau ansehen, was es mit der Orientierung und Rändern sowie mit den Vorzeichen der einzelnen Randterme auf sich hat. Für den Moment wollen wir uns mit der Anschauung begnügen, die im zweidimensionalen Fall noch einigermaßen funktioniert.
Das Möbiusband ist eine nicht-orientierbare zweidimensionale Fläche (mit Rand). Man kann es aus einem Papierstreifen basteln, bei dem man ein Ende halb verdreht und dann mit dem anderen Ende zusammenklebt. Das Möbiusband hat nur eine Randlinie und nach einem Umlauf wechselt man von der Innenseite auf die Außenseite und umgekehrt.
Veranschaulichung von 2-Formen und p-Formen:
Wir hatten oben eine Veranschaulichung für 1-Formen angegeben, wie man sie beispielsweise in Dan Piponi: On the Visualisation of Differential Forms, December 1998, http://homepage.mac.com/sigfpe/Mathematics/forms.pdf findet. Dabei haben wir eine 1-Form ω in einer n-dimensionalen Mannigfaltigkeit durch (n − 1) -dimensionale Höhenlinien (Flächen) dargestellt. Dahinter stand die Idee, dass eine um einen Punkt p herum definierte skalare Funktion Φ entlang der Höhenlinien bei p konstant ist, und dass der Wert von ω(p) u(p) gleich der Richtungsableitung von Φ in p in u(p)-Richtung ist. Der Wert von ω(p) u(p) entspricht dann der Dichte der Höhenlinien in u(p)-Richtung, also der Zahl der Höhenlinien (mit Vorzeichen), die man bei einem kleinen Schritt in u(p)-Richtung durchstößt (die Schrittlänge wird dabei durch u(p) bestimmt). Ein Kurvenintegral über ω zählt demnach die durchstoßenen Höhenlinien (mit Vorzeichen) auf dem Weg.
Wir wollen dieses Bild nun auf 2-Formen übertragen. Eine 2-Form ω in einer n-dimensionalen Mannigfaltigkeit werden wir also durch (n − 2) -dimensionale Flächen darstellen. Wir wollen diese Flächen als Blätter bezeichnen. Der Wert von ω(p) (u1(p), u2(p)) ist dann durch die Zahl der Blätter gegeben, die von einer kleinen, durch u1(p) und u2(p) aufgespannten Fläche durchstoßen werden. Ein Flächenintegral über ω zählt demnach die von der Fläche durchstoßenen Blätter, wobei noch Vorzeichen ins Spiel kommen können (je nach Orientierung der Tangentialvektoren und der Blätter). Auf Details wollen wir lieber verzichten.
Warum dieses Bild Sinn macht, ist nicht ganz einfach zu begründen -- ich kenne zumindest keine wirklich saubere Begründung. Und: Wenn die Begründungen für Veranschaulichungen zu kompliziert werden, macht die Veranschaulichung selbst oft auch keinen Sinn mehr. Schauen wir uns daher lieber an, wie weit wir mit diesem Bild kommen.
Bei den 1-Formen hatten wir als Mannigfaltigkeit den zweidimensionalen reellen Raum R2 betrachtet. Darin hatten wir uns die 1-Form ω = x dy angesehen. Die Höhenlinien zu dieser 1-Form lagen alle parallel zur x-Achse, und nach rechts kamen ständig neue Höhenlinien dazu.
Schauen wir und nun die 2-Form dω an. Wir wollen dazu die Basis-unabhängige Definition des d-Operators verwenden:
dω(γ(t)) (u1(γ(t)), u2(γ(t))) = d[ω(γ(t)) u2(γ(t))] / dt1 − d[ω(γ(t)) u1(γ(t))] / dt2
In unserem einfachen Fall setzen wir einfach t1 = x und t2 = y sowie u1 = d/dx und u2 = d/dy . Also haben wir:
dω(x,y) (d/dx, d/dy) = d[ω(x,y) d/dy] / dx − d[ω(x,y)) d/dx] / dy
Rechnen wir die eckigen Klammern auf der rechten Seite für ω = x dy aus:
ω(x,y) d/dy = (x dy) d/dy = x
ω(x,y) d/dx = (x dy) d/dx = 0
Dieses Ergebnis konnten wir erwarten, denn die Höhenlinien, die ω darstellen, liegen parallel zur x-Achse,
und es geht nur in y-Richtung bergauf (und zwar mit der Steigung x).
Wir erinnern uns: eine 1-Form angewendet auf einen Tangentialvektor ergibt
die Steigung einer lokal definierten skalaren Funktion in die Tangentialvektor-Richtung.
Genau dies stellt das Höhenlinienbild ja dar.
Nun nimmt die Steigung in y-Richtung proportional zu x zu. Genau diese Veränderung der Steigung misst der erste Term d[ω(x,y) d/dy] / dx (der zweite Term ist sowieso Null). Daher misst der erste Term die Rate, mit der neue Höhenlinien bei wachsendem x hinzukommen, um die Steigung in y-Richtung zu vergrößern. Dies legt die Vermutung nahe, dass dω(x,y) (d/dx, d/dy) etwas mit der Anzahl der neu entstehenden (oder verschwindenden) Höhenlinien zu tun hat. Vermutlich kommen auch noch Vorzeichen hinzu, je nachdem, ob Höhenlinien entstehen oder verschwinden. Da die Höhenlinien bei einer n-dimensionalen Mannigfaltigkeit (n − 1) -dimensionale Flächen sind, sind die Anfangs- oder Endkanten dieser Flächen (n − 2) -dimensionale Objekte. Wir wollen diese Anfangs- oder Endkanten als Blätter der 2-Form dω interpretieren. Damit erhält der d-Operator eine recht anschauliche Bedeutung
Diese Interpretation macht sogar den Integralsatz von Stokes anschaulich verständlich: In unserem zweidimensionalen Beispiel ω = x dy ist das Integral ∫G dω gleich der Zahl der Anfangspunkte für die im Gebiet G neu entstehenden Höhenlinien. Diese Höhenlinien durchstoßen den Rand von G. Daher wird ihre Zahl auch vom Randintegral ∫δG ω erfasst, d.h. es muss ∫G dω = ∫δG ω sein.
Auch auf p-Formen (Näheres dazu siehe unten) kann man diese Veranschaulichung übertragen: Sie werden durch (n − p) -dimensionale Blätter dargestellt, und p-dimensionale Flächenintegrale entsprechen der Zahl der Blätter, die von der p-dimensionalen Fläche durchstoßen werden, wobei noch Regeln für die Vorzeichen beachtet werden müssen (abhängig von der Orientierung von Blättern und Flächenstück). Wir werden hier allerdings nicht weiter darauf eingehen, zumal unsere Anschauung bei mehr Dimensionen sowieso schnell an ihre Grenzen stößt.
Man muss bei der obigen Veranschaulichung etwas aufpassen (siehe z.B. David Bachman: A Geometric Approach to Differential Forms, http://pzacad.pitzer.edu/~dbachman/forms.pdf ). Die Vorstellung, eine p-Form im n-dimensionalen Raum durch (n − p) -dimensionale Blätter darzustellen, gilt im Allgemeinen nur lokal. Man kann sich vorstellen, dass man die Mannigfaltigkeit in sehr viele sehr kleine n-dimensionale Parzellen einteilt, und in jeder dieser Parzellen (n − p) -dimensionale zueinander parallele Flächen (Blätter) einzeichnet, die durch ihre Dichte den dortigen Wert ω(p) der p-Form ω repräsentieren. Diese parallelen Blätter werden durch diejenigen Tangentialvektoren v(p) aufgespannt, für die ω(p) v(p) = 0 gilt (denn ein solcher Tangentialvektor durchstößt dann gar keine Blätter von ω, da er ja parallel zu den Flächen liegt). Man sagt auch, die lokalen Blätter werden vom Kern der p-Form aufgespannt.
Wenn wir nun die Gesamtheit dieser vielen Parzellen der Mannigfaltigkeit betrachten und uns den Grenzübergang zu unendlich kleinen Parzellen vorstellen, so ergeben die sehr vielen lokal definierten Flächen ein sogenanntes Flächenfeld (plane field). Dieses Flächenfeld korrespondiert zu unserer p-Form ω, denn die Richtung der Flächen in einem Punkt p entspricht dem Kern der linearen Abbildung ω(p) (d.h. die Tangentialvektoren mit ω(p) v(p) = 0 spannen die Flächen auf), und ihre Dichte legt den Wert von ω(p) u(p) fest (entsprechend der Anzahldichte der von u(p) durchstoßenen Flächen).
Bleibt die Frage, ob man all diese in den kleinen Parzellen definierten Flächenstücke nicht an den Parzellengrenzen jeweils zusammenkleben kann, so dass beim Übergang zu unendlich kleinen Parzellen daraus (n − p) -dimensionale Flächen werden, die die gesamte Mannigfaltigkeit durchziehen. Die Mannigfaltigkeit würde durch diese Flächen gleichsam in (unendlich dünne unendlich viele) Schichten zerlegt (man spricht in der englischsprachigen Literator von foliations). Falls das geht, sagt man auch, das Flächenfeld ist integrabel.
Im R2 ist die Antwort auf diese Frage positiv: Dort ist jedes Flächenfeld (oder besser: Linienfeld) integrabel.
Im dreidimensionalen Raum gilt diese Aussage allerdings nicht mehr. Man findet beispielsweise: Ein Flächenfeld im R3, das zu einer 1-Form ω gehört, kann nur dann integrabel sein, wenn ω Λ dω = 0 gilt.
Hier ist ein Beispiel für eine 1-Form in R3, die ein nicht-integrables Flächenfeld besitzt (ein solches Flächenfeld nennt man auch Kontaktstruktur (contact structure) ):
ω = x dy + dz
Bei x = 0 ist dies einfach gleich dz , dargestellt durch Flächen senkrecht zur z-Richtung. Je größer x wird, umso wichtiger wird der Term x dy , der für sich einem Flächenfeld entspricht, bei dem die Flächen senkrecht zur y-Richtung stehen und mit wachsendem x immer dichter werden (die Grafik dazu hatten wir bereits weiter oben). Zusammengenommen bedeutet das: Je größer x wird, umso mehr kippen die Flächen senkrecht zur y-Richtung, und umso dichter werden sie. In y- und z-Richtung ändert sich dagegen nichts. Die lokal definierten Flächen dieser 1-Form lassen sich nirgends zu global definierten Flächen zusammensetzen, die den Raum in Schichten aufteilen. Das folgende Bild zeigt, dass jeder Versuch zu Überschneidungen in den Flächen führen muss:
p-Formen:
Bei den obigen Betrachtungen zu 2-Formen konnten wir sehen, dass
sich die meisten Aussagen problemlos auf mehrdimensionale Flächen
übertragen lassen. An die Stelle von 2-Formen treten dann die
p-Formen, also p-lineare Abbildungen ω von p Tangentialvektoren
in die reellen Zahlen. So wie jede 2-Form antisymmetrisch in den beiden
Argumenten sein muss, so muss analog jede p-Form antisymmetrisch bei Vertauschung
zweier beliebiger Argumente sein.
Man nennt eine solche Abbildung total antisymmetrisch
oder schiefsymmetrisch oder auch alternierend.
Anders ausgedrückt: Bei Vertauschungen der Argumente verhält sich eine
p-Form genauso wie sich eine Determinante mit p Spalten bei Spaltenvertauschungen
verhält. Damit stellen wir sicher, dass mehrdimensionale Flächenintegrale
über p-Formen wieder unabhängig von der Flächenparametrisierung sind (abgesehen von der
Orientierung), und dass der Integralsatz von Stokes auch für p-Formen gilt.
Die Details schauen wir uns weiter unten an.
Weiter oben hatten wir uns bereits mit dem Begriff der Permutation beschäftigt. Wenn wir nun in einer p-Form die p Argumente ui, uj, uk, ... solange untereinander vertauschen, bis sich die Reihenfolge u1, u2, u3, ... ergibt, so führt jede Vertauschung zu einem Vorzeichenwechsel. Das Vorzeichen, das sich so insgesamt ergibt, hatten wir als Signum der Permutation bezeichnet. Es gilt also:
ω(ui, uj, uk, ...) = sign(i, j, k, ...) ω(u1, u2, u3, ...)
Natürlich kann man auch eine p-Form wieder nach
Basisformen dxμ Λ dxν Λ dxρ Λ ...
entwickeln (mit p verschiedenen Indices):
ω =
∑μ < ν < ρ < ...
ωμ, ν, ρ, ...
dxμ Λ dxν Λ dxρ Λ ...
Dabei ist
ωμ, ν, ρ, ...
= ω(d/dxμ, d/dxν, d/dxρ, ...)
und
[ dxμ Λ dxν Λ dxρ Λ ... ]
(u1, u2, u3, ...)
ist die Determinanten mit der Matrix, die in der k-ten Spalte die Einträge
ukμ, ukν, ukρ, ...
hat. Wir verzichten hier auf den etwas mühsamen Beweis dieser Aussagen, da die Ideen
dieselben sind wie bei den 2-Formen.
Die äußere Ableitung (d-Operator) kann man auf einer (p − 1) -Form ω in der Basis-abhängigen Schreibweise vollkommen analog zu den 2-Formen definieren:
dω = ∑μ < ν < ρ < ... dωμ, ν, ρ, ... Λ dxμ Λ dxν Λ dxρ Λ ...
Für die Basis-unabhängige Schreibweise schreiben wir wieder t := (t1, t2, ... , tp) und verwenden eine Flächenparametrisierung γ(t) (also eine Abbildung der p reellen Parameter in die Mannigfaltigkeit M). Die Tangentialvektoren nennen wir wie immer ui(γ(t)) . Sie entsprechen jeweils der Richtungsableitung in ti-Richtung. Damit haben wir:
dω(γ(t)) (u1(γ(t)), u2(γ(t)), ..., up(γ(t))) =
=
d[ω(γ(t))
(u2(γ(t)), u3(γ(t)),
... , up(γ(t)))] / dt1
+
−
d[ω(γ(t)) (u1(γ(t)), u3(γ(t)),
... , up(γ(t)))] / dt2
+
+
d[ω(γ(t)) (u1(γ(t)), u2(γ(t)),
... , up(γ(t)))] / dt3
+
− ....
+
+
d[ω(γ(t)) (u1(γ(t)), u2(γ(t)), ... ,
up − 1(γ(t)))] / dtp (− 1)p − 1
=
= ∑i = 1p (− 1)i − 1 d[ω(γ(t)) ({ohne ui(γ(t))})] / dti =
= ∑i = 1p (− 1)i − 1 ui(γ(t)) [ω(γ(t)) ({ohne ui(γ(t))})]
Man findet diese Formel beispielsweise in Wikipedia: Exterior derivative, http://en.wikipedia.org/wiki/Exterior_derivative . Dabei ist zu beachten, dass in unserem Fall die dort auftretende Lie-Klammer [ui, uj] = 0 ist, denn wir können ja die ti als Koordinaten ansehen, so dass in diesen Koordinaten ui = d/dti ist. Die Ableitungen d/dti und d/dtj vertauschen aber miteinander, d.h. die ui bilden eine holonome Basis des Tangentialraums. Wäre die Lie-Klammer ungleich Null, so kämen noch Terme mit Lie-Klammern dazu.
In der Formel oben wechselt das Vorzeichen von Term zu Term, und es fehlt im i-ten Term (der Term, in dem nach ti abgeleitet wird) im Argument jeweils der i-te Tangentialvektor (dies soll die Schreibweise {ohne ui(γ(t))} ausdrücken). Den Beweis, dass sich daraus die obige Basis-abhängige Form reproduzieren lässt, wollen wir uns hier ersparen (für p = 2 hatten wir den Beweis weiter oben explizit durchgeführt). Schauen wir uns lieber einige Spezialfälle an:
Für p = 2 erhalten wir unsere alte Formel für die Ableitung einer 1-Form zurück:
dω(u1, u2) =
u1 [ω u2] −
u2 [ω u1]
Die Antisymmetrie in u1 und u2 ist direkt zu sehen.
Schauen wir uns den Fall p = 3 an:
dω(u1, u2, u3) =
u1 ω(u2, u3) −
u2 ω(u1, u3) +
u3 ω(u1, u2)
Die Antisymmetrie bei Vertauschung von u1 und u2
bzw. Vertauschung von u2 und u3 ist wieder direkt zu sehen.
Bei Vertauschung von u1 und u3 muss man etwas genauer hinschauen:
Der zweite Term ist dabei antisymmetrisch.
Erster und dritter Term ergeben nach Vertauschung:
u3 ω(u2, u1) +
u1 ω(u3, u2) =
=
− u3 ω(u1, u2) −
u1 ω(u2, u3) =
=
−
{ u1 ω(u2, u3)
+
u3 ω(u1, u2) }
d.h. auch hier haben wir Antisymmetrie.
Analog kann man auch für höhere p-Werte die Antisymmetrie nachweisen.
Man kann zeigen, dass auch für p-Formen das Lemma von Poincaré gilt, d.h. auf einer sternförmigen Menge folgt aus dω = 0 die Existenz einer Stammform π mit dπ = ω .
Auch die Definition der p-dimensionalen Flächenintegrale lässt sich von 2-Formen problemlos auf p-Formen erweitern. Dazu braucht man p reelle Parameter t = (t1, t2, ..., tp) aus einem p-dimensionalen reellen Parameterbereich T sowie wie bei den 2-Formen eine Parametrisierungsfunktion γ. Das Flächenintegral ist dann gegeben durch
I γ(T) := ∫T [ω(γ(t)) (u1(γ(t)), u2(γ(t)), ... , up(γ(t)))] dμ(t)
mit dμ(t) = dt1 dt2 ... dtp . Bei einem orientierungserhaltenden Parameterwechsel (d.h. die Determinante der Jacobimatrix des Parameterwechsels ist positiv) ändert sich der Wert dieses Integrals nicht. Der Beweis verläuft vollkommen analog zum zweidimensionalen Fall.
Ist eine (positiv definite) Metrik vorhanden, so lassen sich die Überlegungen zum Flächenmaß von oben ebenfalls direkt auf p-Formen übertragen. Aus dem Flächenmaß wird dann ein entsprechendes p-dimensionales Volumenmaß. Die Gramsche Matrix G ist dann eine p-mal-p-Matrix mit Komponenten Gij = g(ui, uj) .
Der Integralsatz von Stokes für exakte p-Formen:
Der Integralsatz von Stokes gilt auch im p-dimensionalen Fall (warum, werden wir noch sehen):
|
Hier tauchen nun einige Begriffe auf, die noch genauer definiert werden müssen. Man kann dies z.B. tun, indem man die Unter-Mannigfaltigkeit in Teile aufteilt, die jeweils eine Parametrisierung γ besitzen. Den zugehörigen Parameterbereich T teilt man in p-dimensionale Quader auf. Nun zeigt man für einen quaderförmigen Parameterbereich, dass der Satz von Stokes gilt, so wie wir dies bei den 2-Formen für das Rechteck getan haben. Setzt man nun die Quader zusammen, so heben sich die Randterme für die zusammenstoßenden Randflächen auf, da sie jeweils das entgegengesetzte Vorzeichen tragen (das gilt, wenn die Unter-Mannigfaltigkeit orientierbar ist, was man zugleich auch als Definition für den Begriff orientierbar ansehen kann). Es bleiben also insgesamt nur die Terme der äußeren Quader-Randflächen übrig. Der Rand der Unter-Mannigfaltigkeit wird entsprechend durch diese äußeren Quader-Randflächen parametrisiert, wobei man noch aufpassen muss, wie die Mannigfaltigkeit sich aus den verschiedenen parametrisierbaren Teilen zusammensetzt.
Diese Methode ist zwar recht anschaulich, aber technisch kompliziert. Deshalb wird zumeist eine andere Methode angewendet, um die obigen Begriffe zu definieren und den Satz von Stokes zu beweisen. Diese Methode trägt den Namen Zerlegung der Eins. Dazu überdeckt man das Integrationsgebiet G auf der Mannigfaltigkeit mit endlich vielen, hinreichend kleinen, einander teilweise überlappenden offenen Mengen Uk (das geht, da wir das Integrationsgebiet als kompakt vorausgesetzt haben; die Uk sind dabei Untermengen der Mannigfaltigkeit M). Achtung: da die Mengen Uk als offen vorausgesetzt werden, besitzen sie keinen Rand! Damit liegt nun jeder Punkt des Integrationsgebietes G in mindestens einem (randlosen) Uk. Die Uk dürfen dabei ruhig über den Rand des Integrationsgebietes hinausreichen (müssen sie sogar, da sie keinen Rand besitzen). Die Überdeckung der Mannigfaltigkeit mit sich überlappenden offenen Mengen (ohne Rand) ersetzt das obige Aufteilen der Mannigfaltigkeit in nicht-überlappende Teile (ggf. mit Rand). Für praktische Berechnungen wird man natürlich immer die Mannigfaltigkeit in geeignete Teile zerschneiden; für die folgende theoretische Diskussion ist aber das Überdecken mit offenen Mengen einfacher. Dabei werden wir jede der Mengen Uk so klein wählen, dass der von ihr überdeckte Teil von G sich auf einfache Weise parametrisieren lässt -- das ist der Sinn dieser Überdeckung!
Als Nächstes wollen wir die Integrale ∫G dω und ∫δG ω in Teilintegrale aufteilen, so dass das k-te Teilintegral nur über den Teil von G bzw. δG integriert, der zu dem zugehörigen Uk dazugehört. Das können wir erreichen, indem wir den Integranden mit einer sanften Einschaltfunktion gk versehen, die nur in Uk ungleich Null (genauer: größer als Null) ist. Außerdem soll für jeden Punkt p aus dem Integrationsgebiet G
∑k gk(p) = 1
gelten (daher kommt der Ausdruck Zerlegung der Eins). Dies stellt eine Art Normierung für die gk dar. Wenn also insbesondere ein Punkt p nur in einem einzigen Uk liegt, so ist dort gk(p) = 1 .
Wir können nun wie beabsichtigt
jede Differentialform ω, die auf dem Integrationsgebiet G definiert ist,
in einzelne Summanden
ω = ( ∑k gk ) ω = ∑k ( gk ω )
aufteilen, so dass jeder Summand gk ω nur in dem Teil des Integrationsgebietes G ungleich Null ist, der auch gleichzeitig im zugehörigen Uk liegt. Da das Integral linear ist, gilt damit auch
∫G ω = ∫G ∑k gk ω = ∑k ∫G gk ω
(wir werden noch sehen, dass genau genommen durch diese Gleichung das Integral ∫G ω erst definiert wird). Wichtig ist nun, dass in den Integralen rechts jeder Integrand gk ω nur in dem Teil von G ungleich Null ist, der vom zugehörigen Uk überdeckt wird. Wir fordern nun, dass wir die Überdeckung so wählen können, dass jeder von Uk überdeckte Bereich von G eine einfache Parametrisierung γ besitzt (genau müssten wir γk schreiben, da jeder Bereich seine eigene Parameterfunktion besitzt). Damit meinen wir folgendes:
Diese Aussagen definieren im Grunde den Begriff berandete orientierbare Untermannigfaltigkeit erst sauber. Wir erkennen hier die Definition der Mannigfaltigkeit aus Kapitel 5.1.3 Mannigfaltigkeiten wieder. Dabei spielt die Umkehrfunktion γ-1 der Parametrisierung die Rolle der Koordinatenfunktion f, denn wir können den Parametervektor t als Koordinatenvektor des Punktes γ(t) ansehen. Die von den einzelnen Uk überdeckten Bereiche von G entsprechen dann den Bereichen der Mannigfaltigkeit mit verschiedenen Koordinatensystemen. Nur eines ist neu: der Begriff des Randes von G. Die obige Überlegung umfasst übrigens auch Gebiete G ohne Rand, denn dann werden einfach ausschließlich offene Parametermengen verwendet.
Da nun jeder Integrand gk ω nur in dem Teil von G ungleich Null ist, der vom zugehörigen Uk überdeckt wird, und da dieser Bereich eine einfache Parametrisierung γ besitzt (so wie gerade beschrieben), können wir nun jedes Integral ∫G gk ω mit Hilfe dieser Parametrisierung wie gehabt definieren:
∫G gk ω := ∫γ(T) gk ω
(genauer müssten wir natürlich wieder γk(Tk) schreiben, aber wir wollen die Schreibweise nicht überfrachten). In dem Ausdruck rechts ist also die Parametrisierung des von dem jeweiligen Uk überdeckten Teils von G konkret einzusetzen, so wie wir das von oben ja kennen. Das Gesamtintegral ∫G ω ist dann durch die Summe all dieser Integrale definiert. Dies macht Sinn, da man zeigen kann, dass jede beliebige Überdeckung mit den obigen Eigenschaften (mit zugehörigen Funktionen gk ) denselben Wert für das Gesamtintegral ergibt (der Beweis ist einfach, aber wir wollen ihn hier überspringen).
Wir wollen diese Überlegung nun dazu nutzen, um den Integralsatz von Stokes ∫δG ω = ∫G dω zu beweisen. Dazu müssen wir die beiden Integrale wie gerade gesehen durch die Zerlegung der Eins aufteilen, die Parametrisierungen konkret einsetzen und die einzelnen Summanden ausrechnen.
Für den links stehenden Ausdruck ∫δG ω ist die Zerlegung unmittelbar möglich, denn auch δG ist eine Mannigfaltigkeit, die von den Uk überdeckt wird (denn δG ist eine Unter-Mannigfaltigkeit von G). Als Parametrisierungsfunktionen dienen die einzelnen γ-Funktionen, und als Parameterbereiche dienen die Schnittflächen δT der einzelnen T-Mengen, also der Teil von T mit t1 = 0 . Also haben wir:
∫δG ω = ∫δG ∑k gk ω = ∑k ∫δG gk ω = ∑k ∫γ(δT) gk ω
Anmerkung: Falls es keinen Rand von G gibt, so ist einfach ∫δG ω = 0 zu setzen.
Analog wollen wir auch das andere Integral ∫G dω aufteilen. Zunächst einmal haben wir wieder (wie zuvor beim Integral ∫G ω ):
∫G dω = ∫G ∑k gk dω = ∑k ∫G gk dω
(im Grunde definiert diese Gleichung ja erst das Integral ∫G dω ). Die Summe ∑k gk dω können wir allerdings noch umschreiben: Statt die Zerlegung der Eins (also 1 = ∑k gk ) vor dem d-Operator einzuschieben, können wir sie auch hinter dem d-Operator einschieben:
Einschieben vor dem d-Operator ergab:
dω =
(∑k gk) dω
=
∑k gk dω
Einschieben nach dem d-Operator ergibt
wegen der Linearität des d-Operators:
dω =
d {(∑k gk) ω}
=
d (∑k gk ω)
=
∑k d(gk ω)
so dass wir folgendes Ergebnis haben:
∑k gk dω = ∑k d(gk ω)
Wir können das Integral über dω daher auch so schreiben:
∫G dω = ∫G ∑k d(gk ω) = ∑k ∫G d(gk ω)
Die einzelnen Integrale rechts sind wieder über die Parametrisierung definiert, die jeweils zu dem von Uk überdeckten Teil von G gehört, denn nur dort ist d(gk ω) ungleich Null ( gk soll ja in ganz G differenzierbar sein, so dass es in den Überlappungsbereichen an den Grenzen von Uk ohne Ecken auf Null abfällt):
∫G d(gk ω) = ∫γ(T) d(gk ω)
Nun sind wir am Ziel: Wir können den Satz von Stokes ∫δG ω = ∫G dω schreiben als
∑k ∫γ(δT) gk ω = ∑k ∫γ(T) d(gk ω)
Wenn wir die Gleichheit für die einzelnen Summanden zeigen können, so wäre damit auch die Gültigkeit dieser Gleichung gezeigt, und wir hätten den Satz von Stokes bewiesen. Versuchen wir also,
∫γ(δT) gk ω = ∫γ(T) d(gk ω)
zu beweisen, indem wir die Integrale mit Hilfe der Parametrisierung konkret ausschreiben. Beginnen wir mit dem Integral auf der rechten Seite und verwenden wir von oben die Basis-unabhängige Formel dür den d-Operator (das Argument γ(t) lassen wir teilweise weg und wir schreiben später dμ(t) explizit aus als dμ(t) = dt1 dt2 ... dtp ):
∫γ(T) d(gk ω) =
= ∫T d(gk ω)(u1, ... , up) dμ(t) =
= ∫T ∑i = 1p (− 1)i − 1 d[(gk ω) ({ohne ui})] / dti dμ(t) =
= ∑i = 1p (− 1)i − 1 ∫T d[(gk ω) ({ohne ui})] / dti dt1 dt2 ... dtp = ...
Die Integration über die konvexe Parametermenge T bedeutet nun, dass der Parameter ti von einem kleinsten Wert ai bis zu einem größten Wert bi läuft. Wir wollen dieses Integral über ti zuerst ausführen, wobei wir den Hauptsatz der Differential- und Integralrechnung verwenden:
= ∑i = 1p (− 1)i − 1 ∫ dt1 dt2 ... dtp (ohne dti) ∫aibi dti d[(gk ω) ({ohne ui})] / dti =
= ∑i = 1p (− 1)i − 1 ∫ dt1 dt2 ... dtp (ohne dti) { [(gk ω) ({ohne ui})]ti = bi − [(gk ω) ({ohne ui})]ti = ai } = ...
Wir brauchen also für gegebenes i und bei festgehaltenen Werten für die anderen Parameter den Wert von [(gk ω) ({ohne ui})] an den Stellen ti = bi und ti = ai . Diese Parameterpunkte liegen jeweils an der Grenze des Integrationsgebietes T, denn sie entsprechen dem minimalen und maximalen Wert des Parameters ti (bei festgehaltenen Werten für die anderen Parameter). Nun können diese Grenz-Parameterpunkte zu T gehören oder auch nicht. Das bedeutet: Falls Uk kein Randstück überdeckt, ist T offen und die Grenz-Parameterpunkte gehören nicht zu T. Im anderen Fall geht T aus einer offenen Menge T' hervorgeht, bei der alle Punkte mit t1 > 0 weggeschnitten wurden. Daher gehören dann nur die Grenz-Parameterpunkte mit t1 = 0 zu T dazu (sie liegen auf der Schnittfläche δT ). Nur für t ∈ δT (also auf dem Rand) erlauben wir, dass gk ω ungleich Null sein darf! Die anderen Grenz-Parameterpunkte gehören dagegen entweder zu Grenzen der Uk im Inneren von G (dann muss gk gleich Null sein) oder zur Grenze von G (dann muss ω gleich Null sein). Vorsicht: Der Begriff Grenze soll andeuten, dass diese Punkte nicht mehr dazu gehören (anders als der Rand). Möchte man an der Grenze von G aber ω ungleich Null haben, so muss man diese Grenze mit zu G hinzunehmen und so aus ihr einen Rand von G machen. Die Uk und die Parametrisierungen müssen dann so gewählt werden, dass dieser Rand durch die jeweilige Parameter-Schnittfläche mit t1 = 0 parametrisiert wird. Ein Beispiel: Wenn G das offene Intervall von 0 bis 1 ist, so muss ω bei 0 und bei 1 gleich Null sein. Will man ω an diesen Grenzpunkten ungleich Null haben, so muss man für G das geschlossene Intervall von 0 bis 1 wählen, so dass 0 und 1 zum Rand von G werden. Genau so ist der Integralsatz von Stokes zu verstehen!
Schauen wir uns also die Summe oben an.
Falls Uk kein Randstück überdeckt, ist gk ω
an den Grenz-Parameterpunkten gleich Null, und die ganze Summe ergibt demnach auch Null.
Wir werden diesen Fall später einfach dadurch berücksichtigen, dass wir für die Parameter-Schnittfläche
δT die leere Menge nehmen.
Falls aber Uk ein Randstück überdeckt,
so bleibt in
der Summe oben nur der Term mit i = 1 übrig,
also der Term mit t1 = b1 = 0 .
Nur dort befinden wir uns nämlich auf dem Rand δT .
Hier zeigt sich, wie günstig die Vorgehensweise mit der Zerlegung der Eins
und der speziellen Wahl der Parametrisierung ist!
Man muss sich (anders als bei der Würfel-Vorgehensweise) nicht ständig
mit vielen Termen und Vorzeichen herumschlagen!
Schreiben wir also unser Ergebnis auf:
= ∫ dt2 ... dtp [(gk ω) (u2, ... , up)]t1 = 0 =
= ∫δT [(gk ω) (u2, ... , up)] dt2 ... dtp =
= ∫γ(δT) gk ω
Damit ist also gezeigt, dass ∫γ(δT) gk ω = ∫γ(T) d(gk ω) gilt. Also gilt die Gleichheit auch für die Summe dieser Terme ∑k ∫γ(δT) gk ω = ∑k ∫γ(T) d(gk ω) und schließlich auch ∫δG ω = ∫G dω . Der Integralsatz von Stokes ist damit bewiesen, und alle darin vorkommenden Begriffe sind im Beweisverlauf sauber definiert worden!
Wie wir gesehen haben, ist der Beweis eigentlich recht einfach. Wenn man die Vorüberlegung mit der Überdeckung von G durch die Uk und das zugehörige Ein- und Ausblenden von ω durch die Funktionen gk erst einmal gemacht hat, ist die nachfolgende Rechnung recht kurz und übersichtlich, denn in jedem Teilbereich können wir eine für unsere Zwecke ideal passende Parametrisierung wählen.
Aus dem Beweis kann man noch eine wichtige Informationen ablesen: Die Orientierung von G induziert eine Orientierung des Randes δG. Grund: In jeder von einem Uk überdeckten Teilmenge von G induziert die Parametrisierung (definiert durch die Funktion γ und die Parametermenge T) eine Orientierung (legt also das Vorzeichen des Integrals fest). Dieselbe Parametrisierung können wir aber auch für den Rand δG verwenden, indem wir den Parameterraum auf δT einschränken. Daher induziert sie auch eine Orientierung auf dem Rand δG (legt also das Vorzeichen des Randintegrals fest). Nur mit dieser induzierten Orientierung gilt der Integralsatz von Stokes in der obigen Form (also mit diesem Vorzeichen).
Schauen wir uns die Parametrisierungen unter diesem Blickwinkel noch einmal an: Wenn ein Uk einen Teil von G mit Rand überdeckt, so haben wir diesen Teil von G mit Hilfe der Parametermenge T und der Funktion γ parametrisiert. Der Parametervektor lautet (t1, t2, ... , tp) mit t1 ≤ 0 . Der Rand von G wird dann durch die Parameter (0, t2, ... , tp) dargestellt. Wenn wir mit t1 bei negativen Werten starten und den Wert langsam vergrößern, so durchstoßen wir bei t1 = 0 den Rand von G und verlassen G. Der Tangentialvektor u1 , der auf G einer Ableitung in t1-Richtung entspricht, zeigt also in den Randpunkten von G nach außen. Dies wird in anderen Texten häufig dazu verwendet, um die Orientierung von δG festzulegen. Tatsächlich kommt es auf die anderen Parameter gar nicht an, denn sie verlaufen ja im Inneren und auf dem Rand in derselben Weise. Lediglich der Parameter, der auf dem Rand einen konstanten Wert annimmt, ist entscheidend: er muss von innen nach außen anwachsen und bei einem gewissen maximalen Wert den Rand durchstoßen. Für eine Vollkugel beispielsweise könnten wir Kugelkoordinaten θ, φ und r verwenden. Die Winkel θ und φ parametrisieren die Kugeloberfläche sowie (zusammen mit dem Radius r) das Kugelinnere. Der Radius r entspricht dem Parameter t1 (bis auf eine additive Konstante). Da r den maximalen Wert auf der Kugeloberfläche annimmt (also auf dem Rand der Vollkugel), passen diese Parameter und die durch sie induzierten Orientierungen zu unserer Formulierung des Stokes'schen Integralsatzes.
Damit sind wir am Ende dieses umfangreichen und sicher nicht ganz einfachen Kapitels
angekommen. Ich hoffe, ich konnte dem Leser den Begriff der Differentialformen
etwas näher bringen und zeigen, dass man auch einen Satz wie den Integralsatz
von Stokes verstehen kann und dass ihm keineswegs ein verschlungener und
unzugänglicher Beweis zugrunde liegt.
Im nächsten Kapitel wollen wir uns dann noch etwas weiter mit
Differentialformen befassen und den Hodge-Stern-Operator und seine Verbindung
zu Divergenz und Rotation kennenlernen.
Literatur zu dem Thema:
last modified on 30 December 2008