Das letzte Kapitel hat uns zwei Möglichkeiten gezeigt, wie man zu einer vorgegebenen klassischen Theorie eine Quantentheorie konstruieren kann, die im klassischen Grenzfall in die klassische Theorie übergeht. Die klassische Theorie wird dabei über ein Wirkungsfunktional und das Prinzip der kleinsten Wirkung formuliert.
Die erste Möglichkeit zur Quantisierung trägt den Namen kanonische Quantisierung. Dazu wird zunächst die klassische Theorie umformuliert: Ausgehend von der Lagrangefunktion im Wirkungsfunktional der klassischen Theorie werden mit Hilfe der Legendre-Transformation sogenannte kanonisch konjugierte Variablen und eine Hamiltonfunktion im Phasenraum definiert. Die Bewegungsgleichungen können dann mit Hilfe der Poissonklammer auf dem Phasenraum formuliert werden. In der zugehörigen Quantentheorie werden die Operatoren analog zu den klassischen Phasenraum-Funktionen aufgestellt. Die Poissonklammern werden durch Kommutatoren mit Vorfaktor ersetzt und definieren so die zeitliche Dynamik der Quantentheorie. Aus der Hamiltonfunktion wird dabei der Hamiltonoperator, der die zeitliche Dynamik bestimmt.
Die zweite Möglichkeit stammt von Richard Feynman (aufbauend auf Arbeiten von Paul Dirac) und wird als Pfadintegralmethode bezeichnet. Hier formuliert man die zeitliche Dynamik der Quantentheorie über Propagatoren. Der Propagator wird nun als Pfadintegral formuliert, d.h. es wird ein Integral über alle Möglichkeiten aufgestellt, die zu der Propagation (z.B. der Teilchenbewegung) beitragen können. Die komplexe Phase jeder dieser Möglichkeiten ist dabei bestimmt durch das Wirkungsfunktional dieser Möglichkeit, dividiert durch das Plancksche Wirkungsquantum. Bei sehr großen Wirkungen tragen daher nur noch die Möglichkeiten in der Nähe der klassischen Lösung konstruktiv zum Pfadintegral bei, d.h. die Möglichkeiten mit ungefähr minimaler Wirkung. Auf diese Weise wird der Übergang zum klassischen Grenzfall besonders schön sichtbar. Wir werden uns die Pfadintegralmethode allerdings erst im nächsten Kapitel ansehen.
Wir haben beide Methoden im Rahmen der klassischen nichtrelativistischen Mechanik eines Teilchens kennengelernt. Die zugehörige Quantentheorie wird als nichtrelativistische Quantenmechanik (eines Teilchens) bezeichnet. Nun wollen wir einen Schritt weiter in Richtung Eichtheorie gehen und versuchen, die einfachste Eichtheorie zu quantisieren: die relativistische Elektrodynamik ohne elektrische Ladungen, also die Beschreibung freier elektromagnetischer Felder (z.B. elektromagnetische Wellen) im Rahmen der speziellen Relativitätstheorie. Die entsprechende Quantentheorie wird als Quantenelektrodynamik (ohne geladene Teilchen) bezeichnet. Dabei wollen wir die elektrischen Ladungen so spät wie möglich weglassen – zunächst werden wir also die volle klassische Elektrodynamik inKlusive Ladungen betrachten.
Die Elektrodynamik ist die Theorie der elektrischen und magnetischen Kräfte, Ladungen und Felder. Die Bewegungsgleichungen dieser Theorie sind die Maxwell-Gleichungen, die der schottische Physiker James Clerk Maxwell in den Jahren zwischen 1861 und 1864 aufgestellt hat.
Diese Gleichungen beschreiben vollständig die physikalischen Gesetze der elektrischen und magnetischen Kräfte, indem sie den Begriff des elektrischen und magnetischen Feldes verwenden. Dabei zeigt sich, dass elektrische und magnetische Kräfte bei einem Bezugssystemwechsel ineinander übergehen, und dass dabei die Postulate der speziellen Relativitätstheorie erfüllt sind. Man kann elektrische und magnetische Felder nur gemeinsam beschreiben und spricht daher auch allgemeiner von der elektromagnetischen Wechselwirkung.
Im Einzelnen sagen die Maxwellgleichungen Folgendes (siehe z.B. Das Unteilbare, Kap.2.4 Kräfte und Wechselwirkungen ):
Das elektrische Feld \( \boldsymbol{E} \) wird durch seine Kraftwirkung \( \boldsymbol{F} \) auf eine punktförmige elektrische Probeladungen \(Q\) definiert, die sich am Ort \( \boldsymbol{x} \) befindet: \[ \boldsymbol{F}(\boldsymbol{x}) = Q \cdot \boldsymbol{E}(\boldsymbol{x}) \] Ebenso wird ein Magnetfeld \( \boldsymbol{B} \) durch seine Kraftwirkung \( \boldsymbol{F} \) auf eine punktförmige elektrische Probeladungen \(Q\) am Ort \( \boldsymbol{x} \) definiert: \[ \boldsymbol{F}(\boldsymbol{x}) = Q \cdot \frac{\boldsymbol{v}}{c} \times \boldsymbol{B}(\boldsymbol{x}) \] mit der Geschwindigkeit \( \boldsymbol{v} \) der Probeladung. Dabei sind alle fettgedruckten Größen dreidimensionale Vektoren und \( \times\) bezeichnet das dreidimensionale Vektorprodukt. Zusammen haben wir also für die Gesamtkraft auf eine Probeladung \(Q\) im elektromagnetischen Feld:
\[ \boldsymbol{F} = Q \cdot \left( \boldsymbol{E} + \frac{\boldsymbol{v}}{c} \times \boldsymbol{B} \right) \] |
(den Ort \(\boldsymbol{x}\) haben wir hier weggelassen; \(c\) ist wie immer die Lichtgeschwindigkeit; die Division durch \(c\) bewirkt, dass das magnetische Feld dieselbe physikalische Dimension wie das elektrische Feld hat).
Eine punktförmige Ladung \(q\) erzeugt am Ort \(\boldsymbol{x}\) ein elektrisches Feld \[ \boldsymbol{E} = k \frac{q}{r^2} \boldsymbol{e}_r \] Dabei ist \(r\) der Abstand zwischen dem Ort der felderzeugenden Ladung \(q\) und dem Ort \(\boldsymbol{x}\), für den wir das elektrische Feld angeben. Dieses Feld ist radial von der Ladung weg orientiert (Coulomb-Gesetz), d.h. \(\boldsymbol{e}_r\) ist der Einheitsvektor, der von der Ladung \(q\) zum Raumpunkt \(\boldsymbol{x}\) gerichtet ist.
Dazu gleichwertig ist die folgende Formulierung ( Gaußsches Gesetz): Der Fluss des elektrischen Feldes durch eine geschlossene Oberfläche ist proportional zu der von dieser Fläche umschlossenen elektrischen Ladung.
Wiederum gleichwertig dazu: Die Divergenz des elektrischen Feldes \(\boldsymbol{E}\) ist proportional zur Ladungsdichte \(\rho\) (gemessen in Ladungseinheiten pro Volumeneinheit), d.h. die Ladungsdichte wirkt als Quelle des Feldes:
\[ \mathrm{div} \, \boldsymbol{E} = \rho \] |
(wir verwenden Heaviside-Maßeinheiten, d.h. die Konstante \(k\) im Coulomb-Gesetz oben ist gleich \( \frac{1}{4 \pi} \). In diesen Einheiten lassen sich die Maxwellgleichungen besonders einfach formulieren) .
Es gibt keine magnetischen Ladungen (Monopole), d.h. es gibt beispielsweise keinen Punkt, von dem aus die magnetischen Feldlinien alle radial nach außen zeigen.
Man kann auch sagen: Der Fluss des magnetischen Feldes durch eine geschlossene Oberfläche ist Null (es fließt genausoviel hinein wie hinaus).
Oder alternativ: Die Divergenz des magnetischen Feldes ist Null (es gibt keine Quellen):
\[ \mathrm{div} \, \boldsymbol{B} = 0 \] |
Ein sich verstärkendes oder abschwächendes Magnetfeld erzeugt ein elektrisches Feld, dessen Richtung senkrecht zum Magnetfeld orientiert ist. Je schneller die zeitliche Veränderung des Magnetfeldes ist, umso stärker ist das dadurch erzeugte elektrische Feld.
Oder genauer: Ein sich verändernder magnetischer Fluss durch eine umrandete Fläche erzeugt ein elektrisches Feld entlang des Randes der Fläche. Dazu gleichwertig ist die folgende differentielle Gleichung über die Rotation des Elektrischen Feldes:
\[ \mathrm{rot} \, \boldsymbol{E} = - \frac{1}{c} \frac{d}{dt} \boldsymbol{B} \] |
Ein stromdurchflossener Leiter (genauer: die sich darin bewegenden elektrischen Ladungen) erzeugt ein magnetisches Feld, das den Leiter ringförmig umschließt und dessen Stärke proportional zur Stromstärke ist. Ebenso erzeugt ein sich verstärkendes oder abschwächendes elektrisches Feld ein Magnetfeld, dessen Richtung senkrecht zum elektrischen Feld orientiert ist. Je schneller die zeitliche Veränderung des elektrischen Feldes ist, umso stärker ist das dadurch erzeugte Magnetfeld.
Hier die präzise Formulierung: Ein sich verändernder elektrischer Fluss durch eine umrandete Fläche sowie ein Strom \(\boldsymbol{j}\) elektrischer Ladungen durch diese Fläche erzeugen ein magnetisches Feld entlang des Randes der Fläche. Dazu gleichwertig ist die folgende differentielle Gleichung:
\[ \mathrm{rot} \, \boldsymbol{B} = \frac{1}{c} \cdot \left( \boldsymbol{j} + \frac{d}{dt} \boldsymbol{E} \right) \] |
Die Stromdichte \(\boldsymbol{j}\) bezeichnet dabei den Durchfluss elektrischer Ladung pro Zeiteinheit pro Flächeneinheit.
Aus den obigen Gleichungen folgt, dass elektrische Ladung nicht erzeugt oder vernichtet werden kann. Die Veränderung elektrischer Ladung in einem Volumen entspricht dem Durchfluss von Ladung durch die Oberfläche des Volumens. Dies wird durch die folgende differentielle Gleichung zwischen Ladungsdichte \(\rho\) und Stromdichte \(\boldsymbol{j}\) ausgedrückt, die man auch als Gleichung der Stromerhaltung bezeichnet:
\[ \frac{d}{dt} \rho = - \mathrm{div} \, \boldsymbol{j} \] |
Zu den Maxwellgleichungen kommt noch das Newtonsche Bewegungsgesetz hinzu, das in seiner nichtrelativistischen Form \( \boldsymbol{F} = m \boldsymbol{a} \) (Kraft = Masse mal Beschleunigung) lautet (siehe letztes Kapitel). Verwendet man dieses Gesetz in dieser Form, so stellt man allerdings fest, dass sein Transformationsverhalten nicht zum Transformationsverhalten der elektrischen und magnetischen Felder passt – gleichförmig bewegte Bezugssysteme wären nicht mehr gleichwertig zueinander. Das ganze System wird aber wieder konsistent, wenn man die Masse \(m\) durch das Produkt \(m \gamma\) mit dem Lorentzfaktor \[ \gamma = \frac{1}{ \sqrt{ 1 - \left( \frac{v}{c} \right)^2 } } \] ersetzt (dabei ist \( v = |\boldsymbol{v}| \) der Betrag der Geschwindigkeit und \(c\) ist die Lichtgeschwindigkeit; siehe auch Kapitel 5.4.2). Dabei muss man \( \gamma \) im Bewegungsgesetz ebenfalls nach der Zeit ableiten. Das korrekte Bewegungsgesetz lautet also:
\[ \boldsymbol{F} = \frac{d}{dt} (m \gamma \boldsymbol{v}) \] |
wie Albert Einstein im Jahr 1905 herausfand. Für Geschwindigkeiten deutlich unterhalb der Lichtgeschwindigkeit wird dabei \(\gamma\) nahezu gleich 1, so dass sich im nichtrelativistischen Grenzfall wieder Newtons ursprüngliches Bewegungsgesetz ergibt. Nähert sich aber die Geschwindigkeit der Lichtgeschwindigkeit, so wird \(\gamma\) immer größer und vergrößert so die Trägheit des Teilchens immer weiter, sodass die Lichtgeschwindigkeit nie überschritten werden kann.
Man kann die obigen Gleichungen in eine sehr viel übersichtlichere Form bringen, indem man analog zum Raumzeit-Vierervektor \[ x = \begin{pmatrix} x^0 \\ \boldsymbol{x} \end{pmatrix} = \begin{pmatrix} ct \\ \boldsymbol{x} \end{pmatrix} \] (mit dem Index \(0\) wieder oben geschrieben) auch elektrische und magnetische Felder sowie Ladungsdichte und Stromdichte in vierkomponentigen Vektoren bzw. in vier-mal-vierkomponentigen Matrizen (genauer: Tensoren) unterbringt.
Beginnen wir mit den Quellen der elektrischen und magnetischen Felder: der Ladungsdichte \(\rho\) und der Stromdichte \(\boldsymbol{j}\). Wir fassen diese Felder zu einem vierkomponentigen Vektor \(j\) zusammen:
\[ j = \begin{pmatrix} j^0 \\ \boldsymbol{j} \end{pmatrix} = \begin{pmatrix} c\rho \\ \boldsymbol{j} \end{pmatrix} \] |
Die Komponenten dieses Vektors bezeichnen wir wie üblich mit \(j^\mu\), wobei der Raumzeit-Index \(\mu\) die Werte \(0, 1, 2, 3\) annimmt (der Index wird hier oben geschrieben; zur Bedeutung der Indexstellung und dem Hoch- und Herunterziehen von Indices möchte ich auf Die Symmetrie der Naturgesetze, Kapitel 3.1 Die Poincare-Gruppe verweisen, in dem diese Methode im Detail erklärt wird). Die-Null-Komponente ist also die Ladungsdichte (mal der Lichtgeschwindigkeit): \( j^0 = c\rho \).
Wie verändert sich nun diese Raumzeit-abhängige Viererstromdichte \(j(x)\), wenn wir eine Poincaretransformation durchführen? Dabei wollen wir eine aktive Interpretation wählen, d.h. wir nehmen beispielsweise eine Ladungs- und Stromdichteverteilung \(j(x)\) und verfrachten diese komplett in ein gleichmäßig dahingleitendes Raumschiff. Wie geht die mit dem Raumschiff dahingleitende neue Ladungs- und Stromdichteverteilung \(j'(x)\) aus der alten Verteilung \(j(x)\) hervor?
An dieser Stelle muss man physikalisch-anschaulich argumentieren und sich j(x) beispielsweise als Wolke geladener Teilchen vorstellen, die sich auch bewegen dürfen. Außerdem muss man sicherstellen, dass auch im fahrenden Zug Ladung nicht erzeugt oder vernichtet werden kann (auch dies ist eine physikalische Forderung), d.h. \(\frac{d}{dt} \rho' = - \mathrm{div} \, \boldsymbol{j}' \) muss gelten. Als Konsequenz dieser Überlegungen findet man folgendes aktives Transformationsgesetz für die Viererstromdichte \(j(x)\) bei einer Poincaretransformation \( x' = \Lambda x + a \) :
\[ j'(x) = \Lambda \, j(\Lambda^{-1} (x - a) ) \] |
Man kann sich dieses Transformationsverhalten beipielsweise an den Spezialfällen Drehung und Boost (Geschwindigkeitstransformation) veranschaulichen. Dieses Transformationsverhalten ist der Grund dafür, warum in den Komponenten von \(j^\mu\) der Index oben geschrieben wird – damit kennzeichnet man gleichsam durch die Indexstellung das Transformationsverhalten des Vierervektors. Man sagt auch, der Vektor transformiert sich kovariant.
Wie sieht es mit der Ladungserhaltung \(\frac{d}{dt} \rho = - \mathrm{div} \, \boldsymbol{j} \) aus? Dazu schreiben wir diese Gleichung etwas um, indem wir die Ableitungen nach Zeit und Raum ebenfalls zu einem vierkomponentigen Vektor zusammenfassen (die Komponenten des Vierervektors \( x = (ct, \boldsymbol{x}) \) bezeichnen wir dabei mit \( x^\mu \) mit \( \mu; = 0, 1, 2, 3 \) und \( x^0 = ct \)): \[ \partial_\mu = \frac{\partial}{\partial x^\mu} \] also \begin{align} \partial_0 &= \frac{1}{c} \frac{d}{dt} \\ \partial_k &= \frac{d}{d x^k} \end{align} mit \(k = 1, 2, 3\). Damit sieht die Gleichung für die Ladungserhaltung in relativistischer Schreibweise so aus:
\[ \partial_\mu j^\mu(x) = 0 \] |
wobei wir die Einsteinsche Summenkonvention verwenden, die besagt, dass über doppelt vorkommende Indices summiert wird. Man kann nun relativ leicht nachrechnen, dass aus dieser Gleichung für die Ladungserhaltung zusammen mit der Transformationsgleichung von \(j\) nach \(j'\) auch die Ladungserhaltung für \(j'\) folgt, d.h. auch im dahingleitenden Raumschiff können keine Ladungen erzeugt oder vernichtet werden.
Wie sieht es nun mit den beiden Maxwellgleichungen aus, die elektrisches und magnetisches Feld in Beziehung mit Ladungsdichte und Stromdichte setzen (man spricht von den inhomogenen Maxwellgleichungen)? Es geht also um die Gleichungen \begin{align} \mathrm{div} \, \boldsymbol{E} &= \rho \\ & \\ \mathrm{rot} \, \boldsymbol{B} &= \frac{1}{c} \cdot \left( \boldsymbol{j} + \frac{d}{dt} \boldsymbol{E} \right) \end{align} Um diese Gleichungen geeignet umzuschreiben, definieren wir die vier-mal-vier-komponentige Matrix (den Feldstärketensor)
\[ F = (F^{\mu\nu}) = \begin{pmatrix} 0 & -\boldsymbol{E} \\ \boldsymbol{E} & B \end{pmatrix} \] |
Dabei ist \(\boldsymbol{E}\) der dreikomponentige elektrische Feldvektor und \(B\) ist eine 3-mal-3-komponentige schiefsymmetrische Matrix, die die Komponenten des magnetischen Feldes \(\boldsymbol{B}\) enthält, so dass \[ \sum_{k=1}^3 \, \partial_k B^{kj} = (\mathrm{rot} \, \boldsymbol{B})^j \] ist. Die inhomogenen Maxwellgleichungen können wir damit so schreiben:
\[ \partial_\mu F^{\mu\nu} = \frac{1}{c} j^\nu \] |
(wieder mit der Einsteinschen Summenkonvention zu lesen, also Summe über den Index \(\mu\)).
Analog kann man auch die beiden homogenen Maxwellgleichungen \begin{align} \mathrm{div} \, \boldsymbol{B} &= 0 \\ & \\ \mathrm{rot} \, \boldsymbol{E} &= - \frac{1}{c} \frac{d}{dt} \boldsymbol{B} \end{align} die nicht von Ladungs- und Stromdichten abhängen, umschreiben. Dazu definiert man die vier-mal-vier-komponentige Matrix \( \tilde{F}^{\mu\nu} \) (den dualen Feldstärketensor) einfach dadurch, dass man \(\boldsymbol{E}\) und \(\boldsymbol{B}\) im Feldstärketensor vertauscht. Für Mathematiker: den Wechsel von \(F\) zu \(\tilde{F}\) kann man über den sogenannten Hodge-Sternoperator erhalten, wenn man mit sogenannten 2-Differentialformen arbeitet. Analog dazu kann man auch das sogenannte antisymmetrische Levi-Civita-Symbol verwenden. Auf Details wollen wir hier verzichten.
Die homogenen Maxwellgleichungen können wir nun in der folgenden Form schreiben:
\[ \partial_\mu \tilde{F}^{\mu\nu} = 0 \] |
Wie transformieren sich nun die elektrischen und magnetischen Felder, wenn man die Ladungs-Stromverteilung in ein dahingleitendes Raumschiff verfrachtet?
Die obigen Gleichungen sowie das Transformationsverhalten der Viererstromdichte \(j\) ergeben das folgende Transformationsverhalten, wobei wir die Matrixkomponenten der Lorentzmatrix \(\Lambda\) als \(\Lambda^\mu_{\;\nu}\) schreiben und wieder die Einsteinsche Summenkonvention verwenden: \begin{align} F'^{\mu\nu}(x) &= \Lambda^\mu_{\;\rho} \, \Lambda^\nu_{\;\sigma} \, F^{\rho\sigma}(\Lambda^{-1} (x - a) ) \\ & \\ \tilde{F}'^{\mu\nu}(x) &= \Lambda^\mu_{\;\rho} \, \Lambda^\nu_{\;\sigma} \, \tilde{F}^{\rho\sigma}(\Lambda^{-1} (x - a) ) \end{align} Dieses Transformationsverhalten ist letztlich die Rechtfertigung dafür, die Indizes oben zu schreiben. Um nicht immer alle Indizes ausschreiben zu müssen, wollen wir für die beiden Gleichungen die folgende Kurzschreibweise einführen: \begin{align} F'(x) &= (\Lambda \otimes \Lambda) \, F(\Lambda^{-1} (x - a) ) \\ & \\ \tilde{F}'(x) &= (\Lambda \otimes \Lambda) \, \tilde{F}(\Lambda^{-1} (x - a) ) \end{align} Nun wirken umgekehrt die Felder auch auf die Ladungen und Ströme zurück – dies hatten wir durch Newtons Bewegungsgleichung oben ausgedrückt. Wir wollen an dieser Stelle nun eine Vereinfachung machen, indem wir die Ladungsdichte und Stromdichte als fest von außen vorgegeben betrachten. Man könnte beispielsweise an eine stromdurchflossene Spule oder eine fix im Raum verankerte Ladungsverteilung denken. Später wollen wir ja sowieso den Spezialfall betrachten, dass es überhaupt keine Ladungen und Ströme gibt, denn wir interessieren uns zunächst nur für eine Quantentheorie des freien elektromagnetischen Feldes.
Um zu einer Quantentheorie zu gelangen, müssen wir nun versuchen, die Maxwellgleichungen aus einem Variationsprinzip abzuleiten. Wir brauchen also geeignete dynamische Variablen und ein geeignetes Wirkungsfunktional. Das Wort dynamische Variablen bedeutet dabei, dass wir \(n\) Funktionen der Zeit suchen und ihre Zeitabhängigkeit aus dem Wirkungsprinzip ableiten wollen. Jede dieser \(n\) Funktionen bezeichnen wir dabei als einen Freiheitsgrad der Theorie. Dabei kann \(n\) (die Zahl der Freiheitsgrade) auch unendlich groß werden.
Es ist naheliegend, das elektrische und magnetische Feld als dynamische Variablen der Theorie zu verwenden, denn genau diese Felder möchte man ja also Lösung der Maxwellgleichungen bei gegebenen Ladungs- und Stromdichten ausrechnen. So wie man in der klassischen Mechanik nach der Bahnkurve \( \boldsymbol{x}(t) \) eines Teilchens gefragt hatte, so fragt man nun nach den Funktionen \( \boldsymbol{E}(t,\boldsymbol{x}) \) und \( \boldsymbol{B}(t,\boldsymbol{x}) \).
Wie sieht es mit der Zahl der Freiheitsgrade aus?
In der klassischen Mechanik eines Teilchens im dreidimensionalen Raum hatten wir es mit drei Freiheitsgraden zu tun, nämlich mit den drei Komponenten der Funktion \( \boldsymbol{x}(t) \). Im Fall der elektromagnetischen Felder haben wir es jedoch mit unendlich vielen Freiheitsgraden zu tun, nämlich an jedem Raumpunkt \( \boldsymbol{x} \) mit den zeitabhängigen Funktionen \( \boldsymbol{E}(t,\boldsymbol{x}) \) und \( \boldsymbol{B}(t,\boldsymbol{x}) \). Der Ort \( \boldsymbol{x} \) wirkt dabei wie ein kontinuierlicher Index. Das wird besonders deutlich, wenn man den Raum diskretisiert (also mit einem feinen Gitter überzieht) und nur die Felder an den Gitterpunkten betrachtet. Die dynamischen Variablen sind dann die zeitabhängigen Werte der Felder an diesen Gitterpunkten.
Schauen wir uns noch einmal die Lagrangefunktion der klassischen Mechanik eines Teilchens an, wobei wir als Beispiel das Potential des harmonischen Oszillators verwenden wollen (die Kraft ist also proportional zum Abstand vom Ursprung): \[ L(\boldsymbol{x},\boldsymbol{v}) = \frac{m}{2} \boldsymbol{v}^2 - b \, \boldsymbol{x}^2 \] mit \(\boldsymbol{v} = \frac{d}{dt} \boldsymbol{x} \). Die Skalarprodukte (Quadrate) der dreidimensionalen Vektoren bewirken, dass über alle drei Freiheitsgrade \( x_k(t) \) und deren zeitlicher Ableitung summiert wird. Ähnlich ist es bei mehreren Teilchen: In den Geschwindigkeiten wird über alle Freiheitsgrade summiert, und das Potential verkoppelt verschiedene Freiheitsgrade miteinander, wenn die Teilchen Kräfte aufeinander ausüben.
Analog wollen wir auch eine Lagrangefunktion für die elektromagnetischen Felder formulieren. Es soll über alle Freiheitsgrade summiert werden, und es sollen Freiheitsgrade miteinander verkoppelt werden.
Gehen wir dazu wieder davon aus, dass wir den Raum mit einem feinen Gitter überziehen und die Felder an den Gitterpunkten als dynamischen Variablen ansehen, deren Zeitabhängigkeit wir bestimmen wollen. Dabei wird die Summe über alle Gitterpunkte umso mehr Summanden enthalten, je feiner wir das Gitter machen. Um dies zu kompensieren, so dass die Summe bei feiner werdendem Gitter einem sinnvollen Grenzwert zustrebt, wollen wir in der Summe die Summanden mit dem Raumvolumen \( (\Delta x)^3 \) einer Gitterzelle multiplizieren und sie so mit dem Gitterzellenvolumen gewichten. Nun können wir den Grenzwert bis zu unendlich kleinen Gitterzellen in der Summe über alle Raumpunkte ausführen und erhalten ein Integral über den dreidimensionalen Raum.
Was aber ist mit dem Verkoppeln von Freiheitsgraden durch das Potential? Auch hier wollen wir eine Vereinfachung machen: Wir fordern, dass nur die Felder unmittelbar benachbarter Raumpunkte miteinander verkoppelt werden. Genauer meinen wir damit, dass in der Summe keine Terme wie beispielsweise das Skalarprodukt \( \boldsymbol{E}(\boldsymbol{x}_i) \boldsymbol{E}(\boldsymbol{x}_j) \) mit nicht benachbarten Gitterpunkten \(\boldsymbol{x}_i\) und \(\boldsymbol{x}_j\) auftreten. Wenn benachbarte Gitterpunkte (nennen wir sie \(\boldsymbol{x}_k\) und \(\boldsymbol{x}_{k+1}\) ) miteinander verkoppelt werden, so soll dies in einer Weise geschehen, die einen sinnvollen Grenzwert für ein unendlich feines Gitter ergibt. Das ist für Terme der Form \[ \frac{E_i(\boldsymbol{x}_{k+1}) - E_i(\boldsymbol{x}_k)} {|\boldsymbol{x}_{k+1} - \boldsymbol{x}_k|} \] der Fall, die im Grenzwert des unendlich feinen Gitters gegen eine Richtungsableitung der Feldkomponente \(E_i\) gehen.
Man bezeichnet diese Forderungen als Lokalitätsforderung. In Theorien, die diese Forderung nicht erfüllen, treten schwerwiegende Probleme auf, beispielsweise in Bezug auf die Kausalität der Theorie. Dies kann man leicht einsehen, denn wenn sich die Felder entfernter Raumpunkte direkt gegenseitig beeinflussen könnten, so wäre sicher die Übertragung von Informationen mit Überlichtgeschwindigkeit kaum zu vermeiden, im Widerspruch zu den Forderungen der speziellen Relativitätstheorie.
Die Lokalitätsforderung bewirkt, dass die Summe über alle Raumgitterpunkte in ein einfaches Integral über den gesamten Raum übergeht (es gibt also keine mehrfachen Integrale wie z.B. \( \int d^3x \int d^3x' \, ... \, \) ). Die Lagrangefunktion kann also als Integral über den gesamten Raum geschrieben werden, wobei wir die Funktion, über die integriert wird, als Lagrangedichte bezeichnen. Wir wollen im Folgenden die Lagrangedichte mit \(\mathcal{L}\) und die Lagrangefunktion wie gehabt mit \(L\) bezeichnen.
Die Lagrangedichte kann aufgrund der Lokalitätsforderung nur von den Feldwerten am Ort \(\boldsymbol{x}\) und deren ersten Ableitungen nach den drei Raumkoordinaten sowie nach der Zeitkoordinate abhängen. Die Ableitungen nach der Zeitkoordinate entsprechen den Geschwindigkeiten in der klassischen Mechanik, und die Ableitungen nach den Raumkoordinaten spiegeln die Verkoppelung unmittelbar benachbarter Gitterpunkte wieder. In der klassischen Mechanik wäre dies analog zu einer großen Ansammlung von Teilchen, bei denen sich nur benachbarte Teilchen über das Wechselwirkungspotential zwischen ihnen gegenseitig beeinflussen können.
Um im Folgenden nicht ständig die Felder \(\boldsymbol{E}\) und \(\boldsymbol{B}\) einzeln schreiben zu müssen, wollen wir allgemeiner von Feldkomponenten \( \Phi_k(ct,\boldsymbol{x})\) sprechen und alle (sagen wir \(n\)) Feldkomponenten zu einem Vektor \[ \Phi := \begin{pmatrix} \Phi_1 \\ \Phi_2 \\ ... \\ \Phi_n \end{pmatrix} \] zusammenfassen (also ist \(k\) irgendein Index von \(1\) bis \(n\)). Analog fassen wir für alle Indexkombinationen von \(\mu = 0, 1, 2, 3\) und \(k\) die Komponenten \( \partial_\mu \Phi_k \) zu einem Vektor \( \partial \Phi \) zusammen. Die Lagrangefunktion \(L\) kann also geschrieben werden als
\[ L[\phi(ct,.), \partial_0 \Phi(ct,.)] = \] \[ \int d^3x \, \mathcal{L}( \Phi(ct,\boldsymbol{x}), \partial \Phi(ct,\boldsymbol{x}) ) \] |
Wir nehmen dabei an, dass die Felder und ihre ersten Ableitungen im Unendlichen so schnell verschwinden, dass das Raumintegral konvergiert. Die Schreibweise \( L[\phi(ct,.), \partial_0 \Phi(ct,.)] \) bedeutet, dass \(L\) von einem unendlich-dimensionalen Vektor \(\Phi(ct, . )\) und dessen zeitlicher Ableitung abhängt, wobei dieser Vektor \(\Phi(ct, . )\) aus allen Feldkomponenten an allen Raumpunkten zusammengesetzt ist (man stelle sich z.B. wieder das Gitternetz im Raum vor). Die Lagrangefunktion ist also eigentlich keine Funktion mehr, sondern ein Funktional, das der Funktion \(\Phi(ct, . )\) und deren zeitlicher Ableitung eine reelle Zahl zuordnet. Die Funktion \(\Phi(ct, . )\) ist dabei zu lesen als eine Funktion, die von einem Parameter \(t\) abhängt und die dem Raumpunkt \(\boldsymbol{x}\) den Feldvektor \(\Phi(ct,\boldsymbol{x})\) zuordnet. Man hätte auch \(\Phi_t\) statt \(\Phi(ct, . )\) schreiben können, um deutlich zu machen, dass es hier um eine komplette Funktion im Raum zur Zeit \(t\) geht.
Wir sehen hier eine allgemeine Vorgehensweise, die darin begründet ist, dass wir von endlich vielen Freiheitsgraden zu unendlich vielen Freiheitsgraden übergegangen sind:
In der nichtrelativistischen Mechanik war nun das Wirkungsfunktional \(S\) als ein Integral der Lagrangefunktion \(L\) über ein Zeitintervall von \(t_1\) bis \(t_2\) gegeben, wobei die Werte der dynamischen Variablen an diesen Randzeitpunkten fest vorgegeben waren. Im Fall der Felder werden wir dieses Zeitintervall unendlich ausdehnen und dabei verlangen, dass die Variation der Felder \( \frac{d\Phi_k}{d\epsilon} \) (genaue Bedeutung kommt gleich ... ) für unendlich ferne Zeiten und unendlich ferne Raumpunkte hinreichend schnell gegen Null geht (was das genau heißt, sehen wir etwas weiter unten). Das Integral über die Zeit und das Integral über den dreidimensionalen Raum können wir schließlich noch als Integral über die vierdimensionale Raumzeit schreiben, d.h. wir integrieren über den Raum der Vierer-Raumzeitvektoren \( x = (ct, \boldsymbol{x}) \). Insgesamt können wir also das Wirkungsfunktional schreiben als
\begin{align} S[\Phi] &= \int dt \, L[\phi(ct,.), \partial_0 \Phi(ct,.)] = \\ & \\ &= \int d^4x \, \mathcal{L}( \Phi(x), \partial \Phi(x) ) \end{align} |
Wie sehen die entsprechenden Euler-Lagrange-Gleichungen aus?
Dazu machen wir analog zur klassischen Mechanik den Ansatz \[ \Phi_k(x) = \Phi_{k,0}(x) + \epsilon \, \eta_k(x) \] wobei \(\Phi_{k,0}(x)\) die gesuchten Felder sind und \( \epsilon \, \eta_k(x) \) die Abweichung von diesen gesuchten Feldern darstellt. Wir suchen nun das Minimum von S[Φ] über die Bedingung
\[ \frac{d}{d\epsilon} S[\Phi_{k,0} + \epsilon \, \eta_k] \bigg|_{\epsilon = 0} = 0 \] |
(später werden wir sehen, dass dies gerade die Funktionalableitung ergibt). Analog zur klassischen Mechanik folgt: \[ \frac{d}{d\epsilon} S[\Phi] = \] \[ = \frac{d}{d\epsilon} \int d^4x \, \mathcal{L}( \Phi(x), \partial \Phi(x) ) = \] ... wir ziehen die Ableitung nach \(\epsilon\) unter das Zeitintegral: \[ = \int d^4x \, \frac{d}{d\epsilon} \mathcal{L}( \Phi(x), \partial \Phi(x) ) = \] ... wir führen die Ableitung nach \(\epsilon\) mit Hilfe der Kettenregel aus (für die Indices \(k\) und \(\mu\) gilt wieder die Einsteinsche Summenkonvention, d.h. es wird über doppelt vorkommende Indices summiert): \[ = \int d^4x \, \left( \frac{d\mathcal{L}}{d\Phi_k} \frac{d\Phi_k}{d\epsilon} + \frac{d\mathcal{L}}{d \, (\partial_\mu \Phi_k)} \frac{d}{d\epsilon} \partial_\mu \Phi_k \right) = \] ... wir vertauschen im letzten Term die Reihenfolge der Ableitungen: \[ = \int d^4x \, \left( \frac{d\mathcal{L}}{d\Phi_k} \frac{d\Phi_k}{d\epsilon} + \frac{d\mathcal{L}}{d \, (\partial_\mu \Phi_k)} \partial_\mu \frac{d\Phi_k}{d\epsilon} \right) = \] ... den zweiten Term schreiben wir als Ableitung über ein Produkt, das nach der Produktregel aber zwei Terme ergibt, sodass wir den überzähligen Term zusätzlich abziehen: \[ = \int d^4x \, \bigg( \frac{d\mathcal{L}}{d\Phi_k} \frac{d\Phi_k}{d\epsilon} + \] \[ + \partial_\mu \left( \frac{d\mathcal{L}}{d \, (\partial_\mu \Phi_k)} \frac{d\Phi_k}{d\epsilon} \right) - \left( \partial_\mu \frac{d\mathcal{L}}{d \, (\partial_\mu \Phi_k)} \right) \, \frac{d\Phi_k}{d\epsilon} \bigg) = \] ... der zweite Term liefert das vierdimensionale Integral einer vierdimensionalen Divergenz. Dies ist nach dem Gauss'schen Satz gleich dem Integral der Funktion \( \frac{d\mathcal{L}}{d \, (\partial_\mu \Phi_k)} \frac{d\Phi_k}{d\epsilon} \) über den unendlich fernen Rand des vierdimensionalen Raums. Wir haben oben gefordert, dass für unendlich ferne Zeiten und unendlich ferne Raumpunkte die Variation \( \frac{d\Phi_k}{d\epsilon} \) (also die Abweichungsfunktion \(\eta_k\) ) der Felder hinreichend schnell verschwindet (das entspricht dem Festhalten der Start- und Zielpunkte bei der Variation einer Bahnkurve in der Mechanik). Dies können wir nun präzisieren: die Variation soll so schnell gegen Null gehen, dass das obige Integral des zweiten Terms gleich Null ist und dieser Randterm wegfällt. Also: \[ = \int d^4x \, \bigg( \frac{d\mathcal{L}}{d\Phi_k} \frac{d\Phi_k}{d\epsilon} - \left( \partial_\mu \frac{d\mathcal{L}}{d \, (\partial_\mu \Phi_k)} \right) \, \frac{d\Phi_k}{d\epsilon} \bigg) = \] \[ = \int d^4x \, \left( \frac{d\mathcal{L}}{d\Phi_k} - \left( \partial_\mu \frac{d\mathcal{L}}{d \, (\partial_\mu \Phi_k)} \right) \right) \, \frac{d\Phi_k}{d\epsilon} \] Dieser Ausdruck soll nach dem Prinzip der kleinsten Wirkung für die Lösungen der klassischen Feldgleichung gleich Null sein, und zwar für beliebige Variationen \( \frac{d\Phi_k}{d\epsilon} \). Das geht nur, wenn der Term in der großen Klammer gleich Null ist:
\[ \frac{d\mathcal{L}}{d\Phi_k} - \partial_\mu \frac{d\mathcal{L}}{d \, (\partial_\mu \Phi_k)} = 0 \] |
Auch diese Gleichungen bezeichnet man wieder als Euler-Lagrange-Gleichungen. Für jede Feldkomponente \(\Phi_k\) gibt es eine solche Gleichung und über den doppelt vorkommenden Index \(\mu\) wird summiert.
Eine kurze Randbemerkung: Mit Hilfe der unten definierten Funktionalableitung kann man die Euler-Lagrange-Gleichungen auch vollkommen analog zur klassischen Mechanik aufstellen. Dabei treten Funktionalableitungen der Lagrangefunktion \(L\) auf. Rechnet man diese Funktionalableitungen aus (analoge Rechnungen findet man unten bei den Hamiltonschen Bewegungsgleichungen) und verwendet die Lagrangedichte, so erhält man die obigen Gleichungen.
Unser Ziel war es, die Maxwell-Gleichungen \begin{align} \partial_\mu F^{\mu\nu} &= \frac{1}{c} j^\nu \\ \partial_\mu \tilde{F}^{\mu\nu} &= 0 \end{align} aus einem Wirkungsprinzip herzuleiten, d.h. sie als Euler-Lagrange-Gleichungen in der Form \[ \frac{d\mathcal{L}}{d\Phi_k} - \partial_\mu \frac{d\mathcal{L}}{d \, (\partial_\mu \Phi_k)} = 0 \] schreiben zu können.
Wenn man nun versucht, die einzelnen Matrixelemente \(F^{\mu\nu}\) (also letztlich die Komponenten des elektrischen und magnetischen Feldes) mit den Feldkomponenten \(\Phi_k\) gleichzusetzen, so stößt man auf Schwierigkeiten. Es treten in den Euler-Lagrange-Gleichungen je nach Ansatz für \(\mathcal{L}\) sehr schnell zweite Ableitungen der Felder nach Raum und/oder Zeit auf, und es ist kaum möglich, für \(\mathcal{L}\) eine geeignete Form zu finden, die die Maxwellgleichungen reproduziert, in denen nur erste Ableitungen nach Raum und Zeit vorkommen. Wir erinnern uns: Auch die Euler-Lagrange-Gleichungen der klassischen Mechanik enthielten zweite Ableitungen nach der Zeit, denn in den Newtonschen Bewegungsgleichungen steht die Beschleunigung!
An dieser Stelle hilft ein Trick: Statt den Feldkomponenten verwenden wir die elektromagnetischen Potentiale und identifizieren sie mit den Feldern in den Euler-Lagrange-Gleichungen. Das hat den Vorteil, dass zweite Ableitungen nicht mehr stören, denn drückt man die Maxwellgleichungen mit Hilfe der Potentiale aus, so enthalten sie genau solche zweiten Ableitungen.
Die elekromagnetischen Potentiale (oder kurz: das elektromagnetische Potential) kann man zu einem Vierervektor \( A(x) = (A^\mu(x)) \) zusammenfassen, also zu einem Vektor \(A(x)\) mit vier Komponenten \(A^\mu(x)\), die jeweils Funktionen von Raum und Zeit sind. Dieser Potentialvektor soll so definiert sein, dass sich der Feldstärketensor \(F^{\mu\nu}(x)\) als Raum-Zeit-Ableitung von \( A^\mu(x)\) schreiben lässt, und zwar so:
\[ F^{\mu\nu}(x) = \partial^\mu A^\nu(x) - \partial^\nu A^\mu(x) \] |
mit \( \partial^\mu := g^{\mu\nu} \partial_\nu \) (Einsteinsche Summenkonvention; die Matrix \( (g^{\mu\nu}) \) ist außerhalb der Diagonale gleich Null und hat in der Diagonalen von links oben nach rechts unten die Werte \(1, -1, -1, -1\)). Anders gesagt: \( \partial^0 = \partial_0 = \frac{d}{c \, dt} \) und \( \partial^k = - \partial_k = - \frac{d}{dx^k} \) mit dem Raum-Index \(k = 1, 2, 3\).
Damit diese Gleichung mit Poincaretransformationen verträglich ist, fordern wir, dass sich das Viererpotential \( A(x) = (A^\mu(x)) \) bei diesen Transformationen genauso wie die Vierer-Stromdichte \( j(x) = (j^\mu(x)) \) verhält: \[ A'(x) = \Lambda \, A(\Lambda^{-1} (x - a) ) \] Damit ist dann das richtige Transformationsverhalten des Feldstärketensors \(F^{\mu\nu}\) gesichert (Randbemerkung: das obige Transformationsverhalten für \(A^\mu\) ist nicht die einzige Möglichkeit, für \(F^{\mu\nu}\) das richtige Transformationsverhalten zu sichern, denn man könnte zusätzlich noch sogenannte Eichtransformationen auf \(A^\mu\) anwenden, ohne \(F^{\mu\nu}\) zu ändern – das wird wichtig, wenn eine nicht-kovariante Eichfixierung gewählt wird; wir gehen weiter unten noch genauer darauf ein).
Die Rechtfertigung dafür, dass man \(F^{\mu\nu}\) derart als Ableitung eines Potentials schreiben kann, liefern die homogenen Maxwellgleichungen \[ \partial_\mu \tilde{F}^{\mu\nu} = 0 \] die sich unmittelbar aus \(F^{\mu\nu} = \partial^\mu A^\nu - \partial^\nu A^\mu\) sowie dem Zusammenhang zwischen \(\tilde{F}^{\mu\nu}\) und \(F^{\mu\nu}\) ableiten lassen (siehe Elektromagnetischer Feldstärketensor). Insofern brauchen wir die homogenen Maxwellgleichungen nicht mehr weiter zu betrachten, sobald wir die Potentiale eingeführt haben, denn diese Gleichungen stecken automatisch mit drin. Auch hier verzichten wir auf weitere Details.
Wenn man die obige Gleichung mit Hilfe des elektrischen und magnetischen Feldes komponentenweise ausschreibt, erkennt man, dass \(A^0\) das bekannte elektrische Potential ist, und dass \(A^k\) mit \(k = 1, 2, 3\) die Komponenten des magnetischen Potentialvektors sind.
Die elektromagnetischen Potentiale \(A^\mu\) sind durch die elektromagnetischen Felder nicht eindeutig festgelegt, denn mehrere Potentiale führen zum selben Feldstärketensor \(F^{\mu\nu}\). Generell führen alle Potentiale der Form \[ A^\mu(x) + \partial^\mu \chi(x) \] mit einer beliebigen Raum-Zeit-differenzierbaren Funktion \(\chi(x)\) zum selben Feldstärketensor \(F^{\mu\nu}(x)\), denn beim Bilden des Feldstärketensors aus dem Potential wird der wegen \(\chi(x)\) entstehende Zusatzterm gleich Null: \[ \partial^\mu \partial^\nu \chi(x) - \partial^\nu \partial^\mu \chi(x) = 0 \] Man bezeichnet das Hinzufügen des Terms \(\partial^\mu \chi\) zum Potential \(A^\mu\) als Eichtransformation des Potentials. Alle Potentiale, die durch Eichtransformationen ineinander umwandelbar sind, führen zum selben Feldstärketensor \(F^{\mu\nu}\), sind also in Bezug auf die Maxwellgleichungen gleichwertig. Deshalb nennt man die Potentiale auch Eichfelder.
Wie sehen nun die inhomogenen Maxwellgleichungen aus (die homogenen Maxwellgleichungen haben sich ja durch die Einführung des Potentials nebenbei erledigt)? Setzen wir dazu \(F^{\mu\nu} = \partial^\mu A^\nu - \partial^\nu A^\mu\) in die inhomogene Maxwellgleichung \( \partial_\mu F^{\mu\nu} = \frac{1}{c} j^\nu \) ein (es gilt wieder die Summation über doppelte Indices) und verwenden im zweiten Term \( \partial_\mu \partial^\nu A^\mu = \partial^\nu \partial_\mu A^\mu \), so ergibt sich:
\[ \partial_\mu \partial^\mu A^\nu - \partial^\nu \partial_\mu A^\mu = \frac{1}{c} j^\nu \] |
Wie gewünscht enthält diese Form der Maxwellgleichung zweite Ableitungen, so dass gewisse Chancen bestehen, sie als Euler-Lagrange-Gleichung einer passenden Lagrangedichte schreiben zu können. Im ersten Term ist \[ \partial_\mu \partial^\mu = \left( \frac{1}{c} \frac{d}{dt} \right)^2 - \left( \frac{d}{d\boldsymbol{x}} \right)^2 \] der bekannte Wellenoperator (auch d'Alembert-Operator genannt), d.h. \( \partial_\mu \partial^\mu \, f(x) = 0 \) ist die bekannte Wellengleichung, deren Lösungen als Überlagerung ebener Wellen geschrieben werden können. Der zweite Term dagegen enthält die Viererdivergenz \( \partial_\mu A^\mu \) des Potentialvektors.
Man kann leicht nachrechnen, dass die obige Gleichung mit Eichtransformationen verträglich ist: erfüllt \( A^\mu \) die Gleichung, so erfüllt auch \( A^\mu + \partial^\mu \chi \) die Gleichung. Das überascht uns nicht, denn Eichtransformationen ändern den Feldstärketensor \(F^{\mu\nu}\) nicht, und von diesem sind wir in der inhomogenen Maxwellgleichung ja ausgegangen.
Kann man nun diese Form der inhomogenen Maxwellgleichung, ausgedrückt durch den Potentialvektor, als Euler-Lagrange-Gleichung schreiben? Kann man die Potentiale \( A^\mu \) mit den Feldkomponenten \(\Phi_k\) identifizieren?
Versuchen wir, einen geeigneten Ansatz für die Lagrangedichte \( \mathcal{L} \) zu finden, wobei \( \mathcal{L} \) von den Potentialen \( A^\mu \) und deren Ableitungen \( \partial_\nu A^\mu \) sowie der extern vorgegebenen Stromdichte \( j^\mu \) abhängen darf. Dabei sind nur die Potentiale dynamische Variablen der Theorie, denn wir hatten ja die Vereinfachung gemacht, die Stromdichte als vorgegeben zu betrachten, also keine Rückwirkungen der elektromagnetischen Felder auf Ladungs- und Stromdichte zu betrachten. Was für Terme wollen wir nun in \( \mathcal{L} \) zulassen?
Überlegen wir zunächst, was bei Poincaretransformationen mit der Lagrangedichte geschehen soll. Bei einer Poincaretransformation \( x' = \Lambda x + a \) wird aus dem Potentialvektor \(A(x)\) der neue Potentialvektor \[ A'(x) = \Lambda A(\Lambda^{-1}(x-a)) \] Wenn \(A(x)\) eine Lösung der Maxwellgleichungen zu vorgegebener Stromdichte \(j(x)\) ist, so ist \(A'(x)\) eine Lösung zur Stromdichte \(j'(x)\). Wenn also \(A(x)\) ein Minimum der Wirkung zur Stromdichte \(j(x)\) ist, so soll auch \(A'(x)\) ein Minimum der Wirkung zur Stromdichte \(j'(x)\) sein.
Das erreichen wir am Einfachsten, wenn wir für die Wirkung fordern: \[ S[A,j] = S[A',j'] \] Die Wirkung soll sich also bei Poincaretransformationen nicht ändern. Das ist auf jeden Fall gegeben, wenn sich die Lagrangedichte bei Poincaretransformationen ebenfalls nicht ändert. Versuchen wir es also mit einer Lagrangedichte, deren Terme invariant sind unter Poincaretransformationen.
Wie sieht es mit Eichtransformationen der Potentiale aus? Auch hier gilt: Wenn \(A(x)\) eine Lösung der Maxwellgleichungen zu vorgegebener Stromdichte \(j(x)\) ist, so ist \( A(x) + \partial \chi(x) \) ebenfalls eine Lösung zur Stromdichte \(j(x)\) (wir verwenden für den Vierervektor mit Komponenten \( A^\mu(x) + \partial^\mu \chi(x) \) die Kurzschreibweise \( A(x) + \partial \chi(x) \)).
Wenn also \(A(x)\) ein Minimum der Wirkung ist, so soll auch \( A(x) + \partial \chi(x) \) ein Minimum der Wirkung sein. Wieder ist die einfachste Forderung, die das gewährleistet: Die Wirkung soll invariant unter Eichtransformationen sein – oder kurz: die Wirkung soll eichinvariant sein, d.h. \[ S[A, j] = S[A + \partial \chi, j] \] Eine eichinvariante Lagrangedichte würde das garantieren. Man kann auch etwas allgemeiner fordern, dass die Lagrangedichte sich bei Eichtransformationen der Felder nur um die Vierer-Divergenz eines Vierer-Vektorfeldes ändern darf, wobei dieses Vierer-Vektorfeld im Unendlichen schnell genug gegen Null gehen soll, so dass das Oberflächenintegral über den unendlich fernen Rand der vierdimensionalen Raumzeit gleich Null wird (das Raumintegral der Divergenz kann man ja nach dem Gauss'schen Satz in ein Oberflächenintegral umwandeln). Die Vierer-Divergenz trägt dann nichts zur Wirkung bei. Wir werden sehen, ob wir eine eichinvariante Lagrangedichte konstruieren können, oder ob eine Viererdivergenz unvermeidlich ist.
An dieser Stelle müsste nun eine ausführliche Konstruktion einer Lagrangedichte, die mit den obigen Forderungen verträglich ist, folgen. Man kann aus einer solchen Konstruktion viel darüber lernen, welche Forderungen man genau verwenden muss, um eine Lagrangedichte zu erzeugen, die die Maxwellgleichungen hervorbringt. Außerdem wird dabei klar, in wieweit die Lagrangedichte überhaupt eindeutig ist. Eine solche Diskussion würde jedoch den Rahmen dieses Kapitels sprengen, und wir wollen sie deshalb überspringen.
Das Ergebnis lautet: Die einfachste Lagrangedichte, die die obigen Forderungen erfüllt und die Maxwellgleichungen hervorbringt, ist gegeben durch \[ \mathcal{L} = -\frac{1}{4} \left( \partial_\mu A_\nu - \partial_\nu A_\mu \right) \, \left( \partial^\mu A^\nu - \partial^\nu A^\mu \right) - \frac{1}{c} j_\mu A^\mu \] oder mit dem Feldstärketensor geschrieben:
\[ \mathcal{L} = -\frac{1}{4} F_{\mu\nu} \, F^{\mu\nu} - \frac{1}{c} j_\mu A^\mu \] |
wobei wieder über doppelte Indices summiert wird.
Die Lagrangedichte enthält also zwei Summanden. Der erste Summand enthält nur die Ableitungen der Potentiale und ähnelt damit dem Term \( \frac{m}{2} v^2 \) in der Lagrangefunktion der klassischen Mechanik, der die Geschwindigkeit, also die zeitliche Ableitung der Bahnkoordinaten enthält. Man nennt den Term \( -\frac{1}{4} F_{\mu\nu} \, F^{\mu\nu} \) daher auch den kinetischen Term der Lagrangedichte.
Analog bezeichnet man den zweiten Term \( - \frac{1}{c} j_\mu A^\mu \) manchmal als potentiellen Term. Nur dieser zweite Term enthält direkt das Potential \(A(x)\) und die von außen vorgegebene Quelle des Potentials, die Stromdichte \(j(x)\).
Ausgeschrieben mit Hilfe des elektrischen Feldes \(\boldsymbol{E}\), des magnetischen Feldes \(\boldsymbol{B}\), der Ladungsdichte \(\rho\) und der Dreier-Stromdichte \(\boldsymbol{j}\) lautet die Lagrangedichte: \[ \mathcal{L} = \frac{1}{2} (\boldsymbol{E}^2 - \boldsymbol{B}^2) - \rho A^0 + \frac{1}{c} \boldsymbol{j A} \] Überprüfen wir die Euler-Lagrange-Gleichungen (für die Rechnung ist es wichtig, die Felder \(A_\rho\) (wir verwenden hier statt \(k\) den Index \(\rho\)) sowie ihre Ableitungen als unabhängige Variablen der Lagrangedichte aufzufassen, denn genau so sind die Euler-Lagrange-Gleichungen gemeint; es gilt wieder die Summenkonvention für doppelte Indices): \[ 0 = \frac{d\mathcal{L}}{dA_\rho} - \partial_\sigma \frac{d\mathcal{L}}{d \, (\partial_\sigma A_\rho)} = \] \[ = - \frac{1}{c} j^\mu \frac{d\mathcal{L}}{dA_\rho} A_\mu + \] \[ + \frac{1}{4} \partial_\sigma \frac{d}{d \, (\partial_\sigma A_\rho)} \left( \partial_\mu A_\nu - \partial_\nu A_\mu \right) \, \left( \partial^\mu A^\nu - \partial^\nu A^\mu \right) = \] \[ = - \frac{1}{c} j^\rho + \partial_\sigma \left( \partial^\sigma A^\rho - \partial^\rho A^\sigma \right) = \] \[ = - \frac{1}{c} j^\rho + \partial_\sigma F^{\sigma\rho} \] Das ist genau die inhomogene Maxwellgleichung (nur die Indizes tragen andere Namen)! Unser Ansatz war also erfolgreich: mit der obigen Lagrangedichte und den Potentialen als dynamische Variable sind die Euler-Lagrange-Gleichungen gerade die inhomogenen Maxwellgleichungen.
Schauen wir uns die Lagrangedichte \[ \mathcal{L} = -\frac{1}{4} F_{\mu\nu} \, F^{\mu\nu} - \frac{1}{c} j_\mu A^\mu \] noch einmal im Hinblick auf Ihre Transformationseigenschaften bei Poincaretransformationen und bei Eichtransformationen an:
Unter Poincaretransformationen ist die Sache klar: \(\mathcal{L}\) ist invariant. Dies erkennt man schon daran, dass in den Summen über doppelte Indices immer ein Index oben und ein Index unten steht.
Wie sieht es bei Eichtransformationen aus? Zunächst einmal ändert sich der Feldstärketensor \(F^{\mu\nu}\) dabei nicht, d.h. der erste Term ist von Eichtransformationen nicht betroffen. Der zweite Term jedoch verändert sich: aus \(\frac{1}{c} j_\mu A^\mu\) wird \(\frac{1}{c} j_\mu (A^\mu+\partial^\mu \chi)\), d.h. es entsteht ein zusätzlicher Term \(\frac{1}{c} j_\mu \partial^\mu \chi\). Die Lagrangedichte ist also nicht eichinvariant!
Dieser zusätzliche Term trägt jedoch nichts zur Wirkung \(S\) bei, d.h. die Wirkung ist eichinvariant. Warum das so ist, sieht man so:
Zunächst dazu eine kleine Vorberechnung: Es ist nach der Produktregel \begin{align} \partial^\mu (j_\mu \chi) &= (\partial^\mu j_\mu) \chi + j_\mu (\partial^\mu \chi) = \\ &= j_\mu (\partial^\mu \chi) \end{align} denn wegen der Ladungserhaltung (Stromerhaltung) ist \(\partial^\mu j_\mu = 0\), sodass der erste Term wegfällt. Also gilt umgekehrt für den Eich-Zusatzterm in der Lagrangedichte: \[ \frac{1}{c} j_\mu \partial^\mu \chi\ = \frac{1}{c} \partial^\mu (j_\mu \chi) \] Der Zusatzterm ist also gleich der Viererdivergenz des Vektorfeldes \( j_\mu \chi \). Bildet man in der Wirkung das Integral dieser Funktion über die Raumzeit, so kann man dieses Integral nach dem Gauss'schen Satz wieder in ein Oberflächen-Flussintegral des Vektorfeldes \( j_\mu \chi \) durch den unendlich fernen Rand der Raumzeit umschreiben. Wir nehmen nun an, dass die Stromdichte \( j_\mu \) multipliziert mit dem Eichterm \( \chi \) für unendlich ferne Raumpunkte und unendlich ferne Zeiten schnell genug gegen Null geht, so dass das Oberflächen-Flussintegral gleich Null ist.
Obwohl also die Lagrangedichte bei gegebener Stromdichte nicht eichinvariant ist, ist die Wirkung eichinvariant, wenn wir die Stromerhaltung \(\partial^\mu j_\mu = 0\) als Nebenbedingung für die Stromdichte voraussetzen. Anders ausgedrückt: Die Stromerhaltung garantiert die Eichinvarianz der Theorie.
Gehen wir nun zur Hamiltonschen Formulierung der klassischen Theorie über, indem wir eine Legendre-Transformation analog zur klassischen Mechanik durchführen. Schauen wir uns dazu noch einmal die Vorgehensweise in der klassischen Mechanik an:
Im Falle eines Teilchens im dreidimensionalen Raum war die Lagrangefunktion eine Funktion des Ortes \(\boldsymbol{x}\) und der Geschwindigkeit \(\boldsymbol{v}\) des Teilchens: \( L(\boldsymbol{x},\boldsymbol{v}) \). Wir haben den zu \(\boldsymbol{x}\) kanonisch konjugierten Impuls \(\boldsymbol{p}\) definiert durch \[ \boldsymbol{p} := \frac{dL}{d\boldsymbol{v}} \] d.h. für jeden der drei Freiheitsgrade gilt \[ p_k := \frac{dL}{dv_k} \] Von oben wissen wir: In der Feldtheorie hängt die Lagrangefunktion \(L\) (nicht die Lagrangedichte \(\mathcal{L}\)) von unendlich vielen Freiheitsgraden ab, nämlich im Fall der Elektrodynamik von den Potentialen \(A_\mu\) und deren zeitlicher Ableitung an jedem Raumpunkt \(\boldsymbol{x}\). Man kann \(\mu\) und \(\boldsymbol{x}\) dabei zusammengefasst als einen kontinuierlichen Doppelindex ansehen, der die Freiheitsgrade gleichsam durchnummeriert – wobei ein wirkliches Durchnummerieren wegen des kontinuierlichen Charakters von \(\boldsymbol{x}\) natürlich nicht möglich ist. Die Lagrangefunktion \(L\) ist also ein Funktional, das wir oben als \[ L[\phi(ct,.), \partial_0 \Phi(ct,.)] = \] \[ = \int d^3x \, \mathcal{L}( \Phi(ct,\boldsymbol{x}), \partial \Phi(ct,\boldsymbol{x}) ) \] mit der Lagrangedichte Lagrangedichte \(\mathcal{L}\) geschrieben haben.
Wie sieht nun das Analogon zu \( p_k := \frac{dL}{dv_k} \) bei unendlich vielen Freiheitsgraden aus? Dazu müssen wir den Begriff der Funktionalableitung einführen (siehe z.B. Michael J. Gruber Funktionalableitungen in a nutshell):
|
Wir sehen also, dass die Funktionalableitung selbst ein lineares Funktional ist, das die Richtungs-Funktionalableitung von \(F\) an der Stelle \(\Phi\) in Richtung der Variationsfunktion \(\eta\) ergibt, ganz analog zur Definition des Gradienten bei Funktionen endlich vieler Freiheitsgrade. Man bezeichnet lineare Funktionale auch als Distributionen.
Im Grunde haben wir die Funktionalableitung bereits angewendet, nämlich bei der Herleitung der Euler-Lagrange-Gleichungen, als wir das Minimum des Wirkungs-Funktionals gesucht haben. Man nennt die Funktionalableitung daher auch Variation von \( F[\Phi] \) nach \(\Phi\) oder auch Variationsableitung. In der mathematischen Literatur der Funktionalanalysis spricht man auch von Fréchetableitung.
In der physikalischen Literatur schreibt man lineare Funktionale gerne als Integrale. Der Grund dafür ist, dass man jeder (gutartigen) reellwertigen Funktion \(f\) im \(n\)-dimensionalen reellen Raum über ein Integral ein lineares Funktional \(F\) zuordnen kann: \[ F[g] := \int d^n x \, f(x) \, g(x) \] Dabei nehmen wir wie immer an, dass die reellwertigen Funktionen \(f\) und \(g\) im Unendlichen hinreichend stark abfallen, so dass das Integral Sinn macht; \(n\)-dimensionale Vektoren schreiben wir hier nicht fett, denn den Fettdruck wollen wir für dreidimensionale Vektoren reservieren.
Die Umkehrung gilt übrigens nicht! Man kann nicht jedem linearen Funktional \(F[g]\) über die obige Gleichung eine Funktion \(f\) zuordnen. Ein Beispiel ist das Delta-Funktional (auch Delta-Distribution genannt) \[ \delta_a[g] := g(a) \] das jeder Funktion \(g\) (diesmal im eindimensionalen reellen Raum) den Funktionswert von \(g\) an der Stelle \(a\) zuordnet. Das Delta-Funktional lässt sich nicht als Integral von Funktionen schreiben. Zum Entsetzen mancher Mathematiker tun es die Physiker aber dennoch und schreiben \[ \delta_a[g] = \int dx \, \delta(x-a) \, g(x) \] Dabei ist \(\delta(x-a)\) keine Funktion, denn dann wäre \(\delta(x-a)=0\) für \(x \ne a\) und \(\delta(x-a)=\infty\) für \(x = a\), und unendliche Funktionswerte sind nicht zulässig. Streng genommen ist die obige Schreibweise mit \(\delta(x-a)\) also mathematisch nicht definiert – zumindest in der Standard-Analysis. In der Nichtstandardanalysis, die auch mit infinitesimalen Größen arbeitet, kann man dagegen sogar eine Nichtstandard-Delta-Funktion explizit angeben (siehe auch Die Grenzen der Berechenbarkeit, Kapitel 4.5 Infinitesimale und unendliche Größen (Nichtstandard-Analysis).
Insgesamt ist diese Integral-Schreibweise sehr nützlich – deshalb lieben Physiker sie so. Sie berücksichtigt automatisch den linearen Charakter des Funktionals. Und: Jedes lineare Funktional lässt sich als Grenzwert einer Folge von Funktionalen \[ F_i[g] := \int d^n x \, f_i(x) \, g(x) \] verstehen, bei dem die \(f_i\) gewöhnliche Funktionen sind. Für \(i\) gegen Unendlich existiert also der Grenzwert dieses Integrals und liefert ein lineares Funktional \(F[g]\), das dann formal als \[ F[g] := \int d^n x \, f(x) \, g(x) \] geschrieben wird. Der Grenzwert der \(f_i(x)\) muss allerdings dabei selbst nicht existieren, d.h. \(f(x)\) muss keine Funktion sein, sondern kann ein recht singuläres Objekt werden. Mathematisch bedeutet das, dass der Grenzwert \(i \rightarrow \infty\) und die Integration nicht immer miteinander vertauschbar sind. Physiker tun formal so, als wären sie es doch, was ok ist, wenn man \(i\) einfach nur sehr groß werden lässt, ohne den Grenzübergang bis zuletzt durchzuführen. Die Integralschreibweise für lineare Funktionale wird daher oft anschaulich in dem Sinn verstanden, dass man \(i\) sehr groß werden lässt.
Beispiel: Im Fall der Delta-Distribution kann man für die Funktionenfolge \(f_i\) auf Eins normierte Gauss-Glockenkurven wählen, deren Breite mit wachsendem \(i\) gegen Null schrumpft und deren Höhe entsprechend zunimmt, so dass die Fläche unter der Kurve gleich Eins bleibt.
Ein anderes Argument für die Integralschreibweise ist ihre Analogie zum Fall endlich vieler Freiheitsgrade. Aus dem Integral wird dabei die Summe über alle Freiheitsgrade, und jede reellwertige lineare Funktion lässt sich als \[ F[g] = \sum_k f_k g_k \] mit den mehrkomponentigen reellen Vektoren \(f\) und \(g\) schreiben.
Da die Funktionalableitung ein lineares Funktional ist, verwenden Physiker auch für sie die Integralschreibweise: \[ \frac{\delta F[\Phi]}{\delta \Phi}[\eta] =: \int d^n x \, \frac{\delta F[\Phi]}{\delta \Phi(x)} \, \eta(x) \] Die Bedeutung dieser Ausdrücke kann man sich jeweils anhand der obigen Definition überlegen. Wichtig ist dabei immer, sich Terme wie \( \frac{\delta F[\Phi]}{\delta \Phi(x)} \) als Integralkerne im obigen Sinn vorzustellen, wobei nur das Integral als Ganzes Sinn macht. Man darf übrigens die Funktionalableitung nicht mit der distributiven Ableitung linearer Funktionale verwechseln, die im eindimensionalen Fall über \( F'[\Phi] := - F[\frac{d\Phi}{dx}] \) definiert ist.
Die Integralschreibweise für die Funktionalableitung ist wieder durch ihre Ähnlichkeit mit dem Fall endlich vieler Freiheitsgrade motiviert. Für mehrkomponentigen reelle Vektoren \(\Phi\) und \(\eta\) hat man für die Richtungsableitung \begin{align} \frac{\delta F[\Phi]}{\delta \Phi}[\eta] &= \lim_{\epsilon \rightarrow 0} \; \frac{F[\Phi + \epsilon \eta] - F[\Phi]}{\epsilon} \\ & \\ &= \sum_k \frac{\partial F}{\partial \Phi_k} \eta_k \end{align} Der partiellen Ableitung \( \frac{\partial F}{\partial \Phi_k} \) im endlichdimensionalen Fall entspricht im unendlichdimensionalen Fall also die Funktionalableitung \( \frac{\delta F[\Phi]}{\delta \Phi(x)} \) Wieder sehen wir, wie der Ort \(x\) die Rolle eines kontinuierlichen Indexes spielt und den diskreten Index \(k\) ersetzt.
Schauen wir uns zur Übung ein Beispiel an und betrachten ein lineares Funktional \[ F[\Phi] = \int dx \, f(x) \, \Phi(x) \] Hier sind \(f\) und \(\Phi\) reellwertige Funktionen im eindimensionalen Raum. Wie sieht die Funktionalableitung dieses Funktionals aus?
Es ist wegen der Linearität von \(F\): \[ \frac{1}{\epsilon} \, \left( F[\Phi + \epsilon \eta] - F[\Phi] \right) = \] \[ = \frac{1}{\epsilon} \, \left( F[\Phi] + \epsilon F[\eta] - F[\Phi] \right) \] \[ = F[\eta] \] Das Ergebnis ist unabhängig von \(\epsilon\), so dass sich der Grenzwert \(\epsilon \rightarrow 0\) für die Funktionalableitung problemlos ausführen lässt mit dem Ergebnis: \[ \frac{\delta F[\Phi]}{\delta \Phi}[\eta] = F[\eta] \] Übersetzt in die Integralschreibweise bedeutet das: \[ \int dx \, \frac{\delta F[\Phi]}{\delta \Phi(x)} \, \eta(x) = \int dx \, f(x) \, \eta(x) \] und damit \[ \frac{\delta F[\Phi]}{\delta \Phi(x)} = f(x) \] Schreibt man darin \( F[\Phi] = \int dx' \, f(x') \, \Phi(x') \) und zieht \(\frac{\delta}{\delta \Phi(x)}\) formal unter das Integral, so ergibt sich \begin{align} f(x) &= \frac{\delta F[\Phi]}{\delta \Phi(x)} = \\ & \\ &= \frac{\delta}{\delta \Phi(x)} \int dx' \, f(x') \, \Phi(x') = \\ & \\ &= \int dx' \, f(x') \, \frac{\delta \Phi(x')}{\delta \Phi(x)} \end{align} Damit dieser Integralausdruck gleich \(f(x)\) ist, muss gelten: \[ \frac{\delta \Phi(x')}{\delta \Phi(x)} = \delta(x' - x) \] wobei rechts die Delta-Funktion steht. Anschaulich gesprochen sagt man, dass die Freiheitsgrade \(\Phi(x)\) und \(\Phi(x')\) an verschiedenen Raumpunkten unabhängig voneinander sind.
Nun sind wir gerüstet, auch im unendlichdimensionalen Fall das Analogon zu \( p_k := \frac{dL}{dv_k} \) aufzustellen. Für die Elektrodynamik haben wir:
\[ \pi^\mu(ct,\boldsymbol{x}) := \frac{\delta L}{\delta (\partial_0 A_\mu(ct,\boldsymbol{x}))} \] |
im Sinne der oben definierten Funktionalableitung. Wir können \(\pi^\mu\) auch mit Hilfe der Lagrangedichte \(\mathcal{L}\) ausdrücken. Die Definition der Funktionalableitung liefert: \[ \frac{\delta L}{\delta (\partial_0 A_\mu)}[\eta] = \] \[= \frac{d}{d\epsilon} L[..., \partial_0 A_\mu + \epsilon \eta, ...] = \] \[ = \frac{d}{d\epsilon} \int d^3x \, \mathcal{L}(..., \partial_0 A_\mu(ct,\boldsymbol{x}) + \epsilon \eta(ct,\boldsymbol{x}), ...) = \] \[ = \int d^3x \, \frac{d}{d\epsilon} \mathcal{L}(..., \partial_0 A_\mu(ct,\boldsymbol{x}) + \epsilon \eta(ct,\boldsymbol{x}), ...) = \] \[ = \int d^3x \, \frac{d}{d\epsilon} \mathcal{L}(..., \partial_0 A_\mu(ct,\boldsymbol{x}) + \epsilon \eta(ct,\boldsymbol{x}), ...) = \] \[ = \int d^3x \, \frac{d \mathcal{L}}{d (\partial_0 A_\mu(ct,\boldsymbol{x}))} \, \eta(ct,\boldsymbol{x}) \] Der Vergleich mit der Integralschreibweise der Funktionalableitung \[ \frac{\delta L}{\delta (\partial_0 A_\mu)}[\eta] = \] \[ = \int d^3x \, \frac{\delta L}{\delta (\partial_0 A_\mu(ct,\boldsymbol{x}))} \, \eta(ct,\boldsymbol{x}) \] liefert: \[ \pi^\mu(ct,\boldsymbol{x}) := \] \[ = \frac{\delta L}{\delta (\partial_0 A_\mu(ct,\boldsymbol{x}))} = \] \[ = \frac{d \mathcal{L}}{d (\partial_0 A_\mu(ct,\boldsymbol{x}))} \] wobei die Ableitung der Lagrangefunktion \(L\) im Sinne der Funktionalableitung eines Funktionals gemeint ist, die Ableitung der Lagrangedichte \(\mathcal{L}\) dagegen die gewöhnliche partielle Ableitung einer Funktion ist (die Lagrangedichte war ja eine gewöhnliche reelle Funktion von 20 reellen Variablen; in die ersten 4 setzt man die Potentialwerte \(A_\mu(ct,\boldsymbol{x})\) und in die übrigen 16 die Werte der Ableitungen \(\delta_\nu A_\mu(ct,\boldsymbol{x})\) ein; die partielle Ableitung leitet \(\mathcal{L}\) einfach nach der entsprechenden Variable ab).
Fassen wir Zeit und Raum wieder zum vierdimensionalen Vektor \(x = (ct, \boldsymbol{x})\) zusammen, so ist also \[ \pi^\mu(x) := \frac{d \mathcal{L}}{d (\partial_0 A_\mu(x))} \] Wir hatten oben bereits ausgerechnet, dass \[ \frac{d \mathcal{L}}{d(\delta_\sigma A_\mu)} = - F^{\sigma \mu} \] ist. Also ist mit \(\sigma = 0\)
\[ \pi^\mu = - F^{0 \mu} = F^{\mu 0} \] |
Also ist der Vierervektor \(\pi = (\pi^\mu)\) gleich der ersten Spalte des Feldstärketensors, d.h. \[ \pi = \begin{pmatrix} 0 \\ \boldsymbol{E} \end{pmatrix} \] Für die Komponente \(\pi^0\) bedeutet dies eine unangenehme Überaschung: \[ \pi^0 = F^{00} = 0 \] d.h. diese Komponente ist als dynamische konjugierte Impulsvariable, deren Zeitabhängigkeit wir ermitteln wollen, ungeeignet. Was hat diese unerwartete Komplikation zu bedeuten?
Woran liegt es, dass es nur drei konjugierte Impulsvariablen gibt? Zur Klärung wollen wir die Lagrangefunktion zunächst explizit mit Hilfe der Potentiale und deren Ableitungen auschreiben.
Man rechnet leicht nach, dass die Beziehung \[ F^{\mu\nu} = \partial^\mu A^\nu - \partial^\nu A^\mu \] ausgeschrieben mit den Feldern \(\boldsymbol{E}\) und \(\boldsymbol{B}\) die Gleichungen \[ \boldsymbol{E} = - \frac{dA^0}{d\boldsymbol{x}} - \partial_0 \boldsymbol{A} \] \[ \boldsymbol{B} = \mathrm{rot} \, \boldsymbol{A} \] ergibt. Daraus folgt \[ \frac{1}{4} F_{\mu\nu} F^{\mu\nu} = -\frac{1}{2} (\boldsymbol{E}^2 - \boldsymbol{B}^2) \] so dass man die Lagrangedichte schreiben kann als. \[ \mathcal{L} = \frac{1}{2} (\boldsymbol{E}^2 - \boldsymbol{B}^2) - \rho A^0 + \frac{1}{c} \boldsymbol{j A} = \] \[ = \frac{1}{2} \left( \left(\frac{dA^0}{d\boldsymbol{x}} + \partial_0 \boldsymbol{A}\right)^2 - (\mathrm{rot} \, \boldsymbol{A})^2 \right) - \rho A^0 + \frac{1}{c} \boldsymbol{j A} \] Nun können wir es sehen: Die Ursache für \( \pi^0 = 0 \) liegt darin, dass die Lagrangedichte nicht von \( \partial_0 A_0 \) abhängt. Nur die Zeitableitung der räumlichen Komponenten \( \partial_0 \boldsymbol{A} \) kommt vor.
Das Analogon in der klassischen Mechanik wäre, dass \(A_0\) einem Lagrange-Multiplikator \(\lambda\) in der Lagrangefunktion entspricht, denn auch dort kommt \( \frac{d\lambda}{dt} \) nicht in der Lagrangefunktion vor. Ein Zusatzterm \( \lambda \cdot g(\boldsymbol{x},\boldsymbol{v}) \) in der Lagrangefunktion der klassischen Mechanik bewirkt, dass die Freiheitsgrade \(\boldsymbol{x}\) und \( \boldsymbol{v} = \frac{d \boldsymbol{x}}{dt} \) die Nebenbedingung \( g(\boldsymbol{x},\boldsymbol{v}) = 0 \) erfüllen müssen, denn die entsprechende Lagrangegleichung für den Lagrange-Multiplikator lautet \[ g(\boldsymbol{x},\boldsymbol{v}) = \frac{dL}{d\lambda} = \frac{d}{dt} \frac{dL}{d(d\lambda/dt)} = 0 \]
Genau genommen entspricht\( A_0(ct,\boldsymbol{x}) \) für jeden Wert \(\boldsymbol{x}\) einem Lagrange-Multiplikator \(\lambda_k\) , d.h. wir haben es hier mit unendlich vielen Lagrange-Multiplikatoren zu tun (die Interpretation von \(\boldsymbol{x}\) als kontinuierlichen Index kennen wir ja bereits). Analog entspricht der Term \( G(\lambda_k, \boldsymbol{x}, \boldsymbol{v}) := \sum_k \lambda_k \, g_k(\boldsymbol{x}, \boldsymbol{v}) \) für die Nebenbedingungen \( g_k(\boldsymbol{x}, \boldsymbol{v}) = 0 \) aus der klassischen Mechanik nun in der Lagrangefunktion dem \(A^0\)-abhängigen Anteil (dafür zuvor die quadrierte Klammer in \( \mathcal{L} \) nach der binomischen Formel auflösen und über den Raum integrieren, um die Lagrangefunktion zu erhalten) \[ G[A^0, \partial_0 \boldsymbol{A}] := \] \[ \int d^3x \, \left( \frac{1}{2} \left( \frac{dA^0}{d\boldsymbol{x}} \right)^2 + \frac{dA^0}{d\boldsymbol{x}} (\partial_0 \boldsymbol{A}) - \rho A^0 \right) \] So wie man in der klassischen Mechanik die Nebenbedingungen aus den Gleichungen \( g_k(\boldsymbol{x}, \boldsymbol{v}) = \frac{dG}{d\lambda_k} = \frac{dL}{d\lambda_k} = 0 \) gewinnen kann, kann man auch hier die Nebenbedingungen angeben (im letzten Schritt erfolgt wieder die partielle Integration weg von \(\eta\) mit der Annahme, dass die Randterme wegfallen, weil die Variation \(\eta\) entsprechend gewählt ist): \[ 0 = \frac{\delta G}{\delta A^0}[\eta] = \] \[ = \int d^3x \, \frac{\delta G}{\delta A^0(ct,\boldsymbol{x})} \, \eta(ct,\boldsymbol{x}) = \] \[ = \frac{d}{d\epsilon} G[A^0 + \epsilon \eta, \partial_0 \boldsymbol{A}] \bigg|_{\epsilon=0} = \] \[ = \frac{d}{d\epsilon} \int d^3x \, \bigg( \frac{1}{2} \bigg( \frac{d(A^0 + \epsilon \eta)}{d\boldsymbol{x}} \bigg)^2 + \] \[ + \frac{d(A^0 + \epsilon \eta)}{d\boldsymbol{x}} (\partial_0 \boldsymbol{A}) - \rho (A^0 + \epsilon \eta) \bigg) \bigg|_{\epsilon=0} = \] \[ = \int d^3x \, \bigg( \frac{dA^0}{d\boldsymbol{x}} \frac{d\eta}{d\boldsymbol{x}} + \frac{d\eta}{d\boldsymbol{x}} (\partial_0 \boldsymbol{A}) - \rho \eta \bigg) = \] \[ = - \int d^3x \, \left( \frac{d}{d\boldsymbol{x}} \bigg( \frac{dA^0}{d\boldsymbol{x}} + \partial_0 \boldsymbol{A} \bigg) + \rho \right) \, \eta = \] d.h. die Nebenbedingung lautet \[ \frac{\delta G}{\delta A^0(ct,\boldsymbol{x})} = \] \[ = - \frac{d}{d\boldsymbol{x}} \bigg( \frac{dA^0}{d\boldsymbol{x}} + \partial_0 \boldsymbol{A} \bigg) - \rho \] \[ = \mathrm{div} \boldsymbol{E} - \rho = 0 \] Halten wir fest:
|
Dieser Umstand hängt damit zusammen, dass alle Potentiale \(A_\mu\), die durch Eichtransformationen ineinander übergehen, zum selben Feldstärketensor und damit zu denselben dynamischen Größen führen. Schauen wir uns an, wie man diese Mehrdeutigkeit der Potentiale loswerden kann. Es gibt hier mehrere Möglichkeiten, von denen wir uns eine genauer ansehen wollen:
Unter den vielen zueinander gleichwertigen Potentialen wollen wir diejenigen auswählen, die die Bedingung \[ \partial_\mu A^\mu(x) = 0 \] erfüllen. Man bezeichnet diese Bedingung als Lorentzeichung. Die Maxwellgleichung \[ \partial_\mu \partial^\mu A^\nu - \partial^\nu \partial_\mu A^\mu = \frac{1}{c} j^\nu \] für diese Potentiale nimmt die einfache Form der inhomogenen Wellengleichung \[ \partial_\mu \partial^\mu A^\nu = \frac{1}{c} j^\nu \] an, denn der zweite Term fällt aufgrund der Eichbedingung weg. Dies war auch eine Motivation dafür, die Eichbedingung gerade so zu wählen.
Die Lorentz-Eichbedingung kann man durch eine entsprechende Eichtransformation der Potentiale immer erfüllen: Wir starten mit einer beliebigen Lösung \(A'^\mu\) der Maxwellgleichungen und definieren einen dazu gleichwertigen eichtransformierten Potentialvektor \[ A^\mu = A'^\mu + \partial^\mu \chi \] Wählen wir nun die Eichfunktion \(\chi\) so, dass \[ \partial_\mu A'^\mu + \partial_\mu \partial^\mu \chi = 0 \] ist. d.h. die Eichfunktion \(\chi\) erfüllt diese inhomogene Wellengleichung. Dann ist automatisch die Lorentz-Eichbedingung \( \partial_\mu A^\mu(x) = 0 \) für unseren eichtransformierte Potentialvektor erfüllt.
Die Eichbedingung \( \partial_\mu A^\mu(x) = 0 \) fixiert also in diesem Sinn die Eichung, d.h. sie lässt unter den vielen zueinander gleichwertigen Potentialen nur noch bestimmte Potentiale zu. Diese Eichfixierung ist allerdings noch nicht vollständig, denn die Gleichung \( \partial_\mu A'^\mu + \partial_\mu \partial^\mu \chi = 0 \) hat nicht nur eine Lösung für \(\chi\): Ist \(\chi(x)\) eine Lösung dieser Gleichung, so ist auch \(\chi(x) + \xi(x) \) eine Lösung, wenn \( \xi(x) \) die homogenen Wellengleichung \( \partial_\mu \partial^\mu \xi = 0 \) erfüllt.
Wie kann man nun die Eichung eindeutig fixieren? Welche weitere Bedingung benötigt man, um unter den übrig gebliebenen gleichwertigen Potentialen (die bereits die Lorentzeichung \( \partial_\mu A^\mu = 0 \) erfüllen) eindeutig einen Vektor auszuwählen?
Da \( \pi^0 = 0\) ist, könnte man versuchen, diejenigen Vierer-Potentiale auszuwählen, die \(A^0 = 0\) erfüllen, d.h. bei denen das elektrische Potential gleich Null ist. Dies ist allerdings nicht immer möglich, denn ein Potentialvektor mit \( A^0 = 0\) ist im Allgemeinen keine Lösung der Maxwellgleichung \( \partial_\mu \partial^\mu A^\nu = \frac{1}{c} j^\nu \) mehr. Wenn allerdings keine Ladungen und Ströme vorhanden sind (also überall \( j^\nu = 0 \) ist), dann lässt sich \(A^0 = 0\) erreichen. Daher nennt man die Bedingung \(A^0 = 0\) zusammen mit der Lorentzeichung auch Strahlungseichung, wie die folgende Überlegung zeigt:
Starten wir mit einer Lösung \(A'^\mu\) der Maxwellgleichungen mit \( j^\nu = 0 \), wobei zusätzlich die Lorentzeichung \( \partial_\mu A^\mu = 0 \) erfüllt sein soll, und gehen zu einem eichtransformierten Potential \( A^\mu = A'^\mu + \partial^\mu \chi \) über, das ebenfalls die Lorentzeichung \( \partial_\mu A'^\mu = 0 \) erfüllt (d.h. \(\chi\) erfüllt die homogene Wellengleichung \( \partial_\mu \partial^\mu \chi = 0 \) ). Wir wollen \(\chi\) nun so wählen, dass \( A^0 = A'^0 + \partial^0 \chi = 0\) ist, d.h. \[ \frac{1}{c} \frac {d}{dt} \chi = - A'^0 \] mit der Lösung \[ \chi(ct,\boldsymbol{x}) = - c \int_0^t A'^0(ct',\boldsymbol{x}) \, dt' + K(\boldsymbol{x}) \] mit irgendeiner zeitunabhängigen Funktion \(K(\boldsymbol{x})\).
Bleibt zu überprüfen, ob dieses \(\chi\) wie gefordert auch die Bedingung \( \partial_\mu \partial^\mu \chi = 0 \) erfüllt, so dass die Lorentzeichung weiterhin gegeben ist. Die konkrete Rechnung wollen wir uns hier ersparen.
Die beiden Strahlungseichung-Bedingungen \( \partial_\mu A^\mu = 0 \) sowie \(A^0=0\) legen die Eichung im ladungsfreien Raum eindeutig fest. Damit sehen wir, dass im ladungsfreien Raum nur zwei der vier Komponenten \(A^\mu\) voneinander unabhängige Freiheitsgrade repräsentieren.
Natürlich gibt es noch andere Möglichkeiten, die Eichung der Potentiale festzulegen. Eine solche Möglichkeit ist die Coulomb-Eichung \( \mathrm{div} \boldsymbol{A} = 0 \), die auch mit Ladungen funktioniert (die Lorentzbedingung \( \partial_\mu A^\mu = 0 \) wird hier nicht zusätzlich verlangt). Ohne Ladungen und mit der Eichung \(A^0=0\) sind Lorentzeichung und Coulombeichung dagegen gleichwertig zueinander.
Sowohl Strahlungseichung als auch Coulombeichung haben den Nachteil, dass sie das Transformationsverhalten des Potentialvektors \(A^\mu\) bei Poincaretransformationen komplizierter machen. Oben hatten wir das Transformationsverhalten \[ A'(x) = \Lambda \, A(\Lambda^{-1} (x - a) ) \] angegeben. Dieses Verhalten ist mit der Lorentzeichung \( \partial_\mu A^\mu = 0 \) verträglich: erfüllt \(A(x)\) die Lorentzeichung, so auch \(A'(x)\). Aber: ist \(A^0 = 0\), so ist nach der Poincaretransformation nicht ebenfalls \(A'^0 = 0\). Man müsste erst zusätzlich zur Poincaretransformation noch eine Eichtransformation durchführen, um die Eichbedingung wieder herzustellen. Das ist zwar prinzipiell alles machbar, aber der Umgang mit Poincaretransformationen wird dadurch umständlicher. Man sagt, die Theorie ist nicht mehr manifest kovariant.
Will man eine manifest kovariante Theorie beibehalten, so kann man lediglich die Lorentzbedingung \( \partial_\mu A^\mu = 0 \) zur teilweisen Eichfixierung verwenden. Es ist sogar möglich (und für die Quantisierung später auch nützlich), diese Bedingung direkt in die Wirkung einzubauen. Dazu orientiert man sich an der Vorgehensweise, wie man Extremwerte von Funktionen unter Nebenbedingungen gewinnt. Hier eine kurze Wiederholung (siehe z.B. Prof.Dr.M.Froehner: 7.6 Extrema mit Nebenbedingung):
Nehmen wir an, wir suchen einen n-dimensionalen reellen Vektor \(x\), für den eine reellwertige Funktion \(f(x)\) einen Extremwert (Maximum, Minimum oder Sattelpunkt) annimmt, wobei \(x\) gleichzeitig die reelle Nebenbedingung \(g(x) = 0\) erfüllt.
Zur Veranschaulichung betrachten wir den zweidimensionalen Fall. Dann können wir in der zweidimensionalen \(x\)-Ebene die Höhenlinien von \(f\) einzeichnen. Zusätzlich können wir die Höhenlinie von \(g\) einzeichnen, für die g(x) = 0 ist. Auf dieser Nebenbedingungslinie suchen wir nach einem Extremwert von \(f\). Ein solcher Extremwert ist dann erreicht, wenn die Nebenbedingungslinie \(g(x) = 0\) gerade eine Höhenlinie von \(f\) tangential berührt, denn dann verändert sich \(f\) dort in erster Ordnung nicht, wenn wir entlang der Nebenbedingungslinie weitergehen. Nun steht der Gradientenvektor \( \mathrm{grad} \, f(x) = \frac{df(x)}{dx} \) in jedem Punkt senkrecht auf der Höhenlinie von \(f\) durch diesen Punkt. Analog ist es bei \(g\). Die Nebenbedingungslinie berührt also gerade in den Punkten eine Höhenlinie von \(f\) tangential, wenn die Gradientenvektoren von \(f\) und \(g\) dieser Punkte parallel zueinander sind. Es muss also eine reelle Zahl \(\lambda\) geben, so dass \[ \frac{df(x)}{dx} = \lambda \frac{dg(x)}{dx} \] ist (beides sind hier zweidimensionale Gradientenvektoren, d.h. die obige Vektorengleichung umfasst die beiden Komponentengleichungen \( \frac{df}{dx_i} = \lambda \frac{dg}{dx_i} \) mit i = 1 und 2. Die Hilfsvariable \(\lambda\) heißt auch Lagrange-Multiplikator (siehe auch oben).
Einen Extremwert von \(f(x)\) unter der Nebenbedingung \(g(x)=0\) können wir also finden, indem wir das Gleichungssystem \( \frac{df(x)}{dx} = \lambda \frac{dg(x)}{dx} \) sowie \(g(x)=0\) lösen. Dieses Gleichungssystem lösen wir, indem wir einen Extremwert der neuen Funktion \[ F(x, \lambda) := f(x) + \lambda \, g(x) \] suchen, denn die beiden Extremwert-Gleichungen \( \frac{dF}{dx} = 0 \) und \( \frac{dF}{d\lambda} = 0 \) ergeben genau unsere Gleichungen \( \frac{df(x)}{dx} = - \lambda \frac{dg(x)}{dx} \) und \(g(x)=0\) (das Minuszeichen macht keinen Unterschied, denn \(\lambda\) ist sowieso eine beliebig wählbare Zahl).
Versuchen wir, diese Vorgehensweise auf den unendlich-dimensionalen Fall zu übertragen. An die Stelle des \(n\)-dimensionalen Vektors \(x\) tritt die Potentialfunktion \(A\) mit den vier Funktionswerten \(A^\mu(x)\) für jeden Raum-Zeit-Punkt \(x = (ct,\boldsymbol{x})\), und an die Stelle von \(f\) tritt das Wirkungsfunktional \(S[A]\). Gesucht ist nach dem Variationsprinzip das Minimum von \(S[A]\) unter der Nebenbedingung \( \partial_\mu A^\mu = 0 \), denn wir wollen unter den gleichwertigen Lösungspotentiale der Maxwellgleichungen diejenigen ermitteln, die zugleich die Lorentzeichung erfüllen.
Es ist sinnvoll, die Nebenbedingung zunächst umzuformulieren und sie in einer ähnlichen Form wie die Wirkung zu schreiben. An Stelle von \( \partial_\mu A^\mu = 0 \) fordern wir deshalb die Bedingung \[ g[A] := - \frac{1}{2} \int d^4x \, (\partial_\mu A^\mu(x))^2 = 0 \] (der Vorfaktor − 1/2 erweist sich später als nützlich). Diese neue Bedingung ist gleichwertig zur Lorentzeichung, denn der Integrand \( (\partial_\mu A^\mu(x))^2 \) ist immer größer oder gleich Null (wegen dem Quadrat), so dass das Integral nur Null werden kann, wenn auch der Integrand überall gleich Null ist.
Wir wollen nun \(S[A]\) unter der Nebenbedingung \(g[A] = 0\) minimieren. Nach der obigen Vorgehensweise ist dies gleichwertig zu der Aufgabe, das Minimum von \[ S'[A, \lambda] := S[A] + \lambda g[A] \] in den Variablen \(A\) (das ist eine vierkomponentige Funktion) und \(\lambda\) (das ist eine reelle Zahl) zu ermitteln.
Schreiben wir \(S'\) zunächst einmal explizit auf: \[ S'[A, \lambda] = \int d^4x \, \left( \mathcal{L} - \frac{\lambda}{2} (\partial_\mu A^\mu(x))^2 \right) \] In den Euler-Lagrange-Gleichungen \[ 0 = \frac{d\mathcal{L}}{dA_\rho} - \partial_\sigma \frac{d\mathcal{L}}{d \, (\partial_\sigma A_\rho)} = \] \[ = - \frac{1}{c} j^\rho + \partial_\sigma \left( \partial^\sigma A^\rho - \partial^\rho A^\sigma \right) = \] (siehe oben) kommt daher beim zweiten Term \( - \partial_\sigma \frac{d\mathcal{L}}{d \, (\partial_\sigma A_\rho)} \) mit der um den neuen \(\lambda\)-Term erweiterten Lagrangedichte der neue Term \[ - \partial_\sigma \frac{d}{d \, (\partial_\sigma A_\rho)} \left( - \frac{\lambda}{2} (\partial_\mu A^\mu)^2 \right) = \] \[ = \lambda \, \partial^\rho (\partial_\mu A^\mu) \] hinzu, so dass die Maxwellgleichungen nun \[ 0 = - \frac{1}{c} j^\rho + \partial_\sigma \left( \partial^\sigma A^\rho - \partial^\rho A^\sigma \right) + \] \[ + \lambda \, \partial^\rho (\partial_\mu A^\mu) \] lauten. Etwas anders geschrieben (mit Umbenennung der Indices: \(\rho\) wird zu \(\nu\), der doppelt vorkommende Indix \(\sigma\) heißt auch \(\mu\), die Stromdichte kommt auf die andere Seite und wir vertauschen einmal die Reihenfolge der Ableitungen) erhalten wir: \[ \frac{1}{c} j^\nu = \] \[ = \partial_\mu \left( \partial^\mu A^\nu - \partial^\nu A^\mu \right) + \] \[ + \lambda \, \partial^\nu (\partial_\mu A^\mu) = \] \[ = \partial_\mu \partial^\mu A^\nu + (\lambda - 1) \, \partial^\nu (\partial_\mu A^\mu ) \] also insgesamt \[ \partial_\mu \partial^\mu A^\nu + (\lambda - 1) \, \partial^\nu (\partial_\mu A^\mu ) = \frac{1}{c} j^\nu \] Das sind die modifizierten Maxwellgleichungen, die aus dem Wirkungsprinzip und damit aus der Funktionalableitung der erweiterten Wirkung \(S'\) nach den Potentialen folgen. Die Ableitung von \(S'\) nach \(\lambda\) ergibt unsere Eichbedingung \( g[A] = 0 \) und damit die Lorentzeichung \(\partial_\mu A^\mu = 0\) (siehe oben), sodass so dass sich damit auch wieder die üblichen Maxwellgleichungen \[ \partial_\mu \partial^\mu A^\nu = \frac{1}{c} j^\nu \] in Lorentzeichung ergeben.
Schauen wir uns nochmal die modifizierten Maxwellgleichungen \[ \partial_\mu \partial^\mu A^\nu + (\lambda - 1) \, \partial^\nu (\partial_\mu A^\mu ) = \frac{1}{c} j^\nu \] an, bevor wir dort die Lorentzeichung einsetzen. Wir bilden auf beiden Seiten die Viererdivergenz \( \partial_\nu \), verwenden rechts die Stromerhaltung \( \partial_\nu j^\nu = 0\) und vertauschen im ersten Term die Ableitungsreihenfolge so, dass doppelte Indices hintereinander stehen. Ergebnis: \[ \partial_\mu \partial^\mu (\partial_\nu A^\nu) + (\lambda - 1) \, \partial_\nu \partial^\nu (\partial_\mu A^\mu ) = 0 \] Der erste und der letzte Term heben sich gegenseitig auf, so dass nur der \(\lambda\)-Term übrig bleibt. Division durch \(\lambda\) liefert dann \[ \partial_\nu \partial^\nu (\partial_\mu A^\mu ) = 0 \] Dies ist eine homogene Wellengleichung für \( \partial_\mu A^\mu \). Verlangen wir nun zusätzlich die Randbedingung, dass \( \partial_\mu A^\mu \) für große Zeitbeträge \(|t|\) gegen Null geht, so folgt aus der Wellengleichung, dass für alle Zeiten \( \partial_\mu A^\mu = 0 \) gilt. Die Randbedingung genügt also, um zusammen mit den modifizierten Maxwellgleichungen (die eine Folge des Variationsprinzips sind) die Lorentzeichung zu reproduzieren. Damit erhalten wir auch die normalen Maxwellgleichungen zurück. Diesen Umstand kann man später für die Quantisierung nutzen.
Fassen wir kurz zusammen:
Wir starten mit der Wirkung \[ S[A] = \int d^4x \, \mathcal{L} \] mit \[ \mathcal{L} = -\frac{1}{4} F_{\mu\nu} \, F^{\mu\nu} - \frac{1}{c} j_\mu A^\mu \] und vorgegebener Stromdichte \(j(x)\). Wir fordern, dass diese Wirkung eichinvariant ist: \[ S[A] = S[A + \partial \chi] \] (die Stromdichte \(j\) haben wir hier vereinfacht weggelassen). Daraus folgt die Stromerhaltung \[ \partial_\mu j^\mu = 0 \]
Die Maxwellgleichungen \[ \partial_\mu ( \partial^\mu A^\nu - \partial^\nu A^\mu ) = \frac{1}{c} j^\nu \] ergeben sich als Euler-Lagrangegleichungen aus dem Wirkungsprinzip. Als letzten Schrittt kann man nun durch weitere Zusatzbedingungen noch die Eichfreiheit von \(A\) ganz oder teilweise einschränken.
Wir starten mit der erweiterten Wirkung \[ S'[A, \lambda] = \int d^4x \, \left( \mathcal{L} - \frac{\lambda}{2} (\partial_\mu A^\mu(x))^2 \right) \] mit \(\mathcal{L}\) und \(j\) wie oben. Diese Wirkung ist nicht eichinvariant. Wir fordern daher explizit die Stromerhaltung \[ \partial_\mu j^\mu = 0 \] Die modifizierten Maxwellgleichungen \[ \partial_\mu \partial^\mu A^\nu + (\lambda - 1) \, \partial^\nu (\partial_\mu A^\mu ) = \frac{1}{c} j^\nu \] ergeben sich als Euler-Lagrangegleichungen aus dem Wirkungsprinzip. Für \(\lambda = 0\) gehen sie in die gewöhnlichen Maxwellgleichungen über.
Fordern wir nun die Randbedingung, dass \( \partial_\mu A^\mu \) für große Zeitbeträge \(|t|\) gegen Null geht, so folgt die Lorentz-Eichbedingung \[ \partial_\mu A^\mu = 0 \] und es ergeben sich wieder die normalen Maxwellgleichungen in Lorentzeichung.
Nach diesem ausführlichen und sicher nicht ganz einfachen Ausflug in verschiedene Aspekte der Eichfreiheit von \(A(x)\) wollen wir nun zu unserem eigentlichen Ziel zurückkehren: der Formulierung einer Quantentheorie der freien elektromagnetischen Felder.
Wir hatten oben bereits die kanonisch zu \(A(x)\) konjugierte Impulsvariable \[ \pi^\mu(x) = \frac{\delta L}{\delta (\partial_0 A_\mu(x))} = \] \[ = \frac{d \mathcal{L}}{d (\partial_0 A_\mu(x))} = F^{\mu 0} \] formuliert, d.h. es ist \[ \pi = \begin{pmatrix} 0 \\ \boldsymbol{E} \end{pmatrix} \] Nun können wir weitergehen und auch die Hamiltonfunktion sowie die Poissonklammern konstruieren, vollkommen analog zur klassischen Mechanik, aber unter Verwendung der Funktionalableitung.
In der klassischen Mechanik war die Hamiltonfunktion \(H\) gegeben durch \( H(\boldsymbol{p},\boldsymbol{x}) := \boldsymbol{p v} - L \). Analog ist jetzt das Hamiltonfunktional gegeben durch
\[ H[\pi(ct,.), A(ct,.)] = \int d^3x \, \left( \pi^\mu (\partial_0 A_\mu) - L \right) = \] \[ = \int d^3x \, \left( F^{\mu 0} (\partial_0 A_\mu) +\frac{1}{4} F_{\mu\nu} \, F^{\mu\nu} + \frac{1}{c} j_\mu A^\mu \right) \] |
(das Raumintegral ist das Analogon zur Indexsumme in \( \boldsymbol{p v} = \sum_k p_k v_k \), denn die Raumpunkte wirken ja wie ein kontinuierlicher Index). Das Hamiltonfunktional ist als Funktional der Funktionen \(\pi^\mu(ct, . )\) und \(A^\mu(ct, . )\) zu sehen, nicht aber von \( \partial_0 A_\mu \), denn \( \partial_0 A_\mu \) soll ja gerade durch die obige Legendre-Transformation durch \(\pi^\mu\) ersetzt werden. Daher wollen wir \(H\) noch entsprechend umschreiben, so dass wir sehen, wie \( \partial_0 A_\mu \) wegfällt.
Oben hatten wir bereits notiert, dass die Beziehung \( F^{\mu\nu} = \partial^\mu A^\nu - \partial^\nu A^\mu \) ausgeschrieben mit den Feldern \(\boldsymbol{E}\) und \(\boldsymbol{B}\) die Gleichungen \[ \boldsymbol{E} = -\frac{dA^0}{d\boldsymbol{x}} - \partial_0 \boldsymbol{A} \] \[ \boldsymbol{B} = \mathrm{rot} \, \boldsymbol{A} \] ergibt, so dass \[ \frac{1}{4} F_{\mu\nu} F^{\mu\nu} = -\frac{1}{2} (\boldsymbol{E}^2 - \boldsymbol{B}^2) \] ist. Weiterhin ist \[ F^{\mu 0} (\partial_0 A_\mu) = \boldsymbol{E} \, \left( \frac{dA^0}{d\boldsymbol{x}} + \boldsymbol{E} \right) \] Insgesamt ist also
\[ H = \int d^3x \, \mathcal{H} = \] \[ = \int d^3x \, \left( \boldsymbol{E} \, \left( \frac{dA^0}{d\boldsymbol{x}} + \boldsymbol{E} \right) -\frac{1}{2} (\boldsymbol{E}^2 - \boldsymbol{B}^2) + \frac{1}{c} j_\mu A^\mu \right) = \] \[ = \int d^3x \, \left( \boldsymbol{E} \, \frac{dA^0}{d\boldsymbol{x}} +\frac{1}{2} (\boldsymbol{E}^2 + \boldsymbol{B}^2) + \frac{1}{c} j_\mu A^\mu \right) \] |
mit der Hamiltondichte \(\mathcal{H}\) sowie \( \boldsymbol{E} = \boldsymbol{\pi} \) und \( \boldsymbol{B} = \mathrm{rot} \, \boldsymbol{A} \). Es stört nicht, dass diese Formulierung nicht manifest kovariant ist, denn im Hamiltonformalismus ist (im Gegensatz zu den Euler-Lagrange-Gleichungen) die Zeit sowieso gegenüber dem Raum ausgezeichnet. Dies ist ein Nachteil des Hamiltonformalismus bei relativistischen Feldtheorien!
Schauen wir uns als nächstes die Hamiltonschen Bewegungsgleichungen an. Bei der klassischen Mechanik hatten wir \begin{align} \frac{d\boldsymbol{p}}{dt} &= - \frac{dH}{d\boldsymbol{x}} \\ & \\ \frac{d\boldsymbol{x}}{dt} &= \; \; \frac{dH}{d\boldsymbol{p}} \end{align} Das Analogon dazu in der Feldtheorie sind die Gleichungen \begin{align} \partial_0 \pi^\mu(ct,\boldsymbol{x}) &= - \frac{\delta H}{\delta A_\mu(ct,\boldsymbol{x})} \\ & \\ \partial_0 A^\mu(ct,\boldsymbol{x}) &= \; \; \frac{\delta H}{\delta \pi_\mu(ct,\boldsymbol{x})} \end{align} im Sinne der oben definierten Funktionalableitung. Analog zur Vorgehensweise oben bei der Definition von \(\pi^\mu\) können wir versuchen, die Funktionalableitungen des Hamiltonfunktionals \(H\) durch die partiellen Ableitungen der Hamiltondichte \(\mathcal{H}\) ersetzen. Dabei muss man aber aufpassen, da es auch räumliche Ableitungen der Felder gibt. Die Hamiltondichte hängt nicht nur von \(\pi_\mu\) und \(A_\mu\) ab, sondern auch von räumlichen Ableitungen von \(A_\mu\).
Räumliche Ableitungen von \(\pi_\mu\) treten in der Hamiltondichte nicht auf. Daher ist \[ \frac{\delta H}{\delta \pi_\mu(ct,\boldsymbol{x})} = \frac{d \mathcal{H}}{d \pi_\mu(ct,\boldsymbol{x})} \] und somit können wir die zweite Hamilton-Gleichung schreiben als \[ \partial_0 A^\mu(ct,\boldsymbol{x}) = \frac{d \mathcal{H}}{d \pi_\mu(ct,\boldsymbol{x})} \] Schauen wir uns nun in der ersten Hamilton-Gleichung den Term \( \frac{\delta H}{\delta A_\mu(ct,\boldsymbol{x})} \) an. Die Definition der Funktionalableitung ergibt: \begin{align} & \frac{\delta H}{\delta A_\mu}[\eta] = \\ & \\ &= \frac{d}{d \epsilon} \, \int d^3x \; \mathcal{H}(A_\mu + \epsilon \eta, \partial_k A_\mu + \epsilon \partial_k\eta...) \bigg|_{\epsilon=0} = \\ & \\ &= \int d^3x \; \frac{d}{d \epsilon} \, \mathcal{H}(A_\mu + \epsilon \eta, \partial_k A_\mu + \epsilon \partial_k\eta...) \bigg|_{\epsilon=0} = \\ & \\ &= \int d^3x \; \left( \frac{d\mathcal{H}}{dA_\mu} \eta + \frac{d\mathcal{H}}{d (\partial_k A_\mu)} \partial_k \eta \right) = \\ & \\ &= \int d^3x \; \left( \frac{d\mathcal{H}}{dA_\mu} - \partial_k \frac{d\mathcal{H}}{d (\partial_k A_\mu)} \right) \, \eta \end{align} mit dem Raumindex \(k = 1, 2, 3\). Dabei haben wir im letzten Schritt den zweiten Term partiell integriert und angenommen, dass der Oberflächenterm (Randterm) gleich Null ist. Dieses Argument kennen wir bereits von der Herleitung der Euler-Lagrange-Gleichungen: es entspricht einer Forderung an die Variationsfunktion \(\eta\), die für unendlich ferne Raumpunkte hinreichend schnell gegen Null gehen muss.
Der Vergleich mit der Integralschreibweise der Funktionalableitung liefert: \[ \frac{\delta H}{\delta A_\mu(ct,\boldsymbol{x})} = \frac{d\mathcal{H}}{dA_\mu(ct,\boldsymbol{x})} - \partial_k \frac{d\mathcal{H}}{d (\partial_k A_\mu(ct,\boldsymbol{x}))} \] mit der üblichen Summation über doppelte Indices (der Raum-Index \(k\) läuft dabei wie immer von 1 bis 3). Die erste Hamilton-Gleichung wird damit zu \[ \partial_0 \pi^\mu(ct,\boldsymbol{x}) = - \frac{d\mathcal{H}}{dA_\mu(ct,\boldsymbol{x})} + \partial_k \frac{d\mathcal{H}}{d (\partial_k A_\mu(ct,\boldsymbol{x}))} \] Rechnen wir nun die Terme aus – wir beginnen mit der einfacheren Hamiltongleichung \[ \partial_0 A^\mu(ct,\boldsymbol{x}) = \frac{d \mathcal{H}}{d \pi_\mu(ct,\boldsymbol{x})} \] mit \[ \mathcal{H} = \boldsymbol{E} \, \frac{dA^0}{d\boldsymbol{x}} +\frac{1}{2} (\boldsymbol{E}^2 + \boldsymbol{B}^2) + \frac{1}{c} j_\mu A^\mu \] und \( \boldsymbol{B} = \mathrm{rot} \, \boldsymbol{A} \) sowie \( (\pi^\mu) = (0, \boldsymbol{E}) \). Die obige Hamilton-Gleichung macht nur für \( \mu \ne 0\) Sinn, denn \(\pi^0\) ist keine dynamische Variable (es war ja generell \(\pi^0 = 0\) ). Für \(\mu = k\) (mit Werten von 1 bis 3) haben wir \[ \frac{d \mathcal{H}}{d \pi_k} = - \frac{d \mathcal{H}}{d \pi^k} = \] \[ = - \frac{d \mathcal{H}}{d E^k} = - (\partial_k A^0 + E^k) \] d.h. die einfachere Hamiltongleichung ergibt: \[ \partial_0 \boldsymbol{A} = - \left( \frac{dA^0}{d\boldsymbol{x}} + \boldsymbol{E} \right) \] Diese Gleichung kennen wir (nach \(\boldsymbol{E}\) freigestellt) bereits von oben. Wir hatten sie aus der Gleichung \( F^{\mu\nu} = \partial^\mu A^\nu - \partial^\nu A^\mu \) erhalten. Damit repräsentiert die Gleichung gleichsam die homogenen Maxwellgleichungen, die eine Einführung der Potentiale erst ermöglichen. Die andere Gleichung \( \boldsymbol{B} = \mathrm{rot} \, \boldsymbol{A} \) ist sowieso implizit mit dabei, denn im Hamiltonformalismus gibt es ja nur die dynamischen Variablen \( (\pi^\mu) = (0, \boldsymbol{E}) \) sowie \( A^\mu \), d.h. \(\boldsymbol{B}\) ist genau genommen oben immer durch \( \mathrm{rot} \, \boldsymbol{A} \) zu ersetzen.
Schauen wir uns nun die komplexere Hamiltongleichung \[ \partial_0 \pi^\mu = - \frac{d\mathcal{H}}{dA_\mu} + \partial_k \frac{d\mathcal{H}}{d (\partial_k A_\mu)} \] mit \[ \mathcal{H} = \boldsymbol{E} \, \frac{dA^0}{d\boldsymbol{x}} +\frac{1}{2} (\boldsymbol{E}^2 + \boldsymbol{B}^2) + \frac{1}{c} j_\mu A^\mu \] an. Für \(\mu = 0\) ergibt sich wegen \( \pi^0 = 0 \) und somit \( \partial_0 \pi^0 = 0 \) die Gleichung \[ 0 = - \frac{1}{c} j^0 + \partial_k E^k \] d.h. wir erhalten mit \(j^0 = c \rho \) die bekannte inhomogene Maxwellgleichung \[ \mathrm{div} \, \boldsymbol{E} = \rho \]
Nun zu den räumlichen Komponenten \(\mu = p = 1, 2, 3 \) der Hamiltongleichung, also \[ \partial_0 \pi^p = - \frac{d\mathcal{H}}{dA_p} + \partial_k \frac{d\mathcal{H}}{d (\partial_k A_p)} \] Der erste Term ergibt \[ - \frac{d\mathcal{H}}{dA_p} = - \frac{1}{c} j^p \] Der zweite Term ergibt nach einiger Rechnung \[ \partial_k \frac{d\mathcal{H}}{d (\partial_k A_p)} = (\mathrm{rot} \, (\mathrm{rot} \boldsymbol{A}))^p \] so dass sich insgesamt die Gleichung \[ \partial_0 \boldsymbol{\pi} = \partial_0 \boldsymbol{E} = \] \[ = - \frac{1}{c} \boldsymbol{j} + \mathrm{rot} \, (\mathrm{rot} \boldsymbol{A}) = \] \[ = - \frac{1}{c} \boldsymbol{j} + \mathrm{rot} \, \boldsymbol{B} \] ergibt. Das ist (freigestellt nach \(\mathrm{rot} \, \boldsymbol{B}\)) gerade die zweite inhomogene Maxwellgleichung.
Für die Quantisierung im Hamiltonformalismus benötigen wir die Poissonklammern, die wir in die entsprechenden Kommutatoren von zugehörigen Operatoren übersetzen müssen. Die Poissonklammer der klassischen Mechanik lautete \[ \{ H, f \} := \frac{df}{d\boldsymbol{x}} \frac{dH}{d\boldsymbol{p}} - \frac{df}{d\boldsymbol{p}} \frac{dH}{d\boldsymbol{x}} \] so dass aufgrund der Hamiltonschen Bewegungsgleichungen die Zeitentwicklung von \(f\) als \[ \frac{df}{dt} = \{ H, f \} \] geschrieben werden kann. Sowohl \(f\) als auch \(H\) sind auf dem Phasenraum definierte Funktionen, also bei einem Teilchen im dreidimensionalen Raum abhängig von \(\boldsymbol{x}\) und \(\boldsymbol{p}\).
Versuchen wir, analog eine Poissonklammer für Funktionale der Funktionen \(\pi_\mu(ct, . )\) und \(A_\mu(ct, . )\) abzuleiten. Starten wir also mit einem Funktional \[ F[ \pi_\mu(ct, . ), A_\mu(ct, . ) ] = \] \[ = \int d^3x \, \mathcal{F}(\pi_\mu(ct,\boldsymbol{x}), A_\mu(ct,\boldsymbol{x})) \] und untersuchen die zeitliche Ableitung: \[ \partial_0 F[ \pi_\mu(ct, . ), A_\mu(ct, . ) ] = \] \[ = \partial_0 \, \int d^3x \, \mathcal{F}(\pi_\mu(ct,\boldsymbol{x}), A_\mu(ct,\boldsymbol{x})) = \] \[ = \int d^3x \, \left( \frac{d \mathcal{F}}{d \pi_\mu} \, \partial_0 \pi_\mu + \frac{d \mathcal{F}}{d A_\mu} \, \partial_0 A_\mu \right) = \] \[ = \int d^3x \, \left( - \frac{d \mathcal{F}}{d \pi_\mu} \, \frac{\delta H}{\delta A_\mu(ct,\boldsymbol{x})} + \frac{d \mathcal{F}}{d A_\mu} \, \frac{\delta H}{\delta \pi_\mu(ct,\boldsymbol{x})} \right) \] In diesem Ausdruck gibt es allerdings ein Problem: Funktionalableitungen nach \( \pi_\mu(ct,\boldsymbol{x}) \) sind nur für die drei räumlichen Komponenten definiert, nicht aber für \( \mu = 0 \), denn \( \pi^0 = 0 \) ist keine dynamische Variable des Systems. Andererseits war die Information \( \pi^0 = 0 \) in den Hamiltonschen Bewegungsgleichungen auch gar nicht enthalten, sondern sie musste separat hinzugefügt werden. Erst dann ergab sich aus der Hamilton-Gleichung \[ \partial_0 \pi^\mu(ct,\boldsymbol{x}) = - \frac{\delta H}{\delta A_\mu(ct,\boldsymbol{x})} \] die inhomogene Maxwellgleichung \( \mathrm{div} \, \boldsymbol{E} = \rho \). Irgendwie spielen also sowohl \(\pi^0\) als auch \(A^0\) eine Sonderrolle. Sie scheinen beide als dynamische Variable ungeeignet zu sein. Wir erinnern uns: \(A^0\) spielte im Lagrange-Formalismus die Rolle der Lagrange-Multiplikatoren.
Schauen wir uns zunächst noch einmal das Hamiltonfunktional an: \[ H = \int d^3x \, \mathcal{H} = \] \[ = \int d^3x \, \left( \boldsymbol{E} \, \frac{dA^0}{d\boldsymbol{x}} +\frac{1}{2} (\boldsymbol{E}^2 + (\mathrm{rot} \boldsymbol{A})^2) + \frac{1}{c} j_\mu A^\mu \right) \] Den ersten Term können wir umschreiben: \[ \boldsymbol{E} \, \frac{dA^0}{d\boldsymbol{x}} = \mathrm{div} (\boldsymbol{E} \, A^0) - (\mathrm{div} \boldsymbol{E}) \, A^0 \] Im Integral ist der erste Term \( \mathrm{div} (\boldsymbol{E} \, A^0) \) nach dem Gauss'schen Satz gleich dem Integral des Flusses von \( \boldsymbol{E} \, A^0 \) durch den unendlich fernen Rand des dreidimensionalen Raums. Wie immer nehmen wir an, dass \( \boldsymbol{E} \) sowie \( A^0 \) zusammen hinreichend schnell im Unendlichen verschwinden, so dass dieses Integral gleich Null ist. Damit (und mit \( j_\mu A^\mu = c \rho A^0 - \boldsymbol{j A} \)) können wir das Hamiltonfunktional wie folgt umschreiben: \[ H = \int d^3x \, \mathcal{H} = \] \[ = \int d^3x \, \left( - (\mathrm{div} \boldsymbol{E}) \, A^0 +\frac{1}{2} (\boldsymbol{E}^2 + (\mathrm{rot} \boldsymbol{A})^2) + \frac{1}{c} j_\mu A^\mu \right) = \] \[ = \int d^3x \, \left( (\rho - \mathrm{div} \, \boldsymbol{E} ) \, A^0 +\frac{1}{2} (\boldsymbol{E}^2 + (\mathrm{rot} \boldsymbol{A})^2) - \frac{1}{c} \boldsymbol{j A} \right) = \] Gleichwertig zu \( \pi^0 = 0 \) können wir \( \mathrm{div} \, \boldsymbol{E} = \rho \) als Randbedingung fordern und damit formal den Freiheitsgrad \(A^0\) eliminieren. Auf den Feldern, die die Randbedingung erfüllen, lautet dann das Hamiltonfunktional \[ H[\boldsymbol{E}(ct,.), \boldsymbol{A}(ct,.)] \bigg|_{\mathrm{div} \, \boldsymbol{E} = \rho} = \int d^3x \, \mathcal{H} = \] \[ = \int d^3x \, \left( \frac{1}{2} (\boldsymbol{E}^2 + (\mathrm{rot} \boldsymbol{A})^2) - \frac{1}{c} \boldsymbol{j A} \right) = \] Es enthält nur noch die raumlichen Komponenten \( \boldsymbol{E}(ct,.) = \boldsymbol{\pi}(ct,.) \) sowie \( \boldsymbol{A}(ct,.) \). Die Hamiltongleichungen bleiben dabei dieselben, nur die Hamilton-Gleichung für \( \partial_0 \pi^0 \) entfällt und wird durch die Randbedingung \( \mathrm{div} \, \boldsymbol{E} = \rho \) ersetzt.
Können wir nun die Poissonklammer aufstellen? Die erste Idee wäre, in der Poissonklammer einfach die Terme mit \( \mu = 0 \) wegzulassen. Doch was ist mit der \(A^0\)-Abhängigkeit von \(F\)? Die Poissonklammer kann nicht mehr erfassen, wenn sich \(F\) aufgrund der Zeitabhängigkeit von \(A^0\) mit der Zeit ändert. Generell hat man auch keine Gleichung für die Zeitabhängigkeit von \(A^0\) mehr, denn das Hamiltonfunktional auf dem Raum der Felder mit Nebenbedingung enthält \(A^0\) nicht mehr. Es sieht so aus, als ob man eine Zusatzbedingung für \(A^\mu\) benötigt, um aus \(\boldsymbol{A}\) den Wert von \(A^0\) bestimmen zu können, so dass die \(A^0\)-Abhängigkeit von \(F\) auf die Abhängigkeit von \(\boldsymbol{A}\) zurückgeführt werden kann. Solche Bedingungen kennen wir bereits: wir haben sie oben als Eichbedingungen bezeichnet. Sie dienen dazu, die Eichfreiheit von \(A^\mu\) einzuschränken.
Um all diese Fragen systematisch zu klären, muss man untersuchen, wie der Übergang vom Lagrangeformalismus zum Hamiltonformalismus funktioniert, wenn im Lagrangeformalismus Nebenbedingungen auftreten. Die entsprechende Theorie wird als Dirac's Theorie der Nebenbedingungen (Dirac's Theory of Constraints) bezeichnet. Als Ergebnis liefert sie eine passende Poissonklammer (Dirac-Klammer), die die Randbedingungen berücksichtigt.
Es würde zu weit führen, diesen Zugang hier konsequent weiterzuverfolgen, zumal die kanonische Quantisierung bei allgemeineren (nichtlinearen) Yang-Mills-Theorien sowieso zu Problemen führt. In der physikalischen Literatur geht man hier meist recht pragmatisch vor: Man legt eine Eichung für \(A^\mu\) ganz oder teilweise fest und versucht, eine passende Poissonklammer zu erraten, die damit verträglich ist. Anschließend geht man zur Quantentheorie über, indem man die dynamischen Variablen durch Operatoren und die Poissonklammer durch den Kommutator dieser Operatoren ersetzt. Nun muss man noch einen passenden Hilbertraum dazu finden. Sollte die Eichfreiheit nur teilweise fixiert worden sein, so muss man nun die Eichfreiheit vollständig fixieren, indem man durch eine passende Bedingung einen Unterraum des Hilbertraums auswählt. Nur Vektoren aus diesem Unterraum entsprechen quantenmechanischen Zuständen.
Ein erstes Beispiel: Wir gehen zur freien Theorie über, indem wir \( j^\mu = 0 \) setzen. Von oben wissen wir, dass wir dann die Eichung teilweise durch die Bedingung \( A^0 = 0 \) festlegen können, was gut zu \( \pi^0 = 0 \) passt. Damit sind zeitabhängige Umeichungen ausgeschlossen. Zeitunabhängige Umeichungen sind dagegen weiterhin möglich und müssen später fixiert werden.
Die Eichbedingung \( A^0 = 0 \) hat den Vorteil, dass wir in unserer obigen Poissonklammer die Terme mit \( \mu = 0 \) weglassen können, denn sowohl \( \pi^0 \) als auch \( A^0 \) sind aus der Theorie eliminiert worden. Wir setzen außerdem noch \( \boldsymbol{\pi} = \boldsymbol{E} \) ein und erhalten für die Poissonklammer:
Poissonklammer: \[ \partial_0 F[ \boldsymbol{E}(ct, . ), \boldsymbol{A}(ct, . ) ] = \] \[ = \int d^3x \, \left( - \frac{d \mathcal{F}}{d E_k} \, \frac{\delta H}{\delta A_k(ct,\boldsymbol{x})} + \frac{d \mathcal{F}}{d A_k} \, \frac{\delta H}{\delta E_k(ct,\boldsymbol{x})} \right) \] \[ =: \{H, F\} \] mit \[ H[\boldsymbol{E}(ct,.), \boldsymbol{A}(ct,.)] = \int d^3x \, \mathcal{H} = \] \[ = \int d^3x \, \left( \frac{1}{2} (\boldsymbol{E}^2 + (\mathrm{rot} \boldsymbol{A})^2) - \frac{1}{c} \boldsymbol{j A} \right) = \] und \( A^0 = 0 \) sowie der Nebenbedingung \( \mathrm{div} \, \boldsymbol{E} = 0 \). |
wie immer mit der Summe über den doppelten Index \(k\) (von 1 bis 3). Die Zeitentwicklung aufgrund dieser Poissonklammer führt dann nicht aus der Eichung \( A^0 = 0 \) heraus, denn die Poissonklammer beeinflusst \( A^0 \) überhaupt nicht – wir haben durch die Eichung ja \( A^0 \) als dynamische Variable komplett elimimiert.
Die Nebenbedingung \( \mathrm{div} \, \boldsymbol{E} = 0 \) wollen wir erst zu einem späteren Zeitpunkt (nach der Quantisierung) explizit einbauen, da sie ja in der Eichung \( A^0 = 0 \) nicht mehr durch irgendeine Hamiltongleichung reproduziert werden kann und auch in der Zeitentwicklung aufgrund der Poissonklammer nicht enthalten ist.
Wir sollten aber überprüfen, ob die Zeitentwicklung mit der Nebenbedingung verträglich ist. Dazu können wir beispielsweise \( F = \int d^3x (\mathrm{div} \, \boldsymbol{E})^2 \) setzen und die Poissonklammer \( \{H, F\} \) ausrechnen. Es ergibt sich, dass wenn \( F = 0 \) für irgendeine Zeit \(t\) gilt (d.h. \( \mathrm{div} \, \boldsymbol{E} = 0 \) für eine Zeit \(t\) ), daraus \( \partial_0 F = \{H, F\} = 0 \) folgt, so dass \( F = 0 \) und damit \( \mathrm{div} \, \boldsymbol{E} = 0 \) für alle Zeiten gilt.
Für die Quantisierung benötigen wir die Poissonklammer zwischen den dynamischen Variablen \( A_m(ct,\boldsymbol{x}) \) und \( E_n(ct,\boldsymbol{x}) \) mit \(m\) und \(n\) von 1 bis 3. In der klassischen Mechanik sind die Impulskomponenten \(p_m(t)\) und die Bahnorte \(x_n(t)\) selbst bereits Funktionen auf dem Phasenraum, so dass man direkt zur Poissonklammer übergehen kann. Dies ist bei den Feldern anders. Wir müssen hier zunächst passende Funktionale definieren und können dann erst zur Poissonklammer übergehen.
Oben haben wir gesehen, wie man jeder Funktion über ein Integral ein lineares Funktional zuordnen kann. Entsprechend definieren wir die folgenden linearen Funktionale:
\begin{align} A_m[\varphi] &:= \int d^3x \, A_m(ct,\boldsymbol{x}) \, \varphi(\boldsymbol{x}) \\ & \\ E_n[\xi] &:= \int d^3x \, E_n(ct,\boldsymbol{x}) \, \xi(\boldsymbol{x}) \end{align} |
(wir verwenden hier für die Felder und die Feldfunktionale dieselben Buchstaben – also nicht verwirren lassen). Dabei bezeichnet man \(\varphi(\boldsymbol{x})\) und \(\xi(\boldsymbol{x})\) als Testfunktionen. Sie dienen letztlich dazu, einen gewissen Raumbereich mit einer bestimmten Empfindlichkeit (gegeben durch \(\varphi(\boldsymbol{x})\) und \(\xi(\boldsymbol{x})\) ) gleichsam nach den Feldern \(A_m(ct,\boldsymbol{x})\) bzw. \(E_n(ct,\boldsymbol{x})\) abzutasten.
Nun können wir die Poissonklammer \( \{E_n[\xi] , A_m[\varphi]\} \) berechnen: \[ \{E_n[\xi] , A_m[\varphi]\} = \] \[ = \int d^3x \, \bigg( - \frac{\delta A_m[\varphi]}{\delta E_k(ct,\boldsymbol{x})} \frac{\delta E_n[\xi]}{\delta A_k(ct,\boldsymbol{x})} + \] \[ \qquad \qquad \qquad + \frac{\delta A_m[\varphi]}{\delta A_k(ct,\boldsymbol{x})} \frac{\delta E_n[\xi]}{\delta E_k(ct,\boldsymbol{x})} \bigg) = \] \[ = \int d^3x \, \varphi(\boldsymbol{x}) \, \xi(\boldsymbol{x}) \delta_{mn} \]
mit dem Kroneckersymbol \(\delta_{mn} = 1\) für \(n = m\) und Null sonst. Im letzten Schritt haben wir verwendet, dass für ein lineares Funktional \( F[\Phi] = \int dx \, f(x) \, \Phi(x) \) gilt: \( \frac{\delta F}{\delta \Phi(x)} = f(x) \) (dies hatten wir weiter oben bereits hergeleitet).
Nun ist die Poissonklammer zweier linearer Funktionale insgesamt selbst ein bilineares Funktional, das den beiden Testfunktionen \(\xi\) und \(\varphi\) eine reelle Zahl zuordnet. Also liegt es nahe, dieses bilineare Funktional analog zu den linearen Funktionalen als Integral mit einem Integralkern zu schreiben, allerdings als zweifaches Integral: \[ \{E_n[\xi] , A_m[\varphi]\} = \] \[ \int d^3x \, d^3x' \, \{ E_n(ct,\boldsymbol{x}) , A_m(ct,\boldsymbol{x}') \} \, \xi(\boldsymbol{x}) \, \varphi(\boldsymbol{x}') \] Diese Gleichung definiert den Integralkern \( \{ E_n(ct,\boldsymbol{x}) , A_m(ct,\boldsymbol{x}') \} \). Der Vergleich mit unserem Ergebnis oben ergibt:
\[ \{ E_n(ct,\boldsymbol{x}) , A_m(ct,\boldsymbol{x}') \} = \delta_{nm} \, \delta(\boldsymbol{x} - \boldsymbol{x}') \] |
Diese Gleichung ist das Analogon zu \( \{p_n , x_m\} = \delta_{nm} \) aus der Mechanik, wobei der kontinuierliche Index zur zusätzlichen Delta-Funktion (genauer: Distribution) führt.
Man muss allerdings bei Gleichungen wir der obigen aufpassen, denn hier werden in der Poissonklammer zwei lineare Funktionale (Distributionen) miteinander multipliziert, um ein bilineares Funktional zu konstruieren. Der Integralkern \( \{ E_n(ct,\boldsymbol{x}) , A_m(ct,\boldsymbol{x}') \} \) dieses bilinearen Funktionals ist ein singuläres Objekt, also keine Funktion mehr. Bei einer mathematisch sauberen Vorgehensweise müsste man nun untersuchen, was bei der Multiplikation von Distributionen zu beachten ist.
In der Physik tut man dies meist nicht, sondern geht recht unbefangen mit solchen Ausdrücken um, da die mathematisch saubere Vorgehensweise recht aufwendig ist. Dies kann aber zu Problemen führen, wenn man zur Quantentheorie übergeht, denn es treten oft Singularitäten auf, die die berechneten Ausdrücke zunächst unbrauchbar machen können. In diesem Fall muss man nachträglich den Aufwand betreiben, der Theorie durch das Verfahren der Renormierung wieder einen Sinn zu geben. Dabei werden die Singularitäten schrittweise aus den physikalisch beobachtbaren Größen entfernt (siehe auch Das Unteilbare, Kapitel 7.3 Der Umgang mit divergierenden Graphen: Renormierung ).
Nun können wir versuchen, mit Hilfe der kanonischen Quantisierung zu einer Quantentheorie der freien Elektrodynamik überzugehen. Erinnern wir uns an das Rezept dazu aus dem letzten Kapitel:
|
Wir ordnen also den linearen Funktionalen \(A_m[\varphi(ct, . )] \) und \(E_n[\xi(ct, . )] \) lineare Operatoren zu, die wir wieder mit einem Hut kennzeichnen wollen. Genauer müsste man von operatorwertigen Distributionen sprechen, also von linearen Abbildungen, die einer Testfunktion einen linearen Operator auf einem Hilbertraum zuordnen.
Diese Operatoren müssen nun die Vertauschungsrelation \[ [\hat{E_n}[\xi], \hat{A}_m[\varphi] ] = \frac{\hbar}{i} \, \int d^3x \, \varphi(\boldsymbol{x}) \, \xi(\boldsymbol{x}) \delta_{mn} \] erfüllen. Physiker verwenden wieder gerne die Integralschreibweise und definieren die Operatoren \(\hat{A}_m(\boldsymbol{x}) \) und \(\hat{E}_n(\boldsymbol{x}) \) analog zu oben über \begin{align} \hat{A}_m[\varphi] &:= \int d^3x \, \hat{A}_m(\boldsymbol{x}) \, \varphi(\boldsymbol{x}) \\ \hat{E}_n[\xi] &:= \int d^3x \, \hat{E}_n(\boldsymbol{x}) \, \xi(\boldsymbol{x}) \end{align} Dabei sind \(\hat{A}_m(\boldsymbol{x}) \) und \(\hat{E}_n(\boldsymbol{x}) \) als Integralkerne operatorwertiger Distributionen zu verstehen, so wie wir das oben definiert hatten. Es gilt die Vertauschungsrelation
\[ [ \hat{E}_n(\boldsymbol{x}) , \hat{A}_m(\boldsymbol{x}') ] = \frac{\hbar}{i} \, \delta_{nm} \, \delta(\boldsymbol{x} - \boldsymbol{x}') \] |
wobei dieser Ausdruck für \( \boldsymbol{x} = \boldsymbol{x}' \) zunächst gar nicht definiert ist. Einen Sinn erhält er erst über die Integralschreibweise weiter oben.
Bleibt die Aufgabe, einen Hilbertraum zu konstruieren, auf dem sich die Operatoren mit den gewünschten Vertauschungsrelationen realisieren lassen. Dies ist im Allgemeinen keineswegs einfach. Es bedeutet letztlich, die Existenz einer entsprechenden Quantentheorie (konstruktiv) nachzuweisen. Genau dies ist für allgemeinere Eichtheorien der Inhalt des Millenium Prize Problems.
Im Fall des freien elektromagnetischen Feldes ist es glücklicherweise möglich, den Hilbertraum explizit anzugeben. In der oben gewählten Eichung mit \( A^0 = 0 \) geht das vollkommen analog zum Hilbertraum der Mechanik (siehe z.B. Quantisation of Gauge Fields):
An die Stelle der komplexwertigen Wellenfunktion \(\psi(\boldsymbol{x})\) der Mechanik tritt nun ein komplexwertiges Funktional \(\psi[\boldsymbol{A}]\), denn die unendlich vielen dynamischen Größen \( \boldsymbol{A}(ct,\boldsymbol{x}) \) der klassischen Feldtheorie (gesehen als Funktion der Zeit \(t\) mit dem kontinuierlichen Index \(\boldsymbol{x}\)) entsprechen den drei Funktionen \(\boldsymbol{x}_i(t)\) mit \(i = 1, 2, 3\) der klassischen Mechanik. Das Funktional \(\psi[\boldsymbol{A}]\) ordnet also jeder reellen Funktion \( \boldsymbol{A}(\boldsymbol{x}) \) (gesehen als unendlich-dimensionalen Vektor mit kontinuierlichem Index \(\boldsymbol{x}\)) eine komplexe Zahl zu.
In der Quantenmechanik eines Teilchens ist das Skalarprodukt gegeben durch \[ \langle \varphi | \psi \rangle = \int \varphi^*(\boldsymbol{x}) \, \psi(\boldsymbol{x}) \, d^3x \] wobei der Stern die komplexe Konjugation bezeichnet (also \((a + i b)^* = a - i b\) ). Analog dazu ist das Skalarprodukt zwischen zwei Funktionalen der Elektrodynamik in der Eichung \(A^0 = 0 \) gegeben durch \[ \langle \varphi | \psi \rangle = \int \mathcal{D}\boldsymbol{A} \, \varphi^*[\boldsymbol{A}] \, \psi[\boldsymbol{A}] \] Dabei ist das Integrationsmaß \(\mathcal{D}\boldsymbol{A}\) das unendlich-dimensionale Analogon zum Maß \(d^3x\). Das Maß \(\mathcal{D}\boldsymbol{A}\) misst in gewissem Sinn das Volumen im unendlich-dimensionalen Funktionenraum der Funktionen \( \boldsymbol{A}(\boldsymbol{x}) \). Die mathematisch präzise Definition dieses Maßes ist nicht unproblematisch, da es wegen der unendlich vielen Dimensionen des Funktionenraums schnell zu Divergenzen kommt. Physiker lassen sich zumeist von der Analogie zum dreidimensionalen Maß \(d^3x\) leiten. Dazu kann man beispielsweise den Raum mit einem feinen Gitter überziehen und nur die Felder \( \boldsymbol{A}(\boldsymbol{x}) \) an den Gitterpunkten \( \\boldsymbol{x}_i \) betrachten – wir kennen diese Überlegung bereits von oben. Aus dem Integral wird dann: \[ \langle \varphi | \psi \rangle = \int d^3A_1 \, d^3A_2 \, ... \, \varphi^*[\boldsymbol{A}_1, \boldsymbol{A}_2, ...] \, \psi[\boldsymbol{A}_1, \boldsymbol{A}_2, ...] \] mit \( \boldsymbol{A}_i = \boldsymbol{A}(\boldsymbol{x}_i)\). Auf Details wollen wir hier nicht eingehen.
Wie kommen unsere Quanten-Feldoperatoren \(\hat{\boldsymbol{A}}(\boldsymbol{x})\) ins Spiel? Nun, wir definieren sie analog zum Ortsoperator in der Mechanik als \[ (\hat{\boldsymbol{A}}(\boldsymbol{x}) \, \psi)[\boldsymbol{A}] = \boldsymbol{A}(\boldsymbol{x}) \, \psi[\boldsymbol{A}] \] Entsprechend definieren wir auch das Analogon zum Impulsoperator als \[ (\hat{\boldsymbol{E}}(\boldsymbol{x}) \, \psi)[\boldsymbol{A}] = \frac{\hbar}{i} \, \frac{\delta \psi[\boldsymbol{A}]}{\delta[\boldsymbol{A}(\boldsymbol{x})]} \] im Sinne der Funktionalableitung (die Gleichung muss man komponentenweise lesen). Man kann nun nachrechnen, dass die Vertauschungsrelationen erfüllt sind – wir wollen das hier überspringen.
Schaut man sich den gerade konstruierten Hilbertraum näher an, so stellt man fest, dass er zu groß ist, denn der Raum der Funktionen \(\boldsymbol{A}(\boldsymbol{x})\) umfasst sehr viele physikalisch gleichwertige Potentiale. Erinnern wir uns: zeitunabhängige Eichtransformationen der Potentiale sind immer noch möglich.
Um den Hilbertraum geeignet einzuschränken, erinnern wir uns daran, dass wir die Nebenbedingung \( \mathrm{div} \, \boldsymbol{E} = 0 \) noch gar nicht in die Theorie eingebaut haben. Dies können wir nun dadurch versuchen, dass wir für die physikalisch sinnvollen Hilbertraumvektoren die Nebenbedingung \[ (\mathrm{div} \, \hat{\boldsymbol{E}}) \, \psi[\boldsymbol{A}] = 0 \] fordern und dadurch einen Hilbert-Unterraum definieren. Die Divergenz des Operators kann man dabei beispielsweise durch Fouriertransformation definieren. Auf Details möchte ich hier wieder verzichten. Die obige Forderung garantiert, dass im eingeschränkten Hilbertraum der Erwartungswert des Operators \( \mathrm{div} \, \hat{\boldsymbol{E}} \) gleich Null ist und somit die Nebenbedingung im klassischen Grenzfall reproduziert wird.
Interessant ist, dass der Operator \( \mathrm{div} \, \hat{\boldsymbol{E}} \) die zeitunabhängigen Eichtransformationen generiert. Die Bedingung \( (\mathrm{div} \, \hat{\boldsymbol{E}}) \, \psi[\boldsymbol{A}] = 0 \) fixiert in diesem Sinne in der Quantentheorie die Eichung der Zustände.
Das wird auch in der klassischen Theorie deutlich, denn es gilt ja die allgemeine Gleichung (siehe die Hamiltonsche Gleichung oben) \[ \boldsymbol{E} = -\frac{dA^0}{d\boldsymbol{x}} - \partial_0 \boldsymbol{A} \] In der Eichung \( A^0 = 0 \) wird daraus \[ \boldsymbol{E} = - \partial_0 \boldsymbol{A} \] Diese Gleichung ist in unseren Zeitentwicklungsgleichungen mit der Poissonklammer enthalten, d.h. wir können sie hier verwenden. Bilden wir die Divergenz dieser Gleichung und verwenden links die Nebenbedingung \( \mathrm{div} \, \boldsymbol{E} = 0 \), so erhalten wir nach Vertauschen der Ableitungsreihenfolge \( 0 = \partial_0 \, (\mathrm{div} \, \boldsymbol{A}) \) die Eichbedingung \[ \mathrm{div} \, \boldsymbol{A} = \mathrm{const} \] was zusammen mit \( A^0 = 0 \) nach Wahl der Konstanten rechts die Eichung endgültig festlegt. Umgekehrt bewirkt die Wahl der Konstanten (z.B. in Form der Coulombeichung \(\mathrm{div} \, \boldsymbol{A} = 0\), siehe weiter unten) zusammen mit \( A^0 = 0 \) automatisch, dass \( \mathrm{div} \, \boldsymbol{E} = 0 \) gilt.
Als weiteren Schritt muss man sich nun die Zeitentwicklung der Zustände aufgrund des Hamiltonoperators ansehen. Diese Zeitentwicklung muss man auf den Unterraum der erlaubten Zustände projezieren, so dass die Nebenbedingung \( (\mathrm{div} \, \hat{\boldsymbol{E}}) \, \psi[\boldsymbol{A}] = 0 \) beibehalten wird. Diese Projektion entspricht damit einer Umeichung, die das zeitliche Herauslaufen aus der Eichbedingung korrigiert.
Man kann nun alle Operatoren in Fourierkomponenten zerlegen, die nur auf dem physikalischen Hilbert-Unterraum wirken. Dies kann man so durchführen, dass Operatoren entstehen, die bestimmte einfache Vertauschungsrelationen erfüllen. Man bezeichnet diese Operatoren als Erzeugungs- und Vernichtungsoperatoren, denn sie sorgen für die Besetzung (bzw. die Nicht-Besetzung) von Hilbertraumzuständen, die man direkt mit physikalischen Teilchen identifizieren kann. Diese Zustände besitzen nämlich ein bestimmtes Transformationsverhalten bei Poincaretransformationen, so dass man ihnen eine Masse und eine Helizität zuordnen kann. Wir erinnern uns an den allgemeinen Rahmen von Quantenfeldtheorien aus dem vorletzten Kapitel: Die Darstellungstheorie der Poincaregruppe auf Hilberträumen führt dazu, dass es in jedem Hilbertraum Basisvektoren gibt, die sich durch Zahlen wie Impuls und Masse sowie Spin bzw. Helizität kennzeichnen lassen. Diese Vektoren interpretiert man als Zustände physikalischer Teilchen. Um also eine Quantentheorie physikalisch interpretieren zu können, muss man am Schluss in der Lage sein, solche Teilchenzustände im Hilbertraum zu identifizieren und die Wirkung der Operatoren auf diesen Zuständen angeben zu können (z.B. indem man sie mit Hilfe von Erzeugungs- und Vernichtungsoperatoren schreibt, die sich auf diese Zustände beziehen). Dies ist im Fall der freien Elektrodynamik alles möglich! Damit wäre die Quantisierung der freien Elektrodynamik erfolgreich durchgeführt.
Es gibt noch weitere Möglichkeiten, zu einer Quantentheorie der freien Elektrodynamik zu gelangen. Eine sehr beliebte Methode besteht darin, vor der Quantisierung die Eichung des Potentials komplett festzulegen, und dann erst die Quantisierung durchzuführen. Eine Möglichkeit, die Eichung bei Abwesenheit von Ladungen und Strömen vollständig zu fixieren, haben wir oben bereits kennengelernt: die Strahlungseichung. Dabei wird neben \( A^0 = 0 \) noch die Lorentzbedingung \( \partial_\mu A^\mu = 0 \) gefordert. Wegen \( A^0 = 0 \) kann man statt der Lorentzbedingung auch direkt die Coulombeichung \(\mathrm{div} \, \boldsymbol{A} = 0\) verwenden.
In der Strahlungseichung muss man sich bereits in der klassischen Theorie genaue Gedanken über die Poissonklammer machen, damit die damit verbundene Zeitentwicklung nicht aus der Eichbedingung hinausführt. Methodisch sauber müsste man dazu Dirac's Theorie der Nebenbedingungen (Dirac's Theory of Constraints) anwenden – in der Physik geht man meist pragmatischer vor und errät eine passende Poissonklammer. Dazu stellen wir die folgende Überlegung an:
Allgemein kann man das Vektorpotential \(\boldsymbol{A}(\boldsymbol{x})\) in zwei Bestandteile aufteilen: einen divergenzfreien transversalen Anteil \(\boldsymbol{A}_T\) mit \(\mathrm{div} \, \boldsymbol{A}_T = 0\) und einen rotationsfreien longitudinalen Anteil \(\boldsymbol{A}_L\) mit \(\mathrm{rot} \, \boldsymbol{A}_L = 0\). Dabei ist \( \boldsymbol{A} = \boldsymbol{A}_T + \boldsymbol{A}_L \).
Um diese Aufteilung konkret zu machen, geht man durch Fouriertransformation zur Impulsdarstellung aller Größen über: \[ \boldsymbol{A}(\boldsymbol{x}) = N \, \int d^3p \, e^{i \boldsymbol{px}} \boldsymbol{A}'(\boldsymbol{p}) \] mit dem Normierungsfaktor \( N = (2 \pi)^{-3/2}\). Das hat den Vorteil, dass Gradienten, Divergenzen usw. durch normale Multiplikationen ersetzt werden. Die Bedingung \(\mathrm{div} \, \boldsymbol{A}_T = 0\) wird dann zur Bedingung \(\boldsymbol{p \, A'}_T = 0\) und \(\mathrm{rot} \, \boldsymbol{A}_L = 0\) wird zur Bedingung \( \boldsymbol{p} \times \boldsymbol{A'}_L = 0\). Die Division durch \(\hbar\) im Exponenten von \(e^{i \boldsymbol{px}}\) haben wir übrigens erst einmal weggelassen, da wir uns ja noch in der klassischen Theorie befinden – Sie können also \(\boldsymbol{p}\) hier erst einmal als Wellenzahl \(\boldsymbol{k}\) interpretieren, die erst beim Übergang zur Quantenmechanik über \( \boldsymbol{p} = \hbar \boldsymbol{k}\) mit dem Impuls \( \boldsymbol{p} \) in Zusammenhang gebracht wird. Physiker lassen auch generell \(\hbar\) gerne in Formeln weg, da man ja immer dazu passende Maßeinheiten wählen kann und aus dem Zusammenhang sowieso klar ist, wo \(\hbar\) ergänzt werden muss.
Wir können nun in der Impuls- bzw. Wellenzahl-Darstellung leicht Projektionsoperatoren definieren, die den longitudinalen bzw. den transversalen Anteil herausprojezieren: \begin{align} \boldsymbol{A'}_L(\boldsymbol{p}) &= P_L(\boldsymbol{p}) \, \boldsymbol{A'}(\boldsymbol{p}) = (\boldsymbol{p \, A'}(\boldsymbol{p})) \, \frac{\boldsymbol{p}}{p^2} \\ \boldsymbol{A'}_T(\boldsymbol{p}) &= P_T(\boldsymbol{p}) \, \boldsymbol{A'}(\boldsymbol{p}) = (1 - P_L(\boldsymbol{p})) \, \boldsymbol{A'}(\boldsymbol{p}) \end{align} mit \(p^2 = \boldsymbol{p}^2\). Anschaulich ermittelt \(P_L(\boldsymbol{p})\) die Komponente des Vektors \(\boldsymbol{A'}(\boldsymbol{p})\) in Richtung von \(\boldsymbol{p}\), während \(P_T(\boldsymbol{p})\) die Komponente senkrecht zu diesem Vektor ergibt. Die Projektionsoperatoren \(P_L(\boldsymbol{p})\) und \(P_T(\boldsymbol{p})\) kann man dabei auch als reelle 3 × 3 -Matrizen schreiben (was die obigen Formeln reproduziert): \begin{align} [P_L(\boldsymbol{p})]_{ij} &= \frac{p_i p_j}{p^2} \\ [P_T(\boldsymbol{p})]_{ij} &= \delta_{ij} - \frac{p_i p_j}{p^2} \end{align} Analog definieren wir im Ortsraum dann die Operatoren \(P_L\) und \(P_T\): \begin{align} \boldsymbol{A}_L(\boldsymbol{x}) &= [P_L \boldsymbol{A}](\boldsymbol{x}) = N \, \int d^3p \, e^{i \boldsymbol{px}} P_L(\boldsymbol{p}) \, \boldsymbol{A}'(\boldsymbol{p}) \\ \boldsymbol{A}_T(\boldsymbol{x}) &= [P_T \boldsymbol{A}](\boldsymbol{x}) = N \, \int d^3p \, e^{i \boldsymbol{px}} P_T(\boldsymbol{p}) \, \boldsymbol{A}'(\boldsymbol{p}) \end{align} Das können wir nun für die Zeitentwicklung verwenden. In der Eichung \( A^0 = 0 \) war diese Zeitentwicklung gegeben durch die Poissonklammer von oben, d.h. (siehe oben) \( \partial_0 F = \{H, F\} \) mit der Nebenbedingung \( \mathrm{div} \, \boldsymbol{E} = 0 \). Für \(F\) setzen wir nun das Funktional \( A_m[\varphi] = \int d^3x \, A_m(ct,\boldsymbol{x}) \, \varphi(\boldsymbol{x}) \) ein: \[ \partial_0 \, \int d^3x \, A_m(ct,\boldsymbol{x}) \, \varphi(\boldsymbol{x}) = \] \[ = \{H, \int d^3x \, A_m(ct,\boldsymbol{x}) \, \varphi(\boldsymbol{x}) \} = \] \[ =: \int d^3x \, \{H, A_m(ct,\boldsymbol{x})\} \, \varphi(\boldsymbol{x}) \] wobei das letzte Gleichheitszeichen die Poissonklammer \( \{H, A_m(ct,\boldsymbol{x})\} \) definiert (was wegen der Bi-Linearität der Poissonklammer kein Problem ist). Da diese Gleichung für beliebige Testfunktionen \(\varphi\) gelten muss, folgt: \[ \partial_0 \, A_m(ct,\boldsymbol{x}) = \{H, A_m(ct,\boldsymbol{x})\} \] oder in Vektorschreibweise (die alle drei Gleichungen oben zusammenfasst) \[ \partial_0 \, \boldsymbol{A}(ct,\boldsymbol{x}) = \{H, \boldsymbol{A}(ct,\boldsymbol{x})\} \] Nun wollen wir verhindern, dass diese Zeitentwicklung von \(\boldsymbol{A}\) aus der Eichung \( \mathrm{div} \, \boldsymbol{A} = 0 \) herausführt. Wir definieren daher eine neue Zeitentwicklung \(\partial_0^T\), die anschließend an die obige Zeitentwicklung noch eine Projektion auf die transversale Komponente enthält (was einer Umeichung von \(\boldsymbol{A}\) entspricht, so dass die Eichbedingung wieder erfüllt ist): \[ \partial_0^T \, \boldsymbol{A}(ct,\boldsymbol{x}) := [P_T \, \partial_0 \, \boldsymbol{A}](ct,\boldsymbol{x}) = \] \[ = P_T \, \{H, \boldsymbol{A}(ct,\boldsymbol{x})\} =: \{H, \boldsymbol{A}(ct,\boldsymbol{x})\}^T \] wobei wir mit dem letzten Term die transversale Poissonklammer \( \{ . , . \}^T \) definiert haben. Halten wir also fest:
|
Dies ist glücklicherweise konsistent mit der Nebenbedingung \( \mathrm{div} \, \boldsymbol{E} = 0 \), die damit gleichzeitig ebenfalls berücksichtigt ist, denn die transversale Poissonklammer sorgt dafür, dass die Zeitentwicklung \[ \partial_0^T \, \boldsymbol{E}(ct,\boldsymbol{x}) = \{H, \boldsymbol{E}(ct,\boldsymbol{x})\}^T \] nicht aus dieser Nebenbedingung hinausführt.
Generell ist durch die Strahlungseichung \( \mathrm{div} \, \boldsymbol{A} = 0 \) und \( A^0 = 0 \) sowieso gewährleistet, dass die Nebenbedingung \( \mathrm{div} \, \boldsymbol{E} = 0 \) erfüllt ist (dies haben wir weiter oben bereits gesehen). Grund war die Hamiltonsche Gleichung \[ \boldsymbol{E} = - \frac{dA^0}{d\boldsymbol{x}} - \partial_0 \boldsymbol{A} \] die in der Strahlungseichung nach Bildung der Divergenz direkt \( \mathrm{div} \, \boldsymbol{E} = 0 \) ergibt. In der Strahlungseichung braucht man also die Nebenbedingung \( \mathrm{div} \, \boldsymbol{E} = 0 \) nicht mehr separat zu betrachten.
Schauen wir uns die folgende transversale Poissonklammer an: \[ \{E_n[\varphi], \boldsymbol{A}(ct,\boldsymbol{x})\}^T = \] \[ =: \int d^3x' \, \{E_n(ct,\boldsymbol{x}'), \boldsymbol{A}(ct,\boldsymbol{x})\}^T \, \varphi(\boldsymbol{x}') = \] \[ = P_T \, \{E_n[\varphi], \boldsymbol{A}(ct,\boldsymbol{x})\} = \] \[ =: P_T \, \int d^3x' \, \{E_n(ct,\boldsymbol{x}'), \boldsymbol{A}(ct,\boldsymbol{x})\} \, \varphi(\boldsymbol{x}') = \, ... \] ... wir verwenden nun, dass (siehe oben) \( \{E_n(ct,\boldsymbol{x}'), A_m(ct,\boldsymbol{x})\} = \delta_{nm} \, \delta(\boldsymbol{x}' - \boldsymbol{x}) \) ist und somit \( \{E_n(ct,\boldsymbol{x}'), \boldsymbol{A}(ct,\boldsymbol{x})\} = \boldsymbol{e}_n \, \delta(\boldsymbol{x}' - \boldsymbol{x}) \) mit dem Einheits-Basisvektor \( (\boldsymbol{e}_n)_m = \delta_{nm} \): \[ = P_T \, \int d^3x' \, \boldsymbol{e}_n \, \delta(\boldsymbol{x}' - \boldsymbol{x}) \, \varphi(\boldsymbol{x}') = \] \[ = P_T \, \boldsymbol{e}_n \, \varphi(\boldsymbol{x}) = \, ... \] ... wir verwenden \( \varphi(\boldsymbol{x}) = N \, \int d^3p \, e^{i \boldsymbol{px}} \varphi'(\boldsymbol{p}) \) und die Definition von \(P_T\): \[ = N \, \int d^3p \, e^{i \boldsymbol{px}} P_T(\boldsymbol{p}) \, \boldsymbol{e}_n \, \varphi'(\boldsymbol{p}) = \, ... \] ... nun verwenden wir \( \varphi'(\boldsymbol{p}) = N \, \int d^3x' \, e^{-i \boldsymbol{px'}} \varphi(\boldsymbol{x}') \) und erhalten \[ = N^2 \, \int d^3x' \, \int d^3p \, e^{i \boldsymbol{p}(\boldsymbol{x} - \boldsymbol{x}')} P_T(\boldsymbol{p}) \, \boldsymbol{e}_n \, \varphi(\boldsymbol{x}') \] Vergleichen wir diesen Ausdruck mit der zweiten Zeile unserer Berechnung, so erhalten wir \[ \int d^3x' \, \{E_n(ct,\boldsymbol{x}'), \boldsymbol{A}(ct,\boldsymbol{x})\}^T \, \varphi(\boldsymbol{x}') = \] \[ = N^2 \, \int d^3x' \, \int d^3p \, e^{i \boldsymbol{p}(\boldsymbol{x} - \boldsymbol{x}')} P_T(\boldsymbol{p}) \, \boldsymbol{e}_n \, \varphi(\boldsymbol{x}') \] und somit \[ \{E_n(ct,\boldsymbol{x}'), \boldsymbol{A}(ct,\boldsymbol{x})\}^T = \] \[ = N^2 \, \int d^3p \, e^{i \boldsymbol{p}(\boldsymbol{x} - \boldsymbol{x}')} P_T(\boldsymbol{p}) \, \boldsymbol{e}_n \] Für die m-te Komponente erhalten wir wegen \[ [P_T(\boldsymbol{p}) \, \boldsymbol{e}_n]_m = [P_T(\boldsymbol{p})]_{mn} = \delta_{mn} - \frac{p_m p_n}{p^2} \] (siehe oben), so dass wir schließlich das folgende Ergebnis für die transversale Poissonklammer erhalten: \[ \{E_n(ct,\boldsymbol{x}'), A_m(ct,\boldsymbol{x})\}^T = \] \[ = N^2 \, \int d^3p \, e^{i \boldsymbol{p}(\boldsymbol{x} - \boldsymbol{x}')} \left( \delta_{mn} - \frac{p_m p_n}{p^2} \right) \] Vergleichen wir dies mit der ursprünglichen (nichttransversalen) Poissonklammer \[ \{ E_n(ct,\boldsymbol{x}) , A_m(ct,\boldsymbol{x}') \} = \] \[ = \delta_{nm} \, \delta(\boldsymbol{x} - \boldsymbol{x}') = \] \[ = N^2 \, \int d^3p \, e^{i \boldsymbol{p}(\boldsymbol{x} - \boldsymbol{x}')} \, \delta_{mn} \] so erkennen wir den Unterschied: Im Fourierintegral der Deltafunktion wird die Einheitsmatrix \( \mathbb{1} = (\delta_{mn}) \) durch die Projektionsmatrix \(P_T(\boldsymbol{p})\) ersetzt. Man spricht auch von der transversalen Deltafunktion.
Nun sind wir vorbereitet, in der Strahlungseichung zur Quantentheorie überzugehen. Dazu ersetzen wir die transversale Poissonklammer durch den entsprechenden Kommutator (mit Vorfaktor), der ja in der Quantentheorie die Zeitentwicklung der Erwartungswerte von Operatoren bestimmt (siehe vorheriges Kapitel). Dadurch wird sichergestellt, dass die Quantentheorie im klassischen Grenzfall in die freie Elektrodynamik in Strahlungseichung übergeht. Insbesondere gilt:
\[ [\hat{E}_n(\boldsymbol{x}'), \hat{A}_m(\boldsymbol{x})] = \] \[ = \frac{\hbar}{i} \, N^2 \, \int d^3p \, e^{\frac{i}{\hbar} \boldsymbol{p}(\boldsymbol{x} - \boldsymbol{x}')} \left( \delta_{mn} - \frac{p_m p_n}{p^2} \right) \] |
(im Exponenten haben wir jetzt \(\hbar\) ergänzt, da wir in der Quantenmechanik \(\boldsymbol{p}\) als Impuls interpretieren wollen).
Dieser Ausdruck sieht zunächst etwas unhandlich aus, aber man kann die Feldoperatoren geeignet umschreiben, so dass man schließlich sehr einfache Kommutatoren für neue Operatoren erhält, die man als Erzeugungs- und Vernichtungsoperatoren für Photonen (mit Impuls \(\boldsymbol{p}\)) interpretieren kann. Damit lässt sich der Hilbertraum explizit aufbauen, und die Vektoren dieses Raums haben eine unmittelbar anschauliche physikalische Interpretation als Zustandsvektoren von Photonen.
Ein wichtiger Schritt dabei ist die Definition des Grundzustandes (Vakuum genannt), der als der Zustand niedrigster Energie definiert ist. Der Erwartungswert des Hamiltonoperators bezogen auf den Grundzustand soll also minimal sein. Dies führt noch zu einigen technischen Besonderheiten: So muss man beispielsweise den Hamiltonoperator normalordnen, was gleichbedeutend damit ist, die Energieskala so zu justieren, dass der Grundzustand die Energie Null hat. Die Details dazu findet man in vielen Büchern zur Quantenelektrodynamik – daher möchte ich hier nicht näher darauf eingehen.
Die Vertauschungsrelation \( [\hat{E}_n(\boldsymbol{x}'), \hat{A}_m(\boldsymbol{x})] \) in der Strahlungseichung hat einen teilweise nichtlokalen Charakter. Klassisch äußert sich das darin, dass in der Eichung \( \mathrm{div} \boldsymbol{A} = 0 \) das elektrische Potential \(A^0\) instantan (also ohne jede Zeitverzögerung) von der Ladungsverteilung abhängt. Dennoch ist auch in der klassischen Theorie alles in Ordnung, wenn man zu den Feldern \(\boldsymbol{E}\) und \(\boldsymbol{B}\) übergeht. Diese Andeutung soll hier genügen.
Die Quantisierung in Strahlungseichung hat den Vorteil, dass der Hilbertraum relativ einfach gefunden werden kann, denn es sind keine weiteren Nebenbedingungen im Hilbertraum mehr nötig, mit denen man unphysikalische Teilräume entfernen müsste. Dafür bezahlt man allerdings den Preis, dass die Formulierung nicht mehr manifest kovariant ist. Man muss also noch den Nachweis führen, dass die Quantentheorie mit den Axiomen der speziellen Relativitätstheorie verträglich ist. Dies kann man tun, erfordert jedoch einigen technischen Aufwand.
Man kann versuchen, die manifeste Kovarianz der Theorie beizubehalten, indem man die kovariante Lorentzeichbedingung \( \partial_\mu A^\mu = 0 \) verwendet. Diese Eichung wollen wir aber erst nach der Quantisierung fixieren, denn zunächst müssen wir ein Grundproblem lösen, das einer kovarianten Formulierung im Wege steht. Das Grundproblem lautet: \( \pi^0 = 0 \). Für eine kovariante Formulierung benötigen wir jedoch einen vierkomponentigen Vektor \(\pi^\mu\) als Gegenstück zu \(A^\mu\), damit wir die Poissonklammer auch über alle vier Komponenten definieren können (in der Eichung \(A^0 = 0\) hatten wir uns ja auf die räumlichen Komponenten beschränkt). Wir haben oben bereits gesehen, wie sich das Problem lösen lässt: In der Lagrangedichte wird ein neuer Term hinzugefügt: \[ \mathcal{L}' = \mathcal{L} - \frac{\lambda}{2} (\partial_\mu A^\mu)^2 \] Damit haben wir die Dynamik verändert. Sie geht in die alte Dynamik über, wenn wir die Lorentz-Eich-Nebenbedingung \( \partial_\mu A^\mu = 0 \) fordern. Dies tun wir aber erst nach der Quantisierung, denn der Zusatzterm sorgt nun dafür, dass \(\mathcal{L}'\) von \( \partial_0 A_0 \) abhängt, so dass \( \pi^0 \) ungleich Null ist. Damit wäre das Problem mit dem verschwindenden \( \pi^0 \) beseitigt, man kann die Poissonklammer entsprechend unserem allerersten Ansatz oben aufstellen, zu Operatoren und Kommutatoren übergehen und den Hilbertraum zu der so abgeänderten Theorie formulieren.
Allerdings entspricht die so aufgestellte Quantentheorie nicht der benötigten Quantentheorie, denn sie geht im klassischen Grenzfall in die modifizierte klassische Theorie über und nicht in die ursprüngliche Elektrodynamik. Außerdem stellt man fest, dass der Hilbertraum Vektoren mit negativem Skalarprodukt enthält, also mathematisch nicht die benötigte Struktur aufweist. Die Ursache ist klar: die Lorentz-Eichbedingung \( \partial_\mu A^\mu = 0 \) muss noch eingebaut werden.
Für die Operatoren dürfen wir allerdings nicht einfach \( \partial_\mu \hat{A}^\mu = 0 \) fordern, denn dies ist nicht verträglich mit der Zeitentwicklung durch den Kommutator. Das überascht uns nicht, denn bereits die klassische Poissonklammer würde zu einer Zeitentwicklung der Felder führen, die aus der Eichbedingung herausläuft. Wir haben ja in der klassischen Theorie die Eichbedingung extra noch nicht eingebaut, um das Problem \( \pi^0 = 0 \) lösen zu können.
Von den Physikern Gupta und Bleuler stammt die Idee, das Problem dadurch zu lösen, dass man im obigen Hilbertraum wieder einen Unterraum identifiziert: den Raum aller Vektoren, die \( \langle \psi | \partial_\mu \hat{A}^\mu \psi \rangle = 0 \) erfüllen, so dass der Erwatrtungswert von \( \partial_\mu \hat{A}^\mu \) gleich Null ist und sich somit im klassischen Grenzfall die gewünschte Lorentz-Eichbedingung ergibt. Man bezeichnet diese Vorgehensweise als Gupta-Bleuler-Formalismus. Auf diese Weise lassen sich alle Probleme lösen und man kann eine Quantentheorie der Elektrodynamik mit kovarianter Eichung konstruieren.
Eine kurze persönliche Randbemerkung: Ich habe mit Konrad Bleuler (1912-1992) einen der beiden großen Physiker, die diese Methode entwickelt haben, noch persönlich während meiner Promotion am Institut für theoretische Kernphysik in Bonn kennenlernen dürfen. Konrad Bleuler hatte das Institut in Bonn gegründet, war bereits emeritiert und besuchte das Institut immer wieder gerne, um mit uns über sein Lieblingsthema zu diskutieren: die theoretische Physik. Leider verstarb er noch während meiner Promotionszeit.
Wir sind in diesem Kapitel einen weiten Weg gegangen, um von den Maxwellgleichungen des elektromagnetischen Feldes zu einer Quantentheorie der Elektrodynamik zu gelangen. Dabei habe ich Wert darauf gelegt, die Grundlagen der kanonischen Quantisierung an diesem Beispiel ausführlich darzustellen, da dies in den meisten Büchern zu diesem Thema eher knapp ausgeführt ist. Das Kapitel ist dabei recht lang geworden – deutlich länger, als ich erst beabsichtigt hatte. Und dennoch sind natürlich viele Fragen noch offen: Sind die oben dargestellten Quantisierungsmöglichkeiten zueinander gleichwertig? Führen sie zu denselben physikalischen Aussagen (sie tun es zum Glück!)? Ist die Theorie verträglich mit den Aussagen der speziellen Relativitätstheorie (sie ist es!)? Wie geht man mit so einer Quantentheorie um, um Wahrscheinlichkeitsamplituden auszurechnen? Wie sieht der Hilbertraum genau aus, und wie können seine Zustände physikalisch interpretiert werden im Sinne einer Mehr-Teilchen-Interpretation (Stichwort: Photon)?
Um diese Fragen zu beantworten, wären weitere lange Kapitel notwendig. Unser Ziel war es jedoch, die Grundlagen der Quantisierung zu verstehen, damit wir in den nächsten Kapiteln für das Millenium Problem (gibt es eine Quantentheorie bei Eichtheorien?) gerüstet sind. Dazu müssen wir uns im nächsten Kapitel allerdings noch einen weiteren Zugang zur Quantisierung ansehen: die Pfadintegralmethode von Richard Feynman, die wir im letzten Kapitel bereits im Rahmen der Quantenmechanik kennengelernt haben.
Bevor wir dies tun, wollen wir uns am Schluss dieses Kapitels noch einmal der Frage zuwenden, wann die Quantentheorie der Elektrodynamik in die klassische Theorie der elektromagnetischen Felder übergeht. Wann also geht die Beschreibung durch Teilchen (Photonen) in die Beschreibung durch Felder über?
Die folgenden Gedanken dazu stammen im Wesentlichen aus diesen zwei Quellen:
Die Quantenelektrodynamik beschreibt die elektromagnetische Wechselwirkung durch Hilbertraumzustände, die physikalischen Teilchen entsprechen: den Photonen. Ein Photon hat einen Impuls und eine Polarisation, wobei der Impuls einer Wellenlänge und einer Frequenz der zugehörigen Wahrscheinlichkeitsamplitude zugeordnet werden kann (siehe vorletztes Kapitel). Der klassische Grenzfall ergibt sich, wenn sehr viele Photonen an einem Prozess beteiligt sind. Dabei dürfen die Photon-Amplituden aber nicht über alle möglichen Frequenzbereiche wild verteilt sein, da sich sonst ihre Beiträge zum großen Teil gegenseitig aufheben (die entsprechenden Wahrscheinlichkeitsamplituden mitteln sich weg). Insbesondere dürfen hohe Frequenzen und damit kurze Wellenlängen nicht zu stark vertreten sein, da diese sich besonders stark wegmitteln können.
Um sinnvoll darüber sprechen zu können, dass mehrere Photonen an einem Prozess beteiligt sind, muss man die Wirkung der Photonen über einen kurzen Zeitraum \( \Delta t \) aufsammeln, beispielsweise bei dem Versuch, ein elektrisches Feld zu messen. Dann können nur Photonen-Amplituden beitragen, die in dieser Zeitspanne nur wenig oszillieren, denn sonst heben sie sich gegenseitig auf. Die zur Verfügung stehende Energie muss sich also auf diese niederfrequenten Photonen konzentrieren, damit viele Photonen gemeinsam zu einer Gesamtwirkung beitragen können und sich so der klassische Grenzfall ergeben kann. Diese Photon-Energiedichte muss im klassischen Grenzfall ungefähr der Energiedichte des elektromagnetischen Feldes entsprechen, denn die meisten Photonen sollen sich ja durch die Wirkung dieses Feldes ersetzen lassen. Daraus ergibt die folgende Abschätzung: \( |\boldsymbol{E}| \gg \frac{A}{\Delta t} \) mit einem Faktor \(A\), der das Planck'sche Wirkungsquantum \(h\) und die Lichtgeschwindigkeit \(c\) enthält. Die Abschätzung bedeutet:
Fassen wir zusammen: Der klassische Grenzfall tritt ein, wenn eine große Anzahl Photonen, die sich nur wenig unterscheiden (also ähnliche Impulse und damit Wellenlängen und Frequenzen haben), zu einem physikalischen Prozess beitragen.
Damit wollen wir dieses recht umfangreiche Kapitel abschließen und uns im nächsten Kapitel ansehen, wie man auf anderem Wege zu einer Quantentheorie der elektromagnetischen Felder kommen kann.
Literatur:
© Jörg Resag, www.joerg-resag.de
last modified on 30 May 2023