Kehren wir zurück zur Gleichung \[ \Lambda = e^X = e^{ \begin{pmatrix} 0 & \boldsymbol{a} \\ \boldsymbol{a} & G \end{pmatrix} } \] mit \(G^T = -G\). Nachdem wir uns im vorherigen Kapitel mit dem Spezialfall \(G = 0\), also den Boosts, beschäftigt hatten, wollen wir uns nun stattdessen den Fall \(\boldsymbol{a} = 0\) genauer ansehen. Wie wir noch sehen werden, haben wir hier die Drehungen im dreidimensionalen Raum vor uns. Wir wollen daher jetzt schon diese speziellen Transformationen als Drehungen bezeichnen und diesen Begriff später rechtfertigen.
Dabei wollen wir versuchen, möglichst analog zum letzten Abschnitt (Boosts) vorzugehen.
Zunächst wissen wir, dass die Matrix \(G\) die Beziehung \(G^T = -G\) erfüllt, d.h. sie ist von der Form \[ G = \begin{pmatrix} 0 & -w_3 & w_2 \\ w_3 & 0 & -w_1 \\ -w_2 & w_1 & 0 \end{pmatrix} \] (die Indices wollen wir in diesem Abschnitt zur Vereinfachung unten schreiben, da wir nur räumliche Indices betrachten). Die Matrix \(G\) hängt also von drei Parametern ab.
Wenn wir uns die Wirkung von \(G\) auf einen dreidimensionalen Vektor \(\boldsymbol{x}\) anschauen, so stellen wir fest, dass die Wirkung die eines Kreuzproduktes zwischen einem Vektor \[ \boldsymbol{w} = \begin{pmatrix} w_1 \\ w_2 \\ w_3 \end{pmatrix} \] und dem Vektor \(\boldsymbol{x}\) ist: \[ G \boldsymbol{x} = \] \[ = \begin{pmatrix} 0 & -w_3 & w_2 \\ w_3 & 0 & -w_1 \\ -w_2 & w_1 & 0 \end{pmatrix} \, \begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix} = \] \[ = \begin{pmatrix} w_2 x_3 - w_3 x_2 \\ w_3 x_1 - w_1 x_3 \\ w_1 x_2 - w_2 x_1 \end{pmatrix} = \] \[ = \boldsymbol{w} \times \boldsymbol{x} \] also kurz \[ G \boldsymbol{x} = \boldsymbol{w} \times \boldsymbol{x} \] Den Vektor \(\boldsymbol{w}\) schreiben wir in der Form \[ \boldsymbol{w} = \omega \boldsymbol{e} \] mit \(\omega = |\boldsymbol{w}|\) und \(|\boldsymbol{e}| = 1\). Wir können den Einheitsvektor \(\boldsymbol{e}\) wieder fest vorgeben und betrachten \(\omega\) als reellen Parameter der Transformation.
Genauso wie wir aus dem Vektor \(\boldsymbol{w}\) die Matrix \(G\) aufbauen können, so können wir aus dem Vektor \(\boldsymbol{e}\) eine Matrix \(A\) aufbauen. Für diese Matrix gilt: \[ G = \omega \, A \] mit \[ A \boldsymbol{x} = \boldsymbol{e} \times \boldsymbol{x} \]
Dann ist \[ \Lambda_r = e^{ \omega \, \begin{pmatrix} 0 & \boldsymbol{0} \\ \boldsymbol{0} & A \end{pmatrix} } =: e^{\, \omega X_r} \] (der Index \(r\) bei \(\Lambda_r\) und \(X_r\) steht dabei für Rotation).
Die Matrix \(X_r\) enthält als Untermatrix die Matrix \(A\) und hängt somit von dem Einheitsvektor \(\boldsymbol{e}\) ab. Somit können wir wieder drei linear unabhängige Matrizen \(X_{r,i}\) vorgeben, die jeweils zum \(i\)-ten Einheitsvektor \(\boldsymbol{e}_i\) gehören. Jede Matrix \(X_r\) kann als Linearkombination aus den drei \(X_{r,i}\) gebildet werden. Man bezeichnet die \(X_{r,i}\) (bzw. die entsprechenden Matrizen \(A_i\)) auch als die Generatoren der Drehgruppe.
Wieder benutzen wir, dass die \(e\)-Funktion über eine unendliche Reihe definiert ist, und untersuchen dazu zunächst, was bei der Multiplikation von \(X_r\) mit sich selbst herauskommt: \[ X_r^2 = \] \[ = \begin{pmatrix} 0 & \boldsymbol{0} \\ \boldsymbol{0} & A \end{pmatrix} \, \begin{pmatrix} 0 & \boldsymbol{0} \\ \boldsymbol{0} & A \end{pmatrix} = \] \[ = \begin{pmatrix} 0 & \boldsymbol{0} \\ \boldsymbol{0} & A^2 \end{pmatrix} = \] \[ =: F \] (die so definierte Matrix \(F\) ist natürlich nicht dieselbe wie bei den Boosts).
Wie sieht die Matrix \(A^2\) aus? Erinnern wir uns, dass \[ A \boldsymbol{x} = \boldsymbol{e} \times \boldsymbol{x} \] ist. Dann ist \[ A^2 \, \boldsymbol{x} = \boldsymbol{e} \times (\boldsymbol{e} \times \boldsymbol{x}) = \] \[ = (\boldsymbol{e} \boldsymbol{x}) \boldsymbol{e} - \boldsymbol{x} \] (wegen \(\boldsymbol{e}^2 = 1\)).
In Komponenten ausgeschrieben bedeutet das: \[ ( \, A^2 \, \boldsymbol{x})_i = \sum_{j = 1}^3 \, (e_i e_j - \delta_{ij}) \, x_j \] Dabei ist \(\delta_{ij}\) das bekannte Kroneckersymbol, d.h. \(\delta_{ij} = 1\) für \(i = j\) und \(\delta_{ij} = 0\) sonst. Mit \(e_i\) bezeichnen wir die Komponenten des dreidimensionalen Einheitsvektors \(\boldsymbol{e}\). Die Komponenten der Matrix \(A^2\) sind also gegeben durch \[ (A^2)_{ij} = e_i e_j - \delta_{ij} \] Berechnen wir nun A3. Es ist \[ A^3 \boldsymbol{x} = A \, (A^2 \boldsymbol{x}) = \] \[ = \boldsymbol{e} \times ((\boldsymbol{e} \boldsymbol{x}) \boldsymbol{e} - \boldsymbol{x}) = \] \[ = - \boldsymbol{e} \times\boldsymbol{x} = - A \boldsymbol{x} \] wegen \(\boldsymbol{e} \times \boldsymbol{e} = 0\). Also ist \[ X_r^3 = - X_r \] Gehen wir weiter: \[ A4 = A \, A^3 = A \, (-A) = -A^2 \] und somit \[ X_r^4 = - F \] Zusammengefasst haben wir also:
Für gerade \(n = 2i\) ist (mit \(i \gt 1\)) \[ X_r^{2i} = (-1)^{i+1} F \] Für ungerade \(n = 2i+1\) ist \[ X_r^{2i+1} = (-1)^{i} X_r \]
Damit können wir die unendliche Exponentialreihe wieder in mehrere Teilreihen aufteilen, eine für gerade \(n=2i\) und eine für ungerade \(n=2i+1\). Wie gehabt schreiben wir in der Reihe für gerade \(n\) den Term für \(n = 0\) (also die \(1\)) so um, dass sich die Matrix \(F\) ausklammern lässt, also \(X_r^0 = 1 = -F + (1+F)\). Dann ist \[ \Lambda_r = e^{\, \omega X_r} = \sum_{n = 0}^{\infty} \, \frac{\omega^n}{n!} X_r^n = \] \[ = \sum_{i = 0}^{\infty} \, \frac{\omega^{2i}}{(2i)!} X_r^{2i} + \sum_{i = 0}^{\infty} \, \frac{\omega^{2i+1}}{(2i+1)!} X_r^{2i+1} = \] \[ = \sum_{i = 0}^{\infty} \, (-1)^{i+1} \frac{\omega^{2i}}{(2i)!} F \; + (1 + F) + \] \[ + \sum_{i = 0}^{\infty} \, (-1)^i \frac{\omega^{2i+1}}{(2i+1)!} X_r = \] \[ = - (\cos{\omega}) \, F \; + (1 + F) + \, (\sin{\omega}) \, X_r \] Dabei haben wir die bekannten Reihendarstellung für die Funktionen Sinus und Cosinus verwendet. Zwischen diesen beiden Funktionen gilt die bekannte Beziehung \[ (\cos{\omega})^2 + (\sin{\omega})^2 = 1 \] Die Matrix wollen wir hier nicht ausschreiben, da die Formel recht kompliziert wird. Interessanter ist die Wirkung auf einen Vierervektor \[ x = \begin{pmatrix} ct \\ \boldsymbol{x} \end{pmatrix} \] also \[ \Lambda_r x = \] \[ = - (\cos{\omega}) \, F x \; + (1 + F) x + \] \[ +(\sin{\omega}) \, X_r x = \] \[ = - ( \cos{\omega}) \, \begin{pmatrix} 0 \\ A^2 \boldsymbol{x} \end{pmatrix} \; + \begin{pmatrix} ct \\ \boldsymbol{x} \end{pmatrix} + \] \[ + \begin{pmatrix} 0 \\ A^2 \boldsymbol{x} \end{pmatrix} + (\sin{\omega}) \, \begin{pmatrix} 0 \\ A \boldsymbol{x} \end{pmatrix} = \] \[ = - ( \cos{\omega}) \, \begin{pmatrix} 0 \\ (\boldsymbol{e} \boldsymbol{x}) \boldsymbol{e} - \boldsymbol{x} \end{pmatrix} \; + \begin{pmatrix} ct \\ \boldsymbol{x} \end{pmatrix} + \] \[ + \begin{pmatrix} 0 \\ (\boldsymbol{e} \boldsymbol{x}) \boldsymbol{e} - \boldsymbol{x} \end{pmatrix} + (\sin{\omega}) \, \begin{pmatrix} 0 \\ \boldsymbol{e} \times \boldsymbol{x} \end{pmatrix} = \] \[ = - ( \cos{\omega}) \, \begin{pmatrix} 0 \\ (\boldsymbol{e} \boldsymbol{x}) \boldsymbol{e} - \boldsymbol{x} \end{pmatrix} \; + \begin{pmatrix} ct \\ (\boldsymbol{e} \boldsymbol{x}) \boldsymbol{e} \end{pmatrix} + \] \[ + (\sin{\omega}) \, \begin{pmatrix} 0 \\ \boldsymbol{e} \times \boldsymbol{x} \end{pmatrix} = \] Die zeitliche Komponente \(ct\) ändert sich also gar nicht, und aus der räumlichen Komponente wird \[ e^{\,\omega A} \boldsymbol{x} = \] \[ = - ( \cos{\omega}) \, [(\boldsymbol{e} \boldsymbol{x}) \boldsymbol{e} - \boldsymbol{x}] + (\boldsymbol{e} \boldsymbol{x}) \boldsymbol{e} + \] \[ + (\sin{\omega}) \, (\boldsymbol{e} \times \boldsymbol{x}) \]
Um diese komplizierte Formel besser zu verstehen, betrachten wir einige Spezialfälle.
Was passiert, wenn \(\boldsymbol{e}\) parallel zu \(\boldsymbol{x}\) ist? Dann ist \(\boldsymbol{e} \times\boldsymbol{x} = 0\) und \( (\boldsymbol{e} \boldsymbol{x}) \boldsymbol{e} = \boldsymbol{x} \).
Der erste und der dritte Term – also der Cosinus- und Sinus-Term – fallen also weg und es bleibt nur der zweite Term \( (\boldsymbol{e} \boldsymbol{x}) \boldsymbol{e}\) stehen, der den Vektor \(\boldsymbol{x}\) aber nicht ändert, wenn \(\boldsymbol{e}\) parallel zu ihm steht. In diesem Fall verändert die Abbildung den Vektor also überhaupt nicht. Bei einer Drehung ist das genau dann der Fall, wenn \(\boldsymbol{e}\) die Drehachse angibt und der Vektor \(\boldsymbol{x}\) genau parallel zur Drehachse liegt. Damit haben wir zwar noch nicht gezeigt, dass hier wirklich eine Drehung vorliegt, aber wir haben einen ersten Hinweis.
Betrachten wir den Fall, dass \(\boldsymbol{e}\) parallel zur z-Achse liegt. Dies entspricht letztlich lediglich einer bestimmten Koordinatenwahl. Dann ist \( (\boldsymbol{e}\boldsymbol{x})\boldsymbol{e} = (0,0,x_3)\), sodass \( [(\boldsymbol{e} \boldsymbol{x}) \boldsymbol{e} - \boldsymbol{x}] = -(x_1,x_2,0)\) ist, und zudem ist \(\boldsymbol{e} \times \boldsymbol{x} = (-x_2,x_1,0)\). Also ist insgesamt \[ e^{\,\omega A} \boldsymbol{x} = \] \[ = - ( \cos{\omega}) \, [(\boldsymbol{e} \boldsymbol{x}) \boldsymbol{e} - \boldsymbol{x}] + (\boldsymbol{e} \boldsymbol{x}) \boldsymbol{e} + \] \[ + (\sin{\omega}) \, (\boldsymbol{e} \times \boldsymbol{x}) = \] \[ = - ( \cos{\omega}) \, \begin{pmatrix} -x_1 \\ -x_2 \\ 0 \end{pmatrix} + \begin{pmatrix} 0 \\ 0 \\ x_3 \end{pmatrix} + \] \[ + (\sin{\omega}) \, \begin{pmatrix} -x_2 \\ x_1 \\ 0 \end{pmatrix} = \] \[ = \begin{pmatrix} ( \cos{\omega}) \, x_1 - (\sin{\omega}) \, x_2 \\ (\sin{\omega}) \, x_1 + ( \cos{\omega}) \, x_2 \\ x_3 \end{pmatrix} = \] \[ = \begin{pmatrix} \cos{\omega} & - \sin{\omega} \\ \sin{\omega} & \quad \cos{\omega} \\ 1 \end{pmatrix} \, \begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix} \] Der Einheitsvektor in \(x_1\)-Richtung wird also auf den Vektor \( (\cos{\omega}, \sin{\omega}, 1) \) und der Einheitsvektor in \(x_2\)-Richtung wird auf den Vektor \( (-\sin{\omega}, \cos{\omega}, 1) \) abgebildet. Das ist im folgenden Bild für wachsende Werte von \(\omega\) dargestellt:
Wir sehen hier sehr schön, dass die Abbildung eine Drehung um die \(x_3\)-Achse ist, wobei \(\omega\) den Drehwinkel angibt. Allgemein gibt der Vektor \(\boldsymbol{e}\) die Drehachse der Drehung an.
Eine allgemeine Eigenschaft einer Drehung besteht darin, dass sich die Länge eines dreidimensionalen Vektors bei der Abbildung nicht ändert. Dass das für die obige Abbildung \(e^{\,\omega A}\) zutrifft, kann man leicht direkt nachrechnen. Wir wollen hier darauf verzichten.
Dass die Länge eines dreidimensionalen Vektors sich nicht ändert, ist auch ohne lange Rechnung sofort klar: da sich die Zeitkomponente durch \(\Lambda_r\) nicht ändert, und da die Metrik \(g(x,x) = (ct)^2 - \boldsymbol{x}^2\) sich ebenfalls nicht ändert, kann sich auch \(\boldsymbol{x}^2\) nicht ändern.
Unsere Schlussfolgerung lautet also: die Abbildungen \(\Lambda_r\) stellen Drehungen im dreidimensionalen Raum dar. Die Zeitkomponente wird dabei nicht verändert.
© Jörg Resag, www.joerg-resag.de
last modified on 26 June 2023