Hilberträume

Man kann das Studium der Vektorräume in der Funktionalanalysis, mit abnehmendem Grad der Allgemeinheit, grob in drei Klassen einteilen:

Dabei sind die Hilberträume die natürliche Verallgemeinerung des klassischen euklidischen Raums, da die Begriffe Länge, Winkel, orthogonales Komplement etc. sich hier auf den Fall unendlicher Dimensionen verallgemeinern lassen. Sie sind die nützlichsten Räume bei Anwendungen der Funktionalanalysis geblieben und spielen eine wichtige Rolle in vielen Teilgebieten der Mathematik und Physik. So ist der Hilbertraum der zentrale Begriff in der Quantenmechanik. Die Untersuchungen der Hilberträume begannen mit den Arbeiten von John von Neumann 1929 und sind in seinem, auch heute noch zur Lektüre empfohlenen Buch „Mathematische Methoden der Quantenmechanik“ festgehalten (siehe [7]).

Bevor wir in die abstrakte Behandlung der Hilberträume eintreten, wollen wir zwei Beispiele näher untersuchen.

1. Der Folgenraum {\ell^{2}}

Der Folgenraum {\ell^{2}} besteht aus allen (komplexen oder reellen) Folgen

\displaystyle  	x = (\xi_{1}, \ldots , \xi_{n} , \ldots )

mit der Eigenschaft

\displaystyle  \sum_{1}^{\infty} |\xi_{i}|^{2} < \infty. \ \ \ \ \ (1)

Wie im Fall {\ell^{\infty}} oder {\ell^{1}} definieren wir eine Addition und skalare Multiplikation komponentenweise und definieren außerdem

\displaystyle  	\| x \|_{2} := \Bigg( \sum_{1}^{\infty} | \xi_{i} |^{2}\Bigg)^{\frac{1}{2}}. \ \ \ \ \ (2)

Zu zeigen ist, dass die Summe von zwei Elementen aus {\ell^{2}} wieder ein Element von {\ell^{2}} ist und dass {\| {\ } \|_{2}} eine Norm ist. Wiederum ist nur die Dreicksungleichung nachzuweisen, woraus dann unmittelbar folgt, dass {\ell^{2}} ein Vektorraum ist.

Seien {x = (\xi_{i})} und {y = (\eta_{i})} aus {\ell^{2}}. Wie aus dem Prolog bekannt, gilt die Dreiecksungleichung in {{\mathbb R}^{n}} und {{\mathbb C}^{n}} und damit für jedes {n \in {\mathbb N}}

\displaystyle  \left. \begin{array}{l l} \sum_{1}^{n} | \xi_{i} + \beta_{i} |^{2} 		& \leq \sum_{1}^{n} | \xi_{i} |^{2} + \sum_{1}^{n} | \beta_{i} |^{2} + 			2 (\sum_{1}^{n} | \xi_{i} |^{2})^{\frac{1}{2}}(\sum_{1}^{n} | \beta_{i} |^{2})^{\frac{1}{2}} \\ 	& \leq \| x \|^{2} + \| y \|^{2} + 2\| x \|\| y \| \\ 	& = (\| x \| + \| y \|)^{2}. \end{array} \right\} \ \ \ \ \ (3)

Da die rechte Seite unabhängig von {n \in {\mathbb N}} ist, folgt hieraus alles weitere.

Wie im Falle der Hilberträume {{\mathbb R}^{n}} und {{\mathbb C}^{n}} definieren wir für {x = (\xi_{i})} und {y = (\beta_{i})} in {\ell^{2}}

\displaystyle  	(x | y) := \sum_{1}^{\infty} \xi_{i}\overline{\beta_{i}}. \ \ \ \ \ (4)

Da für beliebige reelle Zahlen {r} und {s} stets { 0 \leq (s - t)^{2}} oder { st \leq (s^{2} + t^{2}) / 2} gilt, folgt für beliebiges {n \in {\mathbb N}}

\displaystyle  	\sum_{1}^{n}|\xi_{i} \beta_{i}| \leq \frac{1}{2}\sum_{i}^{n}(|\xi_{i}|^{2} + |\beta_{i}|^{2}) 			\leq \frac{1}{2} ( \| x \|^{2} + \| y \|^{2} ) < \infty.

Auch hier ist die rechte Seite unabhängig von {n \in {\mathbb N}} und damit die Summe (4) endlich und unabhängig von der Reihenfolge der Summation. Somit ist dies ein wohldefiniertes Skalarprodukt auf {\ell^{2}} mit

\displaystyle  	\| x \|_{2} = (x | x)^{\frac{1}{2}}.

Für dieses Skalarprodukt gilt für alle {x, y \in \ell^{2}} und {\lambda, \mu \in \mathbf{K}}

\displaystyle  \begin{array}{r l} (\lambda x + \mu y | z ) & = \lambda (x|z) + \mu (y|z),		\\ ( x + \mu y | \lambda a + \mu z ) & = \overline{\lambda} (x|y) + \overline{\mu} (x|z),	\\ 	(x|y) & = \overline{(y|x)}, \\ 	\| x \|_{2} = 0 & \iff x = 0 . \end{array} \ \ \ \ \ (5)

Satz 1. Der Vektorraum {\ell^{2}} versehen mit dem Skalarprodukt (4) und der Norm {\| {\ } \|_{2}} ist ein Banachraum und es gilt {| ( x | y ) | \leq \| x \| \| y \|} für alle {x,y \in \ell^{2}}.

Beweis: Es bleibt zu zeigen, dass {\ell^{2}} vollständig ist. Sei {(x_{k}),} {x_{k} = (\xi_{i}^{(k)})_{i \in {\mathbb N}}} eine Cauchyfolge in {\ell^{2}} und {\epsilon > 0}. Dann existiert eine {n_{0} \in {\mathbb N}} mit {\| x_{k} - x_{l} \|^{2} \leq \epsilon} für alle {k , l \geq n_{0},} d.h.

\displaystyle  	\sum_{i = 1}^{\infty} | \xi_{i}^{(k)} - \xi_{i}^{(l)} |^{2} \leq \epsilon \quad (k , l \geq n_{0}). \ \ \ \ \ (6)

Daher ist für {i , k \in {\mathbb N}} fest aber beliebig, die Folge {( \xi_{i}^{(k)} )_{k \in {\mathbb N}}} eine Cauchyfolge in {\mathbf{K}} und damit konvergent. Sei

\displaystyle  	\xi_{i} := \lim_{k \rightarrow \infty} \xi_{i}^{(k)}, \quad x := ( \xi_{i} )_{i \in {\mathbb N}}.

Für eine beliebiges {n \in {\mathbb N}} und {l \geq n_{0}} folgt aus (6)

\displaystyle  	\sum_{i = 1}^{n} | \xi_{i} - \xi_{i}^{(l)} |^{2} = 		\lim_{k} \; \bigg ( \sum_{i = 1}^{n} | \xi_{i}^{(k)} - \xi_{i}^{(l)} |^{2} \bigg) 		\leq \limsup_{k} \; \bigg ( \sum_{i = 1}^{\infty} | \xi_{i}^{(k)} - \xi_{i}^{(l)} |^{2} \bigg) \leq \epsilon ,

d.h. {\| x - x_{l} \| \leq \epsilon} für alle {l \geq n_{0}.} Somit konvergiert die Folge {(x_{k})} gegen {x} in {\ell^{2}}. Aus der obigen Abschätzung folgt, dass {x - x_{l}} für {l \geq n_{0}} ein Element des Vektorraums {\ell^{2}} ist. Wegen {x = (x - x_{l}) + x_{l}} und da {\ell^{2}} ein Vektorraum ist können wir schließen, dass auch {x} ein Element von {\ell^{2}} sein muss. \Box

Nützlich ist die folgende Beobachtung.

Satz 2. Sind {(x_{n}), (y_{n})} Folgen in {\ell^{2}} mit {\lim_{n} x_{n} = x} und {\lim_{n} y_{n} = y}, so gilt

\displaystyle  	\lim_{n} ( x_{n} | y_{n} ) = ( x | y ).

Beweis: Es ist

\displaystyle  | ( x_{n} | y_{n} ) - ( x | y ) | = | ( x_{n} | y_{n} ) - ( x | y_{n} ) + ( x | y_{n} )- ( x | y )| 		\leq | ( x_{n} - x | y_{n} ) | + | ( x | y_{n} - y ) |

woraus mit Hilfe der Cauchy-Schwarz Ungleichung die Behauptung folgt. \Box

Wir setzen für {k = 1, 2, \ldots}

\displaystyle  	e_{k} := (\underbrace{0, 0, \ldots , 0}_{k-1} , 1 , 0, 0, \ldots ), \quad k \in {\mathbb N} . \ \ \ \ \ (7)

Dann gilt {e_{k} \in \ell^{2}} und

\displaystyle  	(e_{j} | e_{k}) = \delta_{jk} \quad	\text{und} \quad 	\| e_{k} \| = 1 \quad (j,k \in {\mathbb N}). \ \ \ \ \ (8)

Satz 3. Für die Folge {(e_{k})_{k \in {\mathbb N}}} definiert wie in (7) gilt:

  • Die Vektoren {\{ e_{k} \colon k \in {\mathbb N} \}} sind linear unabhängig in {\ell^{2}}.
  • Ist {x \in \mathrm{lin} \{ e_{k} \colon k \in {\mathbb N} \},} so gilt

    \displaystyle  	\left. 	\begin{array}{c l } 	 x &= \sum_{k \in {\mathbb N}}( x | e_{k})e_{k} \\ 	 \|{x}\|^{2} &= \sum_{k \in {\mathbb N}}|(x|e_{k})|^{2} 	\end{array} 	\right\} 	\ \ \ \ \ (9)

  • Es gilt {\| e_{k} - e_{l} \| = \sqrt{2}} für alle {k,l \in {\mathbb N}, \; k \neq l.}
  • Es ist {\; \mathrm{lin} \{ e_{k} \colon k \in {\mathbb N} \} = c_{f}} der Vektorraum der abbrechenden Folgen.

Beweis: Sind {\alpha_{1}, \ldots , \alpha_{n}} beliebige Skalare mit {\sum_{i=1}^{n} \alpha_{i} e_{k_{i}} = 0}, so folgt für {j \in {\mathbb N}}

\displaystyle  0 = \bigg( \sum_{i=1}^{n} \alpha_{i} e_{k_{i}} | e_{j} \bigg) = \sum_{i=1}^{n} \alpha_{i} ( e_{k_{i}} | e_{j} ) = 	\begin{cases} 		0 , 		& j \neq k_{i} \\ 		\alpha_{i},	& j = k_{i}. 	\end{cases}

Somit ist {\alpha_{i} = 0} für {i = 1, \ldots , n} und die {e_{k}} sind linear unabhängig.

Ist {x \in \mathrm{lin} \{ e_{k} \colon k \in {\mathbb N} \}}, so existieren {\alpha_{1}, \ldots , \alpha_{n} \in \mathbf{K}} mit {x = \sum_{i=1}^{n} \alpha_{i} e_{k_{i}}}. Dann folgt

\displaystyle  ( x | e_{j} ) = \bigg( \sum_{i=1}^{n} \alpha_{i} e_{k_{i}} | e_{j} \bigg) 		= \sum_{i=1}^{n} \alpha_{i} ( e_{k_{i}} | e_{j} ) = 	\begin{cases} 		0 , 		& j \neq k_{i} \\ 		\alpha_{i},	& j = k_{i}, 	\end{cases}

also {x = \sum_{i=1}^{n} ( x | e_{k_{i}} ) e_{k_{i}} = \sum_{k \in {\mathbb N}}( x | e_{k})e_{k}}.

Für die Norm von {x} gilt

\displaystyle  \begin{array}{ll} \| x \|^{2} &= \bigg( \sum_{k \in {\mathbb N}}( x | e_{k})e_{k} | x \bigg) 				= \sum_{k \in {\mathbb N}}( x | e_{k} ) (e_{k} | x ) \\ 		&= \sum_{k \in {\mathbb N}}( x | e_{k} ) \overline{(e_{k} | x )} 				= \sum_{k \in {\mathbb N}}|(x|e_{k})|^{2}. \end{array}

\Box

Wie kann man nun diesen Sachverhalt aus Satz (3) verallgemeinern? Dazu für ein beliebiges {x = (\xi_{k})_{k \in {\mathbb N}} \in \ell^{2}} einige Beobachtungen.

  1. Für {x = \xi_{i}} und alle {i \in {\mathbb N}} gilt {( x | e_{i} ) = \xi_{i}}.
  2. Ist {x_{k} = \sum_{1}^{k} ( x | e_{j} )e_{j}}, so existiert zu jedem {\epsilon > 0} ein {k_{0} \in {\mathbb N}} mit {\| x - x_{k} \|^{2} \leq \epsilon} für alle {k \geq k_{0}}: Denn zu {\epsilon > 0} existiert ein {k_{0}} mit

    \displaystyle  	\sum_{1}^{\infty} | \xi_{i} |^{2} = \sum_{1}^{k} | \xi_{i} |^{2} 			+ \underbrace{\sum_{k + 1}^{\infty} | \xi_{i} |^{2}}_{\leq \epsilon}.

    Setze

    \displaystyle  	k = k_{0} \quad \text{und} \quad x_{k} := \sum_{1}^{k} \xi_{i} = \sum_{1}^{k} ( x | e_{i} ) e_{i}.

    Dann ist

    \displaystyle  	\| x - x_{k} \|^{2} = \sum_{k + 1}^{\infty} | \xi_{i} |^{2} \leq \epsilon ,

    d.h. die Folge der Vektoren {(x_{k})_{k \in {\mathbb N}}} konvergiert in der {\ell^{2}-}Norm gegen {x}. Wir schreiben hierfür kurz

    \displaystyle  		x = \sum_{1}^{\infty} ( x | e_{i} )e_{i} 	\ \ \ \ \ (10)

    wobei wir {\sum_{1}^{\infty} ( x | e_{i} )e_{i}} als Grenzwert der Folge {x_{k}} verstehen, d.h.

    \displaystyle  	\sum_{1}^{\infty} ( x | e_{i} )e_{i} := \lim_{k \rightarrow \infty} x_{k} 		= \lim_{k \rightarrow \infty} \bigg( \sum_{1}^{k} ( x | e_{i} ) e_{i} \bigg).

  3. Ist

    \displaystyle  		x = \sum_{1}^{\infty} ( x | e_{i} )e_{i} \quad \text{und} \quad y = \sum_{1}^{\infty} ( y | e_{i} )e_{i}	,

    so gilt

    \displaystyle  	 \left. 	\begin{array}{c l } 	 \| x \|^{2} &= \sum_{i}|(x|e_{i})|^{2}, \\ 	 ( x | y ) &= \sum_{i} (x|e_{i})\overline{( y | e_{i} )}. 	\end{array} 	\right\} 	\ \ \ \ \ (11)

    Denn es ist

    \displaystyle  	\begin{array}{rl} 		\| x \|^{2} &= \bigg( \sum_{i} (x|e_{j})e_{i} | x \bigg) 			= \bigg( \lim_{k} (\sum_{i = 1}^{k} (x|e_{i})e_{i} | x \bigg) \\ 			& = \lim_{k} \bigg( \sum_{i = 1}^{k} ( x | e_{i} ) ( e_{j} | x ) \bigg) 			 = \lim_{k} \bigg( \sum_{i = 1}^{k} ( x | e_{i} ) \overline{( x | e_{i} )} \bigg) \\ 			& = \sum_{i}|(x|e_{i})|^{2} , 	\end{array}

    wobei wir nach Satz (3) das Skalarprodukt und den Limes vertauschen dürfen. Entsprechend gilt

    \displaystyle  	\begin{array}{rl} 	 ( x | y ) 	& = \bigg( \sum_{i} (x|e_{i})e_{i} | y \bigg) 	 		= \lim_{k} \bigg( \sum_{i = 1}^{k} ( x | e_{j} ) ( e_{j} | y ) \bigg) \\ 				& = \lim_{k} \bigg( \sum_{i = 1}^{k} ( x | e_{i} ) \overline{( y | e_{i} )} \bigg) 			= \sum_{i} (x|e_{i})\overline{( y | e_{i} )}. 	\end{array}

  4. Der Vektorraum {c_{f}} aller abrechenden Folgen ist dicht in {\ell^{2}}, d.h.

    \displaystyle  		( c_{f} )^{=} = \ell^{2} ,

    wobei der Abschluss in der {\ell^{2}-}Norm gebildet wird. Dies folgt unmittelbar aus den obigen Überlegungen.

Wir nennen zwei Vektoren von {\ell^{2}} orthogonal, wenn {( x | y ) = 0} gilt. Wegen (8) sind jeweils unterschiedliche {e_{k}} orthogonal zueinander und jedes {e_{k}} besitzt die Norm {= 1}. Wegen (10) nennt man die Folge {(e_{k})} eine Hilbertraumbasis für {\ell^{2}}.

Man beachte aber, dass die Vektoren {(e_{k})} keine Hamelbasis des Vektorraums {\ell^{2}} bilden können. Später werden wir sehen, dass {\ell^{2}} keine abzählbare Hamelbasis besitzen kann (siehe Theorem (26)).

Aufgabe 1. Im Prolog hatten wir den Folgenraum {\ell^{1}} definiert. In diesem Banachraum sind die Vektoren {e_{k}} auch enthalten.

  • Gilt in {\ell^{1}} auch für jedes {x = (\xi_{k}): \; x = \sum_{1}^{\infty} \xi_{k}e_{k}} und wenn ja, in welchem „Sinne“ ist diese Gleichheit zu verstehen.
  • Ist {\ell^{1}} ein Hilbertraum, d.h. ist die Norm von {\ell^{1}} mittels eines Skalarproduktes definiert?
  • Gilt {\ell^{1} \subseteq \ell^{2}} oder gilt die umgekehrte Inklusion (oder keine)?
  • Was kann über die Beziehung der Normen ausgesagt werden?

Anmerkung: Bezeichnen wir mit {\ell^{2}({\mathbb Z})} die Menge aller komplexen, zweiseitigen unendlichen Folgen

\displaystyle  	( \ldots , \xi_{-i} , \ldots , \xi_{-1}, \xi_{0} , \xi_{1} , \ldots , \xi_{i} , \ldots )

mit

\displaystyle  	\sum_{i \in {\mathbb Z}} |\xi_{i}|^{2} = \sum_{-\infty}^{\infty} |\xi_{i}|^{2} < \infty,

so ist {\ell^{2}({\mathbb Z})} mit komponentenweiser Addition und skalarer Multiplikation ein Vektorraum und wird durch die analogen Definitionen wie oben zu einem Hilbertraum.

Definieren wir für {k \in {\mathbb Z}}

\displaystyle  	e_{k} := (\ldots , 0 , \underset{\atop{ \uparrow \atop{ \text{k-\text{te Stelle}}}}} 1 , 0, \ldots ), \quad k \in {\mathbb Z} , \ \ \ \ \ (12)

so gilt

\displaystyle  	x = \sum_{- \infty}^{\infty} ( x | e_{i} ) e_{i} \; := \; \sum_{i = 0}^{\infty} ( x | e_{i} ) e_{i} 				+ \sum_{i = 1}^{\infty} ( x | e_{- i} ) e_{- i}

und

\displaystyle 	 			( x | y ) = \sum_{- \infty}^{\infty} (x|e_{i})\overline{( y | e_{i} )}

analog zu (10). \lozenge

Betrachtet man {\ell^{2}} und {\ell^{2}({\mathbb Z})} etwas genauer, so fällt auf, dass diese beiden Vektorräume als Mengen verschieden sind, aber „im Prinzip“ als Hilberträume „gleich“ sind. Was soll dies präzise bedeuten?

Definition 4. Seien {(X,\| \cdot \|_{X})} und {(Y,\| \cdot \|_{Y})} zwei Banachräume und es sei {T: X \rightarrow Y} eine bijektive lineare Abbildung. Dann nennen wir {T}

  • einen topologischen Isomorphismus, wenn es Konstanten {0 < m, M \in {\mathbb R}} gibt mit {m \| x \|_{X} \leq \| Tx \|_{Y} \leq M \| x \|_{X}} für alle {x \in X}. Wir schreiben hierfür {X \cong Y} und nennen die beiden Banachräume isomorph zueinander;
  • eine isometrischen Isomorphismus, wenn {T} ein topologischer Isomorphismus mit {m = M =1} ist, d.h. {\| Tx \|_{Y} = \| x \|_{X}} für alle {x \in X} gilt. Wir nennen dann die beiden Banachräume isometrisch isomorph zueinander und schreiben hierfür {X \equiv Y}.

Aus der Definition folgt, dass in beiden Fällen die Umkehrabbildung {T^{-1}} ein isometrischer Isomorphismus bzw. ein topologischer Isomorphismus ist mit {M^{-1} \| y \|_{Y} \leq \| T^{-1}y \|_{X} \leq m^{-1}\| y \|_{Y}} für alle {y \in Y}.

Aufgabe 2.

  1. Es ist klar, dass ein isometrischer Isomorphismus immer ein topologischer Isomorphismus ist. Die Umkehrung gilt i.A. nicht. Man betrachte hierzu die Banachräume {X = ({\mathbb R}^{2},\| \cdot \|_{1})}, {Y = ({\mathbb R}^{2},\| \cdot \|_{2})} und {Z = ({\mathbb R}^{2},\| \cdot \|_{\infty})}. Dann sind diese Banachräume jeweils paarweise isomorph zueinander, aber nicht isometrisch isomorph.
  2. Ist {T = I}, {I} die identische Abbildung auf {{\mathbb R}^{2}}, so bestimme man die besten Konstanten {m, M} in jedem der sinnvollen Möglichkeiten. Kann man das Ergebnis geometrisch begründen?
  3. Kann man das obige Beipiel auf {{\mathbb R}^{n}} verallgemeinern?
  4. Was sind die Beziehungen zwischen {\ell^{1}, \ell^{2}} und {\ell^{\infty}}? Sind diese Räume isomorph zueinander?

Satz 5. Es gibt eine bijektive lineare Abbildung {U \colon \ell^{2} \rightarrow \ell^{2}({\mathbb Z})} mit {( U x | U y ) = (x | y)} für alle {x , y \in \ell^{2}}. Insbesondere ist {\ell^{2}} isometrisch isomorph zu {\ell^{2}({\mathbb Z})}.

Beweis: Sei {(e_{k})_{k \in {\mathbb N}}} die oben definierte Hilbertraumbasis von {\ell^{2}} und {(f_{k})_{k \in {\mathbb Z}}} die von {\ell^{2}({\mathbb Z})}. Ist {U} die Abbildung

\displaystyle  	U(e_{2k - 1}) = f_{k} \; , \quad U(e_{2k - 1}) = f_{1 -k} \quad (k \in {\mathbb N}), \ \ \ \ \ (13)

so ist {U} wegen (3) eine wohldefinierte bijektive lineare Abbildung von

\displaystyle  	\mathrm{lin} \{ e_{k} \colon k \in {\mathbb N} \} \rightarrow \mathrm{lin} \{ f_{k} \colon k \in {\mathbb Z} \}

mit

\displaystyle  		\| Ux \|_{2} = \| x \|_{2}

für alle {x \in \mathrm{lin} \{ e_{k} \colon k \in {\mathbb N} \}}. Nun ist aber {\mathrm{lin} \{ e_{k} \colon k \in {\mathbb N} \}^{=} = \ell^{2}} und {\mathrm{lin} \{ e_{k} \colon k \in {\mathbb Z} \}^{=} = \ell^{2}({\mathbb Z})}. Daher folgt die Behauptung aus dem folgenden Satz. \Box

Satz 6. (Fortsetzungssatz für stetige lineare Abbildungen) Es seien {X , Y} Banachräume, {X_{0}} Teilraum von {X} mit {X_{0}^{=} = X} (wie nennen einen solchen Teilraum dicht in X) und es sei {T} eine beschränkte lineare Abbildung von {X_{0} \rightarrow Y}. Dann existiert eine eindeutig bestimmte, beschränkte lineare Abbildung {\widetilde{T} \colon X \rightarrow Y} mit

\displaystyle  	\widetilde{T}(x) = T(x) \quad (x \in X_{0}) \quad \text{und} \quad \| \widetilde{T} \| = \| T \| .

Beweis: Da {T} beschränkt ist, existiert eine Konstante {0 < m \in {\mathbb R}} mit {\| Tx \| \leq m \| x \|} für alle {x \in X_{0}}. Ist {x \in X}, so existiert einen Folge {(x_{n}) \in X_{0}} mit {\lim_{n} x_{n} = x}. Da dann {(x_{n})} eine Cauchyfolge in {X_{0}} ist, muss aber wegen {\| Tx_{n} - Tx_{m} \| \leq m \| x_{n} - x_{m} \|} die Folge {(Tx_{n})} eine Cauchyfolge in {Y} sein.

Setzen wir

\displaystyle  	\widetilde{T}(x) = \lim_{n} T(x_{n}),

so ist {\widetilde{T}} eine wohldefinierte beschränkte lineare Abbildung von {X \rightarrow Y} mit {\widetilde{T}(x) = T(x)} für alle {x \in X} und {\| T \| = \| \widetilde{T} \|.} \Box

2. Der Funktionenraum {\mathcal{R}({\left[0,2\pi\right],\mathrm{d}t})}

Mit {\mathcal{R} := \mathcal{R}({\left[0,2\pi\right],\mathrm{d}t})} bezeichnen wir die Menge aller komplexwertigen und Riemann-integrierbaren Funktionen auf dem Intervall {\left[0,2\pi\right]} (oder äquivalent: Alle komplexwertigen, Riemann-integrierbar Funktionen auf dem Einheitskreis {\mathbb{T} = \{ \lambda \in {\mathbb C} \colon | \lambda | = 1 \}}). Für die Definition der Riemann-integrierbaren Funktionen siehe W. Rudin, [7], Kapitel 6. Bei dieser Gelegenheit sollte man sich mit dem Begriff des Riemann-Stieltjes-Integral vertraut machen, da wir diesen Integralbegriff im weiteren Verlauf der Vorlesung benötigen werden.

Auf {\mathcal{R}} definieren wir die Addition punktweise

\displaystyle  (f + g)(t) = f(t) + g(t) \quad t \in \left[0,2\pi\right]),

ebenso die skalare Multiplikation

\displaystyle  	(\lambda f)(t) = \lambda \cdot f(t) \quad (\lambda \in {\mathbb C}, \; t \in \left[0,2\pi\right]).

Wir definieren ein „Skalarprodukt“ durch

\displaystyle  	( f | g ) := \frac{1}{2 \pi}\int_{0}^{2 \pi} f(t)\overline{g(t)} \mathrm{d}t. \ \ \ \ \ (14)

Die „Norm“ von {f} ist dann

\displaystyle  	\| f \|_{2} = \sqrt{\Bigg( \frac{1}{2 \pi}\int_{0}^{2 \pi} | f(t) |^{2} \mathrm{d}t \Bigg)} \;.

Im Gegensatz zu den Fällen {{\mathbb C}^{n}} oder {\ell^{2}} sind wir aber mit drei Problemen konfrontiert:

  1. Aus {\| f \|_{2} = 0} können wir nicht auf {f(t) = 0} für alle {t \in \left[0,2\pi\right]} schließen.

  2. Um die Dreicksungleichung nachzuweisen (und damit auch zu zeigen, dass {\mathcal{R}} ein Vektorraum ist), genügt es wiederum zu zeigen, dass (45) die Cauchy-Schwarz Ungleichung { |(f | g )| \leq \| f \| \| g \|} erfüllt. Aber die von uns genutzte Beweismethode für {\ell^{2}} funktioniert hier nicht.
  3. Der normierte Vektorraum {\mathcal{R}} ist nicht vollständig ist. Um dieses zu zeigen, betrachten wir die Funktion

    \displaystyle  	f(t) = 	\begin{cases} 		0					& t = 0 ;				\\ 		\log(\frac{1}{t})	& 0 < t \leq 2 \pi. 	\end{cases} \ \ \ \ \ (15)

    Diese Funktion ist nicht beschränkt und kann daher nicht zu {\mathcal{R}} gehören. Wir definieren nun die Folge {f_{n}} der „abgeschnittenen“ Funktionen

    \displaystyle  	f_{n}(t) = 	\begin{cases} 		0				& 0 \leq t \leq 1/n ;				\\ 		f(t)		& 1/n < t \leq 2 \pi. 	\end{cases} \ \ \ \ \ (16)

    Dann ist dies eine Cauchyfolge in {\mathcal{R}}. Diese Folge kann aber nicht gegen ein Element aus {\mathcal{R}} konvergieren, da der Grenzwert, wenn er existieren würde, gleich der Funktion {f} sein müsste.

    Aufgabe 3. Man führe dies im Detail aus.

    Hinweis: Da die Ableitung der Funktion {t (\log t)^{2} - 2t \log t + 2t} gerade die Funktion {(\log t)^{2}} ist, folgt {\int_{a}^{b}(\log t)^{2} \rightarrow 0} für {0 < a < b} und {b \rightarrow 0.}

Betrachtet man aber in {\mathcal{R}} die Funktionenfolge {e_{k}(t) = e^{ikt}, \; k \in {\mathbb N}}, so sieht man, dass diese analoge Eigenschaften wie die Folge {e_{n}} aus (8) in {\ell^{2}} hat.

Die Frage ist, ob wir eine allgemeine Theorie für normierte Vektorräume entwickeln können, deren Norm von einem Skalarprodukt „induziert“ wird. Einen solche speziellen normierten Vektorraum nennt man Hilbertraum, wenn er gleichzeitig ein Banachraum mit dieser Norm ist und sonst einen Prähilbertraum. Von diesen speziellen normierten Vektorräumen gibt es viele unterschiedliche (auch wenn wir dieses hier nicht im Detail beweisen werden

  • die bereits besprochenen Banachräume {{\mathbb R}^{n}, {\mathbb C}^{n}, \ell^{2}, \ell^{2}({\mathbb Z})},
  • der normierte Vektorraum {\mathcal{R}({\left[0,2\pi\right],\mathrm{d}t})},
  • den Banachraum {A^{2}(\Omega)}, {\Omega} eine offene Teilmenge von {{\mathbb C}}, der komplexen, holomorphen Funktionen auf {\Omega}, die dort absolut quadratisch integrierbar bezüglich des Lebesgueschen Maßes auf {\Omega} sind, versehen mit dem Skalarprodukt {(f|g) = \int f(t)\overline{g(t)}\mathrm{d}s} . Dann ist {A^{2}(\Omega)} ein Hilbertraum (etwas schwierig nachzuweisen, da man eine Reihe von grundlegenden Sätzen der Funktionen- und Maßtheorie anwenden muss),
  • den Hilbertraum {M_{n}(\mathbb{C})} der {n\times n} Matrizen versehen mit dem Sklaraprodukt {(A|B):= \text{Spur}(B^{\ast}A)}, wobei die Spur einen Matrix gerade die Summe deren Diagonalelemente ist,
  • der Banachraum {\mathcal{P}_{n}} der Polynome vom Grad {\leqslant n-1} in {C(\left[0,2 \pi\right])} versehen mit dem von {\mathcal{R}} induzierten Skalarprodukt,
  • der Banachraum {L^{2}({\mathbb R}^{d})} aller bezüglich des Lebesgues-Maßes absolut-quadra\-tisch integrierbaren auf {{\mathbb R}^{d}},
  • definieren wir für {\lambda \in {\mathbb R} \; f_{\lambda}(t) := e^{i \lambda t} \; (t \in {\mathbb R})} {\mathfrak{H} _{0} := \mathrm{lin} \{ f_{\lambda} \colon \lambda \in {\mathbb R} \}}, so ist für {g, h \in H_{0}} sei {( g | h ) := \lim_{T \rightarrow \infty} \frac{1}{2T} \int_{-T}^{T} g(t)\overline{h(t)}\mathrm{d}t} ein Skalarprodukt auf {\mathfrak{H} _{0}} mit {( f_{\lambda} | g_{\mu} ) = 0} für alle {\lambda \neq \mu} (Vektorraum der fast periodischen Funktionen). Im Gegensatz zu den vorherigen Beispielen besitzt der Prähilbertraum {\mathfrak{H} _{0}} keine abzählbare dichte Teilmenge.
  • {\ldots}

Es ist daher sicherlich sinnvoll, eine allgemeine Theorie für diese Klasse von normierten Vektorräumen zu entwickeln, um die Zusammenhänge besser zu verstehen.

3. Geometrie des Hilbertraums

3.1. Sesquilinearformen

Im Folgenden ist {\mathbf{K}} der Körper der reellen Zahlen {{\mathbb R}} oder der komplexen Zahlen {{\mathbb C}}.

Definition 7. Ist {\mathfrak{H}} ein Vektorraum über {\mathbb{K}}, so nennen wir eine Abbildung

\displaystyle  f: \mathfrak{H} \times \mathfrak{H} \rightarrow \mathbb{K}

sesquilinear, wenn für alle {x,y \in \mathfrak{H}, \; \lambda, \mu \in \mathbf{K}}

\displaystyle  \left. \begin{array}{rll} f(\lambda x_{1} + \mu x_{2},y) &= & \lambda f(x_{1},y) + \mu f(x_{2},y) \\ f(x,\lambda y_{1} + \mu y_{2}) &= & \overline{\lambda} f(x,y_{1}) + \overline{\mu} f(x,y_{2}) \end{array} \right\} \ \ \ \ \ (17)

gilt, d.h. {f} ist linear in der ersten Komponente und konjugiert linear in der zweiten. Die adjungierte Sesquilinearform {f^{*}} von {f} ist definiert als:

\displaystyle  f^{\star} (x,y) = \overline{f(y,x)} \quad (x, y \in H). \ \ \ \ \ (18)

Wir nennen {f} hermitesch oder selbstadjungiert, falls {f^{\star} = f}, d.h.

\displaystyle  f(x,y) = \overline{f(y,x)} \quad (x, y \in H). \ \ \ \ \ (19)

Weiter heißt {f} positiv, falls

\displaystyle  f(x,x) \geqslant 0 \ \ \ \ \ (20)

für alle {x \in \mathfrak{H} } gilt und positiv definit oder separierend, falls für {x \neq 0} stets {f(x,x) \neq 0} folgt.

Ist {K={\mathbb R}}, so nennt man {f} auch bilinear.

Anmerkung: — Ist {\mathfrak{H}} ein endlichdimensionaler Vektorraum, {f} eine sesquilineare Form auf {\mathfrak{H}} und {(e_{j})_{1\leqslant j \leqslant n}} eine Hamelbasis von {\mathfrak{H}}, so gilt für {x = \sum_{j}\alpha_{j}e_{j}} und {y=\sum_{k}\beta_{k}e_{k}}:

\displaystyle  f(x,y) = \sum_{jk}\alpha_{j}\overline{\beta_{k}}a_{jk}, \quad a_{jk}=f(e_{j},e_{k}) \quad (1 \leq j,k \leq n).

Jeder sesquilinearen Form {f} entspricht daher eine {n \times n-}Matrix {\textbf{A}=(a_{jk})} und umgekehrt. Eigenschaften von {f}, wie etwa selbstadjungiert oder positiv entsprechen den analogen Eigenschaften der Matrix {A}. \lozenge

Aufgabe 4. Man zeige, dass für {\mathbf{K} = {\mathbb C}} für alle {x , y \in \mathfrak{H} } die folgenden Eigenschaften gelten:

  1. Polarisationsgleichung:

    \displaystyle  \left. \begin{array}{rll} 4\,f(x,y) &= f(x+y,x+y) - f(x-y,x-y) \\ 			 &+ if(x+iy,x+iy) -if(x-iy,x-iy) & \end{array} \right\} \ \ \ \ \ (21)

  2. Ist {f} eine sesquilineare Form, so heißt {Q_{f}(x) := f(x,x)} die {f} zugeordnete quadratische Form. Dann lautet die Polarisationsgleichung:

    \displaystyle  \left. \begin{array}{rll} 4f(x,y) &= Q_{f}(x+y) - Q_{f}(x-y) \\ &+ iQ_{f}(x+iy) -iQ_{f}(x-iy) & \end{array} \right\} \ \ \ \ \ (22)

  3. Ist {f} hermitesch, dann ist {Q_{f}(x) \in \mathbb{R}} für alle {x \in \mathfrak{H} }.
  4. Ist {Q_{f}(x) \in \mathbb{R}} für alle {x\in \mathfrak{H} }, so muss {f} eine hermitesche Sesquilinearform sein. Zum Nachweis nutze man, dass für eine komplexe Zahl {\epsilon} mit {\epsilon\cdot\overline{\epsilon}=1} stets

    \displaystyle  \left. \begin{array}{rrll} y + \epsilon x &= \epsilon (x + \overline{\epsilon}y) \\ Q_{f}(\epsilon x) &= f(\epsilon x,\epsilon x) &= f(x,x) &= Q_{f}(x) \end{array} \right\} \ \ \ \ \ (23)

    ist.

    Man zeige, dass die Voraussetzung {\mathbf{K} = {\mathbb C}} dabei wesentlich ist, etwa mit Hilfe des Beispiels {\mathfrak{H} = {\mathbb R}^{2}} und die durch die Matrix

    \displaystyle  A = \left(\begin{array}{cc}0 & 1 \\ -1 & 0\end{array}\right)

    auf {\mathfrak{H}} erzeugte Sesquilinearform {f_{A}}.

3.2. Cauchy-Schwarz Ungleichung

Eine fundamentale Eigenschaft von positiven, hermiteschen Sesquilinearformen ist die Cauchy-Schwarz Ungleichung. In diesem Zusammenhang möchte ich auf den Interessanten Artikel Amplification, Arbitrage and the Tensor Power Trick von T. Tao hinweisen, in dem die Methodik des Beweises der Cauchy-Schwarz Ungleichung in tiefergehend diskutiert wird.

Theorem 8. Ist {f} eine positive hermitesche Sesquilinearform auf einem Vektorraum {\mathfrak{H}}, so gilt

\displaystyle  |f(x,y)|^{2} \leq f(x,x)f(y,y) \ \ \ \ \ (24)

für alle {x, y \in \mathfrak{H} }. Ist {f} separierend, so gilt genau dann in (24) Gleichheit, wenn {x} und {y} in {\mathfrak{H}} linear abhängig sind.

Beweis: Sei {f(y,y) \neq 0} und {\xi \in \mathbf{K}} beliebig. Nach Voraussetzung ist

\displaystyle  0 \leq f(x + \xi y, x + \xi y)

oder

\displaystyle  0 \leq f(x,x) + | \xi |^{2}f(y,y) + \xi \overline{f(x,y)} + \overline{\xi} f(x,y). \ \ \ \ \ (25)

Multipliziert man beide Seiten mit {f(y,y) > 0}, so ergibt sich:

\displaystyle  \begin{array}{lll} 	0 &\leq f(y,y)f(x,x) + | \xi |^{2}f(y,y)^{2} \\ 		& \qquad \qquad + \; \xi \; \overline{f(x,y)}f(y,y) + \overline{\xi} \; f(x,y)f(y,y) \\ 	 &= f(y,y)f(x,x) - |f(x,y)|^{2} \\ 	 	& \qquad \qquad + \; (\overline{\xi} f(y,y) + \overline{f(x,y)})(\xi f(y,y) + f(x,y)) \end{array}

oder

\displaystyle  	|f(x,y)|^{2} \leq f(y,y)f(x,x) + | \xi f(y,y) + f(x,y) |^{2}. \ \ \ \ \ (26)

Setzt man {\xi = - \; \dfrac{f(x,y)}{f(y,y)}} in die Gleichung (26) ein, so folgt

\displaystyle  	 |f(x,y)|^{2} \leq f(y,y)f(x,x).

Ist {f(x,x) \neq 0}, so kann man entsprechend argumentieren.

Ist {f(x,x) = f(y,y) = 0}, so folgt aus Gleichung (25), dass gilt

\displaystyle  	0 \leq \xi \overline{f(x,y)} + \overline{\xi} f(x,y)

oder mit {\xi = -f(x,y)}, dass {-2 |f(x,y)|^{2} \geq 0} ist, was {f(x,y) = 0} impliziert.

Ist nun {f} separierend und gilt Gleichheit in (24), so setze

\displaystyle  \xi_{0} = - \frac{f(x,y)}{f(y,y)}.

Dieses {\xi_{0}} eingesetzt gibt

\displaystyle  	f(x + \xi_{0}y, x + \xi_{0}y) = 0

und damit { x = - \xi_{0}y}. \Box

Wichtige Folgerungen sind:

Korollar 9. Ist {f} eine positive hermitesche Form, so gilt

\displaystyle  \mathcal{N}_{f} := \{x \in \mathfrak{H} \colon f(x,x) = 0 \} = \{x \in \mathfrak{H} \colon f(x,y)=0 \quad \forall y \in H\}.

Außerdem ist eine positive hermitsche Form genau dann separierend, wenn {0 \neq x} stets {f(x,x) \neq 0} impliziert.

Korollar 10. Sei f eine positive hermitesche Form auf {\mathfrak{H}} und es sei

\displaystyle  p(x) = f(x,x)^{\frac{1}{2}} \ \ \ \ \ (27)

für alle {x \in \mathfrak{H} }. Dann ist {p} eine Halbnorm auf {\mathfrak{H}}, und genau dann eine Norm, wenn {f} separierend ist.

Beweis: Für den Beweis von (27) genügt es, die Ungleichung

\displaystyle  p(x+y) \leqslant p(x) + p(y)

zu zeigen. Dazu rechnen wir für {x, y \in \mathfrak{H} } nach:

\displaystyle  	\begin{array}{ll} 		p(x+y)^{2} &= f(x+y,x+y) \\ 			& = f(x,x)+f(y,y) + f(x,y) + f(y,x) \\ 		 &= f(x,x)+f(y,y) + 2\Re f(x,y)		 \\ 		 	 		 &\leq f(x,x)+f(y,y) + 2|f(x,y)|\\ 		 &\leq (f(x,x)^{1/2} + f(y,y)^{1/2})^{2} \\ 		 &= (p(x) +p(y))^{2}, 	\end{array}

woraus die Behauptung folgt. \Box

Aufgabe 5. Sei {f} eine positive Sesquilinearform auf dem Vektorraum {\mathfrak{H}} und

\displaystyle  N_{f} = \{ x \in \mathfrak{H} \colon f(x,x) = 0 \} .

Dann ist {\mathcal{N}_{f}} ein Vektorunterteilraum von {\mathfrak{H}} und man kann {f} zu einer (wohldefinierten) positiv definiten Sesquilinearform {\widetilde{f}} auf den Quotientenvektorraum {\widetilde{H} = {H}/{N_{f}}} fortsetzen.

Definition 11. (Prähilbertraum und Hilbertraum)

Wir nennen einen Vektorraum {\mathfrak{H}} versehen mit einer hermiteschen, positiven und separierenden (kurz positv definiten) Sesquilinearform {f} einen Prähilbertraum und schreiben

\displaystyle  ( x | y)_{f} := f(x,y)

für {x,y \in \mathfrak{H} }. Wir nennen {(x|y)_{f}} das Skalarprodukt von {x} und {y} bezüglich der Sesqulinearform {f} (in Kurzform {( x | y )}). Mit

\displaystyle  \|x \| := f(x,y)^{\frac{1}{2}}=p(x)

bezeichnen wir die zugehörige Norm.

Ist der normierte Vektorraum {\mathfrak{H}} ein Banachraum, so nennen wir {\mathfrak{H}} einen Hilbertraum.

Anmerkung: Man beachte den Unterschied zwischen dem Skalarprodukt der Mathematiker und dem Skalarprodukt der Physiker. Bei letzteren ist das Skalarprodukt (meist) konjugiert-linear in der ersten Variablen. \lozenge

Aufgabe 6. (Sieben wichtige Gleichungen) Man beweise die folgenden fundamentalen Gleichungen und Eigenschaften der Norm eines Prähilbertraums {\mathfrak{H}} für alle {x, y, z \in \mathfrak{H} }.

  1. Cauchy-Schwarz Ungleichung:

    \displaystyle  |(x|y)| \leqslant \| x \|\| y \| 	 \ \ \ \ \ (28)

  2. Satz des Pythagoras: Für {( x | y ) = 0} gilt

    \displaystyle  \| x + y\|^{2} = \| x \|^{2} + \| y \|^{2} \ \ \ \ \ (29)

    Vektoren mit dieser Eigenschaft nennen wir orthogonal zueinander und schreiben hierfür {x \bot y}.

  3. Dreiecksungleichung der Norm:

    \displaystyle  \| x + y \| \leqslant \| x \| + \| y \| 	 \ \ \ \ \ (30)

  4. Parallelogrammgleichung:

    \displaystyle   \| x + y \|^{2} + \| x - y \|^{2} = 2 (\| x \|^{2} + \| y \|^{2}) \ \ \ \ \ (31)

  5. Gleichheit der Mediane:

    \displaystyle  \bigg\| \frac{1}{2}(x + y)\bigg\|^{2} + \bigg\| \frac{1}{2}(x - y)\bigg\|^{2} = 			\frac{1}{2}(\|x\|^{2} + \|y\|^{2}) \ \ \ \ \ (32)

  6. Polarisationsidentität:

    \displaystyle 	 (x|y) = \frac{1}{4}(\| x + y \|^{2} - \| x - y \|^{2} +i \| x + iy \|^{2} 		- i\| x - iy \|^{2}) 	 \ \ \ \ \ (33)

  7. Satz des Apollonius:

    \displaystyle  \| z - x \|^{2} + \| z - y \|^{2} = \frac{1}{2}\| x - y \|^{2} 		+ 2 \; \Bigg \| z - \frac{x + y}{2} \Bigg \|^{2} \ \ \ \ \ (34)

Was hat die Gleichung (34) mit dem Kreis des Apollonius zu tun?

Anmerkung: — Ist {X} ein normierter Vektorraum, für dessen Norm die Parallelogrammgleichung (31) gilt, so ist {X} bereits ein (Prä-)Hilbertraum, wobei das Skalarprodukt durch (33) gegeben ist, d.h. {X} ist isometrisch Isomorph zu einem Hilbertraum (siehe P. Jordan, J. von Neumann : On inner products in linear metric spaces Ann. of Math. (2) 36, 719 – 723 (1935)).

Weitere Charakterisierungen mit den entsprechenden Literaturzitaten findet man in [7] , VII, §3. \lozenge

3.3. Eigenschaften konvexer Mengen eines Hilbertraums

Eine Teilmenge {K} eines Vektorraums heißt konvex, wenn für {x, y \in K} und {0 \leqslant \lambda \leqslant 1} stets {\lambda x + (1 - \lambda) y \in K} ist.

Für das folgende Lemma nutzen wir die Identität der Mediane (siehe Gleichung (32)).

Lemma 12. Sei {d} eine reele Zahl {> 0}, {\delta} eine reelle Zahl mit {0 \leqslant \delta \leqslant d},

\displaystyle B = \{ x \in \mathfrak{H} \colon \| x \| < d \}

und

\displaystyle B' = \{ x \in \mathfrak{H} \colon \| x \| \leq d + \delta \}.

Ist {A} eine konvexe Menge in {B' \setminus B}, so gilt

\displaystyle  \| x - y \| \leq \sqrt{12d\delta} \ \ \ \ \ (35)

für jedes Paar {x, y \in A}.

Beweis: Ist {A \subseteq B' \setminus B} und {x,y \in A} so folgt aus der Identität der Mediane:

\displaystyle  \begin{array}{ll} 	\bigg\| \frac{1}{2}(x - y)\bigg\|^{2} &= 	\frac{1}{2}(\|x\|^{2} + \|y\|^{2}) 			- \bigg\| \overbrace{\frac{1}{2}(x + y)}^{\in A}\bigg\|^{2}\\ 				& \leq (d + \delta)^{2} - d^{2} = 2d\delta + \delta^{2} \leq 3d^{2} \end{array}

und damit {\| (x - y) \| \leq \sqrt{12d\delta}.} \Box

Das folgende Theorem ist ein Schlüssel zur gesamten Theorie der Hilberträume und der linearen Operatoren auf diesen.

Theorem 13. (Existenz von Proxima) Sei {\mathfrak{H}} ein Prähilbertraum und {K} eine konvexe und vollständige Teilmenge von {\mathfrak{H}}. Dann existiert zu jedem {x \in \mathfrak{H} } ein eindeutiges Element {p_{K}(x) \in K} mit

  1. { \|x-p_{K}(x) \| = \inf \{ \|x - y \| \colon y\in K \}}.
  2. {p_{K}(x)} ist das eindeutig bestimmte Element {a \in K} mit

    \displaystyle  \Re (x - a|y - a) \leq 0 \quad \forall y \in K.

Beweis: Wir beweisen zunächst die Existenz und die Eindeutigkeit eines Elements {p_{K}(x)} für jedes {x \in \mathfrak{H} }. Dazu setzen wir { d = \inf \{ \|x - y \| \colon y\in K \}} und wählen {n_{0 }\in {\mathbb N}} beliebig aber groß genug, so dass {n_{0}^{-1} \leq d} gilt. Setzen wir

\displaystyle  	K_{n} := \{ y \in K \colon \| x - y \| \leq (d + \dfrac{1}{n}) \}, \quad n \geq n_{0}.

Dann ist jedes {K_{n}} konvex, vollständig und {\neq \emptyset}. Für {y_{1}, y_{2} \in K_{n}, \; n \geqslant n_{0}} gilt nach Lemma~(12):

\displaystyle  \| y_{1} - y_{2} \| \leq \sqrt{ \frac{12d}{n}}, \quad \text{also} \quad	 		K_{n} \supseteq K_{n+1} \supseteq \ldots .

Wegen der Vollständigkeit von {K} und wegen der Hausdorffeigenschaft der Norm folgt hieraus die Existenz und die Eindeutigkeit eines Elements

\displaystyle  	p_{K}(x) \in \bigcap_{n=n_{0}}^{\infty} K_{n}.

Sei nun {y \in K, \; 0 < \lambda < 1 \; \text{ und } \; z(\lambda) := p_{K}(x) + \lambda (y - p_{K}(x)).} Da {K} konvex ist, ist {z(\lambda) \in K}. Dann gilt aber

\displaystyle  \begin{array}{ll} 	0 \leq \| x - p_{K}(x) \|^{2} &\leq \| x - z(\lambda) \|^{2} = \| x - p_{K}(x) - \lambda ( y - p_{K}(x) ) \|^{2} \\ 		&= \| x - p_{K}(x)\|^{2} + \lambda^{2}\| ( y - p_{K}(x) ) \|^{2} \\ 		& \qquad \qquad - 2 \lambda \Re (x - p_{K}(x) | y - p_{K}(x)), \end{array}

also für alle {0 < \lambda < 1}:

\displaystyle  	2 \Re (x - p_{K}(x) | y - p_{K}(x)) \leq \lambda\| ( y - p_{K}(x) ) \|^{2},

oder

\displaystyle  	\Re (x - p_{K}(x) | y - p_{K}(x)) \leq 0 .

\Box

Ist umgekehrt {a \in K} mit {\Re (x - a | y - a) \leq 0} für alle {y \in K}, so folgt hieraus

\displaystyle  \begin{array}{ll} 	\| x - y \|^{2} &= \| x - a - y + a \|^{2} \\ 	&= \| x - a \|^{2} + \| y - a \|^{2} - 2 \Re (x - a | y - a ) \\ 	&\geq\| x - a \|^{2} \end{array}

für alle {y \in K} oder {a = p_{K}(x)} wegen der Eindeutigkeit von {p_{K}(x)}. Anmerkung: Das Theorem (13) lässt sich folgendermaßen geometrisch interpretieren: Wir betrachten das Skalarprodukt auf dem Hilbertraum {\mathfrak{H} = {\mathbb R}^{2}}. Sind {x = ( \alpha , \beta )} und { y = ( \gamma, \delta )} Vektoren in {\mathfrak{H}}, beide mit Norm {=1}, und ist {\phi} bzw. {\psi} der Winkel, den die beiden Vektoren mit der {x-}Achse einschließen, so ist

\displaystyle  	( x | y ) = \alpha \gamma + \beta \delta = \cos(\phi)\cos(\psi) + \sin(\phi)\sin(\psi) = \cos(\psi - \phi) \ \ \ \ \ (36)

d.h. das Skalarprodukt zweier Vektoren ist gerade der Cosinus des von diesen Vektoren eingeschlossen Winkel. Daher besagt die Eigenschaft (2) des Theorems (13), dass die Vektoren {x - a} und {y - a} einen stumpfen Winkel bilden. \lozenge

Korollar 14. Für alle {x}, {y} in {\mathfrak{H}} ist {\|p_{K}(x) - p_{K}(y) \| \leqslant \|x - y \|}, d.h. die Abbildung {p_{K}: \mathfrak{H} \rightarrow K} ist Lipschitzstetig.

Beweis: Wir setzen {a := x - p_{K}(x), b = p_{K}(x) - p_{K}(y)} und {c = p_{K}(y) - y}. Dann gilt nach Theorem (13)

\displaystyle  \begin{array}{rl} 	\Re (a | b) = \Re (x - p_{K}(x) | p_{K}(x) - p_{K}(y)) & \geqslant 0 , \\ 	\Re (c | b) = \Re (p_{K}(y) - y | p_{K}(x) - p_{K}(y)) & \geqslant 0 , \\ 	a + b + c &= x - y , \end{array}

also

\displaystyle  \begin{array}{ll} 	\| x - y \|^{2} & = \| a + b + c \|^{2} = \| b + (a + c) \|^{2}		\\ 		& = \| b \|^{2} + \| (a + c) \|^{2} + 2 \Re (a|b) + 2 \Re (c|b) \\ 		& \geq \| b \|^{2} =	\|p_{K}(x) - p_{K}(y) \|^{2}.		 \end{array}

\Box

Korollar 15. In {K} existiert ein Element {x_{0}} minimaler Norm.

Beweis: Nehme {x = 0}. \Box

Aufgabe 7.

  1. Mittels geeigneter Beispiele zeige man, dass man auf die einzelnen Voraussetzungen in Theorem (13) nicht verzichten kann.
  2. Im allgemeinen existiert in einer beschränkten, abgeschlossenen und konvexen Menge eines Hilbertraums keine Elemente maximaler Norm. Für ein Gegenbeispiel sei {(e_{k})_{k\in\mathbb{N}}} die kanonische orthonormale Basis des Hilbertraums {\ell^{2}} und

    \displaystyle  			K:= \big\{x \in \ell^{2} \;|\; \sum_{1}^{\infty}\,(1 + \frac{1}{n})^{2}|(x|e_{n})|^{2} \leq 1\big\}.

    Dann ist {K} eine beschränkte, abgeschlossene und konvexe Menge in {\ell^{2}}, aber es gibt keinen Vektor mit maximaler Norm in {K}. (Hinweis: Man betrachte den linearen Operator

    \displaystyle  			Tx = \sum_{n=1}^{\infty} \, \Bigg(1 + \frac{1}{n}\Bigg)(x | e_{n})e_{n}

    auf {\ell^{2}}).

4. Teilräume und orthogonale Projektionen

Definition 16. Seien {x, y} Elemente eine Prähilbertraums {\mathfrak{H}}. Wir nennen {x} orthogonal zu {y} und schreiben hierfür {x \perp y}, wenn {( x | y ) = 0} ist. Ist {x \perp y}, so ist auch {y \perp x} und {x \perp x} gilt genau dann, wenn {x = 0}.

Ist {M} eine Teilmenge von {\mathfrak{H}}, so bezeichnet {M^{\perp}} die Menge aller Elemente von {\mathfrak{H}}, die zu allen Elementen von {M} orthogonal sind. Wir nennen {M^{\perp}} das orthogonale Komplement von M. Stets gilt {M \subseteq (M^{\perp})^{\perp} =: M^{\perp \perp}}.

Sind {M , N} eine Teilmengen von {\mathfrak{H}}, so nennen wir {M} orthogonal zu {N} (kurz {M \perp N}), wenn {x \perp y} für alle {x \in M} und {y \in N}.

Aus der Definition ergeben sich einige unmittelbare Folgerungen.

  • {M \perp N \iff M \subseteq N^{\perp}} ( bzw. {N \subseteq M^{\perp}}).
  • Aus {M \subseteq N} folgt {N^{\perp} \subseteq M^{\perp}.}
  • {M^{\perp}} ist ein abgeschlossener Teilraum von {\mathfrak{H}} mit {M \cap M^{\perp} = \{ 0 \}.} (Der erste Teil der Behauptung ergibt sich unmittelbar aus der Linearität und der Stetigkeit des Skalarprodukts. Die restliche Behauptung wegen {( x | x ) = 0 \iff x = 0.})
  • Bezeichnet {[ M ]} den von {M} in {\mathfrak{H}} erzeugten abgeschlossenen Teilraum, so ist {[ M ] \subseteq M^{\perp \perp}}. ({M^{\perp \perp}} ist ein abgeschlossener Teilraum von {\mathfrak{H}} mit {M \subseteq M^{\perp \perp}}.)
  • Es ist {( [ M ] )^{\perp} = M^{\perp}}. (Wegen {M \subseteq [ M ]} gilt {( [ M ] )^{\perp} \subseteq M^{\perp}}. Sei {x \in M^{\perp}}, d.h. {\{ x \} \subseteq M^{\perp}}. Dann ist

    \displaystyle  		M \subseteq [ M ] \subseteq M^{\perp \perp} \subseteq \{ x \}^{\perp},

    d.h. {\{ x \} \subseteq \{ x \}^{\perp \perp} \subseteq [ M ]^{\perp}} und somit

    \displaystyle  		M^{\perp} = \bigcup_{x \in M^{\perp}} \{ x \} \subseteq [ M ]^{\perp}.)

Für das Weitere ist ein Verständnis der Begriffe direkte Summe von Vektorräumen bzw. Projektionen erforderlich. Die wesentlichen Grundbegriffe hierzu sind im Anhang 3 zusammengestellt.

Theorem 17. (Projektionstheorem) Es sei {\mathfrak{H}} ein Prähilbertraum und {M} ein vollständiger Teilraum von {\mathfrak{H}}. Dann ist das orthogonale Komplement {M^{\perp}} von {M} ein abgeschlossener Teilraum von {\mathfrak{H}}. Jeder Vektor {x \in \mathfrak{H} } kann eindeutig zerlegt werden in

\displaystyle  	x = x_{0} + x^{\perp}

mit {x_{0} \in M} und {x^{\perp} \in M^{\perp}.} Das Element {x_{0} \in M} ist das eindeutig bestimmte Element {p_{M}(x) \in M} aus Theorem (13).

Die Abbildung

\displaystyle  P_{M} := (x \mapsto x_{0} = p_{M}(x)) \colon \mathfrak{H} \rightarrow M

ist linear, stetig und erfüllt {P_{M}^{2} = P_{M}}.

Wir nennen {P_{M}} die orthogonale Projektion von {\mathfrak{H}} auf {M} (längs {M^{\perp}}) und es gilt

\displaystyle  	x = P_{M}x + P_{M^{\perp}}x \quad \text{d.h.} \quad I = P_{M} + P_{M^{\perp}}.

und wir schreiben {\mathfrak{H} = M \oplus M^{\perp}}.

Beweis: Wir benutzen die Bezeichnungen und Ergebnisse des Theorem (13). Es sei {x \in \mathfrak{H} } beliebig, {\lambda \in \mathbf{K}} und {y \in M}. Dann ist {p_{M}(x) + \lambda y \in M} und

\displaystyle  	\Re ( x - p_{M}(x) | (p_{M}(x) + \lambda y ) - p_{M}(x) ) = \Re ( x - p_{M}(x) | \lambda y ) \leq 0

Setzt man {\lambda = ( x - p_{M}(x) | y )}, so folgt

\displaystyle  	\Re | ( x - p_{M}(x) | y )|^{2} = | ( x - p_{M}(x) | y )|^{2} \leq 0 \quad (y \in M).

Somit ist

\displaystyle  	 | ( x - p_{M}(x) | y )|^{2} = 0 \quad (y \in M) \quad \text{d.h.} \quad ( x - p_{M}(x) ) \in M^{\perp}.

Da {M \cap M^{\perp} = \{0\}} gilt, ist die Zerlegung

\displaystyle  	x = (\underbrace{ x - p_{M}(x)}_{:= x^{\perp}} ) + \underbrace{p_{M}(x)}_{:= x_{0}}

eindeutig und die Abbildung

\displaystyle  	P_{M}(x): ( x \mapsto x_{0}): \; \mathfrak{H} \rightarrow M

linear und nach Korollar (14) stetig. Die restlichen Aussagen folgen aus der allgemeinen Theorie von Projektionen und direkten Summen (siehe Anhang 3) \Box

Korollar 18. Ist {M} ein abgeschlossener Teilraum eines Hilbertraums {\mathfrak{H}} und {N \subseteq \mathfrak{H}}, so gilt

\displaystyle  	M = M^{\perp \perp} \quad \text{und} \quad 	N^{\perp \perp} = [ N ].

Beweis: Wir haben bereits {N^{\perp} = [ N ]^{\perp}} gezeigt, d.h. es gilt stets {N^{\perp \perp} = [ N ]^{\perp \perp}}. Daher folgt die zweite Behauptung aus der ersten.

Stets gilt {M \subseteq M^{\perp \perp}} Sei umgekehrt {x \in M^{\perp \perp}}. Dann ist {x = x_{0} + x^{\perp}} mit {x_{0} \in M} und {x^{\perp} \in M^{\perp}}. Wegen {M \subseteq M^{\perp \perp}} ist {x_{0} \in M^{\perp \perp}}, d.h. {x^{\perp} = x_{0} - x \in M^{\perp \perp}}. Wegen {M^{\perp \perp} \cap M^{\perp} = \{ 0 \}} folgt hieraus {x_{0} = x \in M}. \Box

Aufgabe 8. In einem Hilbertraum {\mathfrak{H}} gilt:

  1. Ein Teilraum {M} ist genau dann dicht in {\mathfrak{H}} (d.h. {M^{=} = \mathfrak{H}}), wenn {M^{\perp} = \{0\}}.
  2. Sind {M} und {N} abgeschlossene, zueinander orthogonale Teilräume von {\mathfrak{H}}, so ist {M + N} abgeschlossen.
  3. Im Allgemeinen ist die Summe von zwei abgeschlossenen, linearen Teilräumen eines Hilbertraums nicht abgeschlossen. Man nutze das Beispiel aus [7], §15.
  4. Sind {M, N} abgeschlossene Teilräume eines Hilbertraums und ist

    \displaystyle  M \subseteq N, \quad M \neq N,

    so gibt es einen Vektor {0 \neq z \in N} mit { z \perp M}.

  5. Sind {M} und {N} abgeschlossene Teilräume von {\mathfrak{H}}, so gilt

    \displaystyle  (M+N)^{\perp} = M^{\perp} \cap N^{\perp}, \qquad (M \cap N)^{\perp} = \overline{M^{\perp} + N^{\perp}}.

Zum Abschluss dieses Abschnittes wollen wir noch die Eigenschaften der orthogonalen Projektion {P_{M}} aus Theorem (17) zusammenfassen und eine Charakterisierung dieser unter allen Projektionen angeben.

  • Ist {P} orthogonale Projektion des Hilbertraums {\mathfrak{H}} auf {M}, so gilt {P_{M^{\perp}} = ( I - P_{M} )}, {P_{M} = ( I - P_{M^{\perp}} )}, {M = \{ x \in \mathfrak{H} \colon P_{M}(x) = x \}} und {M^{\perp} = \{ x \in \mathfrak{H} \colon P_{M}(x) = 0 \}.}

    (Dies folgt unmittelbar aus dem Theorem (17) und den allgemeinen Eigenschaften von Projektionen (siehe Anhang 3).)

  • Ist {P} orthogonale Projektion des Hilbertraums {\mathfrak{H}} auf {M}, so gilt {\| P_{M}\| \leq 1} und {\| P_{M}\| = 1} falls {M \neq \{ 0 \}}. (Für {x \in \mathfrak{H}, \; x = x_{0} + x^{\perp}} und {P = P_{M}} ist dann

    \displaystyle  			\| Px \|^{2} = \| Px_{0} + P(x^{\perp}) \|^{2} = \| x_{0} \|^{2} 					\leq \| x_{0} \|^{2} + \| x^{\perp} \|^{2} = \| x \|^{2} \; ,

    also {\| P \| \leq 1}. Ist {M \neq \{ 0 \}}, so ist wegen {\| Px \| = \| x \|} für alle {x \in M \colon \| P \| = 1 }.)

  • Ist {P} orthogonale Projektion des Hilbertraums {\mathfrak{H}}, so gilt für alle {x, y \in \mathfrak{H}} {( P x | y ) = ( x | Py )} und {( P x | x ) \geq 0}. (Sind {x , y \in \mathfrak{H}} mit orthogonalen Zerlegungen {x = x_{0} + x^{\perp} \;, 	y = y_{0} + y^{\perp}}, so folgt

    \displaystyle  		\begin{array}{ll} 			( P x | y ) &= (P x_{0} | y_{0} + y^{\perp} ) = ( x_{0} | y_{0} ) = ( x_{0} | P y_{0} )\\ 			& = ( x_{0} + x^{\perp} | P y_{0} ) = ( x | P ( y_{0} + y^{\perp} ) ) \\ 			& = ( x | P y ) . 		\end{array}

    {( P x | x ) = ( x_{0} | x_{0} + x^{\perp} ) = \| x_{0} \|^{2} \geq 0} für alle {x \in \mathfrak{H}}.)

  • Ist {P} orthogonale Projektion des Hilbertraums {\mathfrak{H}} auf {M}, so gilt

    \displaystyle  			M = \{ x \in \mathfrak{H} \colon Px = x \} 				= \{ x \in \mathfrak{H} \colon \| Px \| = \| x \| \}.

    ({ \| x_{0} \| + \| x^{\perp} \|^{2} = \| x \|^{2} = \| Px \|^{2} = \| x_{0} \|^{2}}, also muss {\| x^{\perp} \| = 0} sein und somit {Px = x }.)

Umgekehrt gilt

Theorem 19. Sei {\mathfrak{H}} ein Hilbertraum und es sei {P} eine stetige lineare Abbildung auf {\mathfrak{H}} mit {P^{2} = P}. Jede der beiden folgenden Voraussetzung impliziert, dass {P} die orthogonale Projektion von {\mathfrak{H}} auf {M := P(H)} längs {M^{\perp}} ist:

  1. {( Px | y ) = ( x | Py )} für alle {x, y \in H}.
  2. {\| P \| \leq 1}.

Beweis: Da {P} Projektion ist, ist {P} bestimmt durch {M = P(H) = \{ x \in \mathfrak{H} \colon Px = x \}} und {N = \{ x \in \mathfrak{H} \colon Px = 0 \}}. Wegen der Stetigkeit von {P} sind {M} und {N} abgeschlossenen Teilräume von {\mathfrak{H}}. In beiden Fällen ist also zu zeigen, dass {N = M^{\perp}} gilt.

Ist {( P x | y ) = ( x | P y )} für alle {x , y \in \mathfrak{H}}, so ist

\displaystyle  \begin{array}{ll} 	N &= \{ x \in \mathfrak{H} \colon Px = 0 \} \\ 				& = \bigcap_{y \in \mathfrak{H}} \{ x \in \mathfrak{H} \colon ( Px | y ) = 0 \} \\ 				& = \bigcap_{y \in \mathfrak{H}} \{ x \in \mathfrak{H} \colon ( x | Py ) = 0 \} \\ 				& = \bigcap_{y \in \mathfrak{H}} \{ Py ) \}^{\perp} \\ 				& = P(H)^{\perp} = M^{\perp}. \end{array}

Sei nun {\| P \| \leq 1}. Da {P} eine Projektion ist, ist für {x \in \mathfrak{H}} stets {y := Px - x \in N}. Ist insbesondere {x \in N^{\perp}}, so ist mit der obigen Zerlegung {Px = y + x} mit {( x | y ) = 0}. Also {\| Px \|^{2} = \| x \|^{2} + \| y \|^{2} \leq \| x \|^{2}} (wegen {\| P \| \leq 1}), d.h. {y = 0} oder {Px = x} und damit {N^{\perp} \subseteq M}.

Sei umgekehrt {x \in M}, d.h. {Px = x }. Wir zerlegen {x = x_{0} + x^{\perp}} mit {x_{0} \in N} und {x^{\perp} \in N^{\perp}} (wegen {N^{\perp} \subseteq M} ist {x^{\perp} \in M}). Hieraus folgt

\displaystyle  	x_{0} + x^{\perp} = x = Px = Px_{0} + Px^{\perp} 		= 0 + x^{\perp} \quad \text{oder} \quad x = x^{\perp} \in N^{\perp}.

Damit ist {M \subseteq N^{\perp}} und das Theorem bewiesen. \Box

Anmerkung: Einfache Beispiele (etwa für den Hilbertraum {{\mathbb R}^{2}}) zeigen, dass man auf die Voraussetzungen in dem Theorem (19) nicht verzichten kann. \lozenge

Ist {\mathfrak{M}} die Menge aller abgeschlossenen Teilräume von {\mathfrak{H}}, so ist {\mathfrak{M}} bezüglich der Relation

\displaystyle  M \leq N \iff M \subseteq N, \quad M, N \in \mathfrak{M}

(partiell) geordnet. Für diese Ordnung gibt es ein kleinstes Element, den Teilraum {\{0\}} und ein größtes Element, nämlich den ganzen Hilbertraum {\mathfrak{H}}.

Definieren wir für {M, N \in \mathfrak{M}}

\displaystyle  \left. \begin{array}{ll} M \wedge N &:= M \cap N \\ M \vee N &:= \left[M + N\right] \end{array} \right\}, \ \ \ \ \ (37)

so ist { M \wedge N} der größte abgeschlossene Teilraum, der in {M} und {N} enthalten ist und {M \vee N} der kleinste abgeschlossene Teilraum von {\mathfrak{H}}, der {M} und {N} enthält. Mit dieser Ordnung und Definition wird die Familie der abgeschlossenen Teilräume zu einem Verband.

Anmerkung: In einem Vektorraum besitzt jeder Teilraum ein algebraisches Komplement, d.h. auch abgeschlossene Teilräume eines Banachraums. Im Allgemeinen ist aber die zugehörige algebraische Projektion nicht stetig. Ein klassisches Beispiel ist der abgeschlossenen Teilraum {c_{0}} der Nullfolgen im Banachraum {\ell^{\infty}} aller beschränkten Folgen.

Theorem (17) charakterisiert die Hilberträume in der Klasse der Banachräume (J. Lindenstrauss; L.Tzafriri: On the complemented subspace problem, Israel J. Math. 9, 263 – 269 (1972)), d.h. ein Banachraum ist (topologisch) isomorph zu einem Hilbertraum, wenn jeder abgeschlossene Teilraum einen (topologisch) komplementären Teilraum besitzt.

Gilt zusätzlich, dass die zugehörigen Projektionen stets die Norm {\leq 1} haben, dann ist der Banachraum isometrisch isomorph zu einem Hilbertraum.

Wie bereits angemerkt, besagt ein Ergebnis von P. Jordan und J. von Neumanne, dass ein Banachraum isometrisch isomorph zu einem Hilbertraum ist, wenn die Norm der Parallelogrammgleichung (31) genügt (siehe hierzu die Anmerkung ((3))). \lozenge

5. Die Besselsche Ungleichung, die Parsevalsche Gleichung und Hilbertraumbasen,

Im Beispiel {\ell^{2}} hatten wir gesehen, dass man in diesem Hilbertraum eine Art Basis hat (wenn auch nicht mit endlichen Summen, wie man dieses für Vektorräume gewohnt ist). Wir wollen in diesem Abschnitt dies auf beliebige Hilberträume verallgemeinern. Dazu benötigen wir einige Vorarbeit und insbesondere den Begriff der uneigentlichen Summierbarkeit, den wir im Anhang 1 zusammengestellt haben.

5.1. Die Besselsche Ungleichung und die Parsevalsche Gleichung

Definition 20. Wir nennen eine Familie {(e_{\alpha})_{\alpha\in A}} von Vektoren in einem Prähilbertraum orthogonal, wenn {e_{\alpha}} und {e_{\beta}} für alle {\alpha \neq \beta} orthogonal zueinander sind. Die Familie heißt orthonormal, wenn zusätzlich {\| e_{\alpha} \| =1} für alle {\alpha\in A} gilt.

Wir nennen die Familie {(e_{\alpha})_{\alpha\in A}} total, wenn die lineare Hülle der {e_{\alpha}} dicht in {\mathfrak{H}} ist, d.h. {\left[\{ e_{\alpha} \colon \alpha\in A \} \right] = \mathfrak{H} }.

Wir nennen einen Prähilbertraum {\mathfrak{H}} separabel, wenn es eine abzählbare Teilmenge {M} in {\mathfrak{H}} gibt, die in {\mathfrak{H}} dicht ist.

Anmerkung:

  • Ist {(e_{\alpha})_{\alpha\in A)}} eine orthonormale Familie, so sind die eindimensionalen Teilräume {M_{\alpha} := \mathbf{K}e_{\alpha}} paarweise orthogonal zueinander.
  • Ist {(e_{\alpha})_{\alpha\in A}} eine orthogonale Familie eines Hilbertraums {\mathfrak{H}}, so ist diese genau dann summierbar, wenn die Familie {( \| e_{\alpha} \|^{2} )_{\alpha \in A}} in {{\mathbb R}} summierbar ist. Für den Nachweis nutzt man das sogenannte Cauchykriterium aus Satz (38). Denn ist {F \subseteq A} endlich, so gilt wegen des verallgemeinerten Pythagoras

    \displaystyle  	\sum_{\alpha \in F} \| e_{\alpha} \|^{2} = \big \| \sum_{\alpha \in F} e_{\alpha} \big \|^{2} \;,

    woraus die Behauptung folgt.

\lozenge

Vorab eine einfache, aber wichtige Beobachtung.

Satz 21. Es sei {(e_{\alpha})_{\alpha\in A)}} eine orthonormale Familie in einem Prähilbertraum {\mathfrak{H}}. Dann gilt folgendes.

  • Die Familie der {(e_{\alpha})_{\alpha\in A}} ist linear unabhängig.
  • Stets gilt für {\alpha \neq \beta \colon \| e_{\alpha} - e_{\beta} \| = \sqrt{2}.}
  • Ist {x\in \mathrm{lin}\{(e_{\alpha}) | {\alpha\in A}\}}, so gilt (man beachte, dass nur endlich viele Terme ungleich Null sind):

    \displaystyle  	\left. 	\begin{array}{lll} 	 x &= \sum_{\alpha}(x|e_{\alpha})e_{\alpha},\\ 	 \|{x}\|^{2} &= \sum_{\alpha}|(x|e_{\alpha})|^{2}. 	\end{array} 	\right\} 	\ \ \ \ \ (38)

Um den endlichen Fall (Satz 21) verallgemeinern zu können, benötigen wir nun den Begriff der unbedingten Summierbarkeit. Hierzu haben wir die wesentlichen Begriffe und Zusammenhänge im Anhang zusammengestellt. (Informationen zu den beteiligten Personen finden sich hier zu F. Bessel und zu M.-A. Parseval. Letzteren bitte nicht mit diesem verwechseln.)

Theorem 22. (Ungleichung von Bessel) Es sei {\mathfrak{H}} ein Hilbertraum, {(e_{\alpha})_{\alpha\in A}} eine orthonormale Familie in {\mathfrak{H}} und {V = \left[ \{ e_{\alpha} \; \colon \; \alpha\in A \} \right]} der von den {e_{\alpha}} erzeugte abgeschlossene, lineare Teilraum von {\mathfrak{H}}. Mit {P_{V}} bezeichnen wir die orthogonale Projektion von {\mathfrak{H}} auf {V}.

  1. Für jedes {x\in \mathfrak{H} } gilt

    \displaystyle  		\sum_{\alpha \in A} |(x|e_{\alpha})|^{2} \leqslant \| x \|^{2} \qquad \text{(Ungleichung von \emph{Bessel}).} 	\ \ \ \ \ (39)

    Dabei ist die Menge der {\alpha \in A} mit {(x|e_{\alpha}) \neq 0} höchstens abzählbar ist.

  2. Für alle {x\in \mathfrak{H}} ist die Familie {\{(x|e_{\alpha})e_{\alpha}\}_{\alpha\in A}} summierbar und es gilt

    \displaystyle  		 		\begin{array}{cl} 			P_{V}(x) &= \sum_{\alpha \in A} (x|e_{\alpha}) e_{\alpha} \\ 			\|{P_{V}(x)}\|^{2} &= \sum_{\alpha \in A}|(x|e_{\alpha})|^{2} . 		\end{array} 		 	\ \ \ \ \ (40)

  3. Äquivalent sind:
    • a) {x\in V},
    • b) {\| x \|^{2} = \sum_{\alpha \in A}|(x|e_{\alpha})|^{2}},
    • c) Die Familie {\{(x|e_{\alpha})e_{\alpha}\}_{\alpha \in A}} ist summierbar in {V}
      und {x = \sum_{\alpha \in A}(x|e_{\alpha})e_{\alpha}}.
  4. Ist {(\lambda_{\alpha})_{\alpha\in A}} in {\mathbf{K}} mit {\sum_{\alpha}|\lambda_{\alpha}|^{2} < \infty}, so existiert ein eindeutiger Vektor {x\in V} mit {(x|e_{\alpha}) = \lambda_{\alpha}} für alle {\alpha\in A}. Ist {(\mu_{\alpha})_{\alpha\in A}} in {\mathbf{K}} mit {\sum_{\alpha}|\mu_{\alpha}|^{2} < \infty} und {y\in V} mit {(y|e_{\alpha}) = \mu_{\alpha}} für alle {\alpha\in A}, so gilt

    \displaystyle  (x|y) = \sum_{\alpha}\lambda_{\alpha}\overline{\mu_{\alpha}}. \ \ \ \ \ (41)

Beweis: Es sei {F} eine endliche Teilmenge von {A} und {x \in \mathfrak{H} }. Wegen

\displaystyle  0 \leqslant \| x - \sum_{\alpha \in F}x_{\alpha} \|^{2} = \| x \|^{2} 		- \sum_{\alpha \in F}| ( x_{\alpha} | e_{\alpha} ) |^{2}

folgt {\sum_{\alpha \in F}| ( x_{\alpha} | e_{\alpha} ) |^{2} \leq \| x \|^{2}}. Da {F \subseteq A} beliebig war, folgt, dass die Familie {( |(x|e_{\alpha})|^{2} )_{\alpha \in A}} in {{\mathbb R}_{+}} monoton wachsend und beschränkt, und damit konvergent ist. Insbesondere gilt dann

\displaystyle  	\sum_{\alpha \in A} |(x|e_{\alpha})|^{2} \leqslant \| x \|^{2} .

Ist nun {x \in H}, so erfüllt die Familie {\{(x|e_{\alpha})e_{\alpha}\}_{\alpha\in A}} das Cauchy-Kriterium (39). Also existiert ein (eindeutig bestimmtes) {y \in \mathfrak{H}} mit

\displaystyle  	y = \sum_{\alpha \in A} ( x | e_{\alpha} ) e_{\alpha} \;.

Wegen {y \in V} genügt es zu zeigen, dass {x - y \in V^{\perp}}, da dann die Behauptung aus dem Theorem (17) folgt. Sei dazu {\beta \in A} fest aber beliebig. Dann gilt (siehe Satz (37))

\displaystyle  \begin{array}{ll} 	( x - y | e_{\beta} ) &= (x | e_{\beta} ) - ( y | e_{\beta} ) \\ 		&= ( x | e_{\beta} ) - \big( \sum_{\alpha \in A} ( x | e_{\alpha} ) e_{\alpha} \big | e_{\beta} \big) \\ 		& = \big(x | e_{\beta} ) - \sum_{\alpha \in A} ( x | e_{\alpha} ) ( e_{\alpha} | e_{\beta} ) \\ 		& = ( x | e_{\beta}) - ( x | e_{\beta}) = 0 \;, \end{array}

d.h. der Vektor { x - y } ist Element von {V^{\perp}} und damit {P_{V}(x) = y = \sum_{\alpha \in A} ( x | e_{\alpha} ) e_{\alpha}}.

Die Behauptung {\| P_{V}(x) \|^{2} = \sum_{\alpha \in A} | ( x | e_{\alpha} ) |^{2}} folgt analog.

Ist {x \in V} so gilt {P_{V}(x) = x} und damit gelten die Äquivalenzen.

Die letzte Behauptung ist eine unmittelbare Anwendung des bewiesenen. \Box

Anmerkung: Die obigen Aussagen gelten auch unter der Voraussetzung, dass {\mathfrak{H}} ein Prähilbertraum ist und {V} ein vollständiger Teilraum. Hier eine kurze Erläuterung zum Beweis dieses Sachverhalts: Ist {\widehat{\mathfrak{H}}} die Vervollständigung des Prähilbertraums {\mathfrak{H}}, so ist {H} dicht in {\widehat{\mathfrak{H}}}. Ist {\overline{V}} der Abschluss von {V} in {\widehat{\mathfrak{H}}}, so ist {\overline{V}} der von den {e_{\alpha}} in {\widehat{\mathfrak{H}}} erzeugte abgeschlossene Teilraum und {V = \overline{V} \cap \mathfrak{H}}.

Sei nun {W} das orthogonale Komplement von {\overline{V}} in {\widehat{\mathfrak{H}}} und {P_{W}} die zugehörige orthogonale Projektion. Für {x \in \widehat{\mathfrak{H}}} ist dann {x = P_{W}(x) + \sum_{\alpha \in A}( x | e_{\alpha} ) e_{\alpha}} und {\| x \|^{2} = \| P_{W}(x) \|^{2} + \sum_{\alpha \in A} | ( x | e_{\alpha} ) |^{2}} nach dem Theorem (22). Somit folgt unmittelbar die Behauptung 1. des Theorems und die Bedingungen b) und c) der Behauptung 2. sind äquivalent zu {P_{W}(x) = 0}. \lozenge

Definition 23. Für {x \in \mathfrak{H} } und {\alpha \in A} heißt {( x | e_{\alpha})} ein Fourierkoeffizient von {x} bezüglich des Orthonormalsystems {(e_{\alpha})_{\alpha\in A}}.

Die Namensgebung geht zurück auf Jean Fourier, der mit seinen Untersuchungen zur der schwingenden Saite und der Wärmeleitungsgleichung die nach ihm benannte Theorie angestoßen hat.

Theorem 24. (Parsevalsche Gleichung) Es sei {\mathfrak{H}} ein Hilbertraum und {(e_{\alpha})_{\alpha\in A)}} eine orthonormale Familie in {\mathfrak{H}}. Dann sind äquivalent:

  1. Die Familie {\{ e_{\alpha} \}_{\alpha \in A}} ist total in {\mathfrak{H}}.
  2. Für alle {x \in \mathfrak{H} } ist die Familie {\{(x|e_{\alpha})e_{\alpha}\}} summierbar in {\mathfrak{H}}
    und {x = \sum_{\alpha}(x|e_{\alpha})e_{\alpha}}.
  3. Für jedes {x\in \mathfrak{H} } gilt

    \displaystyle  	\sum_{\alpha}|(x|e_{\alpha})|^{2} = \| x \|^{2} \qquad \text{(Gleichung von \emph{Parseval}).} 	\ \ \ \ \ (42)

  4. Ist {(x|e_{\alpha}) = 0} für alle {\alpha\in A}, dann gilt {x=0}.

Der Beweis der Behauptungen folgt unmittelbar aus Theorem (22). Auch hier ist es so, dass die Äquivalenzen 1. bis 3. auch für Prähilberträume gelten (siehe hierzu die Anmerkung (5)), jedoch sind diese dann nicht äquivalent zu 4. (siehe hierzu auch Anmerkung (5)).

Definition 25. Eine Familie von orthonormalen Vektoren eines Hilbertraums, die den äquivalenten Bedingungen von Theorem (24) genügt, nennt man eine orthonormale Basis von {\mathfrak{H}} (abgekürzt: ONB) oder eine Hilbertraumbasis.

Anmerkung: Für eine (elementare und lesbare) Einführung in die Theorie der Fourieranalyse empfehle ich das Buch [7] von Elias Stein. Von E. Stein gibt es noch zwei weitere ausgezeichnet Bücher, einmal zur komplexen Analysis und ein weiteres zur Theorie der reellen Funktionen. Dieses stellt eine hervorragende Einführung in die Maßtheorie, speziell in die Lebesguesche Theorie zur Verfügung und ergänzt die Einführung von T. Tao in [7].

Die partiellen Differentialgleichungen zur schwingenden Saite oder zur Wärmeleitungsgleichung, verbunden mit historischen Anmerkungen finden sich in [7] Eine Vielzahl von Anwendungen der Theorie in [7]. \lozenge

5.2. Existenz von Hilbertraumbasen und Isomorphie von Hilberträumen

Nachdem wir Eigenschaften von Orthonormalsystemen bewiesen haben stellt sich die Frage nach der Existenz solcher Systeme in beliebigen Hilberträumen. Ein erster Satz hierzu, der auch ein konstruktives Verfahren zur Erzeugung orthonormaler Vektoren liefert, geht zurück auf J. Gram und E. Schmidt.

Theorem 26. (Gram-Schmidt Verfahren) Es sei {\mathfrak{H}} ein Prähilbertraum und {(x_{i})_{i\in\mathbb{N}}} eine abzählbare Menge linear unabhängiger Vektoren in H. Dann existiert eine abzählbare Familie {(e_{i})_{i\in \mathbb{N}}} von orthonormalen Vektoren in {\mathfrak{H}}, so dass für alle {n \in {\mathbb N}}

\displaystyle  	\left. 	\begin{array}{ll} 	&\left[x_{1}, \ldots x_{n}\right] = \left[e_{1}, \ldots e_{n}\right]\; , \\ 	& 0< (x_{n}|e_{n}) \; \quad .	 	\end{array} 	\right\} 	\ \ \ \ \ (43)

Beweis: Wir beweisen diesen Satz mittels vollständiger Induktion. Zunächst setzen wir {e_{1} = \| x_{1} \|^{-1}x_{1}}. Dann erfüllen {e_{1}} und {x_{1}} die Behauptung des Satzes.

Nehmen wir nun an, dass die Behauptung für alle {1 \leq k \leq n-1} bewiesen ist. Wegen {x_{n} \notin \left[x_{1}, \ldots x_{n-1}\right] = \left[e_{1}, \ldots e_{n-1} \right]} gilt

\displaystyle  	0 \neq z := x_{n} - \sum_{j = 1}^{n-1}( x_{n} | e_{j} )e_{j} \quad \text{und} \quad	( z | e_{j} ) = 0,\; 			j = 1, \ldots n-1 .

Sei

\displaystyle  	e_{n} := \| z \|^{-1}z.

Dann ist

\displaystyle  	\left[x_{1}, \ldots x_{n-1};x_{n} \right] = \left[ e_{1}, \ldots e_{n-1};e_{n} \right]

und

\displaystyle  	( x_{n} | e_{n} ) = ( z | e_{n} ) + \underbrace{\sum_{j = 1}^{n-1}( x_{n} | e_{j} )( e_{j} | e_{n} )}_{=0} 			= \| z \|^{-1}\| z \|^{2} = \| z \| > 0.

Damit folgt die Behauptung. \hfill\qedsymbol \Box

Korollar 27. Sei {\mathfrak{H}} ein Prähilbertraum und {M} ein endlichdimensionaler Teilraum von {\mathfrak{H}}. Dann gilt {\mathfrak{H} = M \oplus M^{\perp}}.

Beweis: Ist {M} endlichdimensional der Dimension {n}, so gibt es {n-}linear unabhängige Vektoren in {M}. Mit dem Gram-Schmidt Verfahren erhalten wir ein ONB {e_{1} , \ldots e_{n}} von {M}. Wir konstruieren nun eine Isometrie des {n-}dimensionalen Vektorraums {\mathbf{K}^{n}} auf {M}, indem wir die kanonische Basis des {\mathbf{K}^{n}} auf die {e_{k}} abbilden. Diese Abbildung kann man linear fortsetzen und diese ist eine Isometrie. Da {\mathbf{K}^{n}} vollständig ist, ist auch {M} in {\mathfrak{H}} vollständig und wir können das Theorem (17) nutzen. \Box

Korollar 28. Sei {\mathfrak{H}} ein separabler Hilbertraum. Dann besitzt {\mathfrak{H}} ein vollständiges Orthonormalsystem, das aus höchstens abzählbar vielen Element besteht.

Beweis: Ist {A} eine abzählbare Menge in {\mathfrak{H}} deren lineare Hülle dicht ist, so wählen wir aus dieser eine linear unabhängige Teilmenge von Vektoren aus. Nach dem obigen Verfahren können wir hieraus ein Orthonormalsystem erzeugen. Dieses muss aber dicht sein. \Box

Korollar 29. Ist {\mathfrak{H}} ein unendlichdimensionaler Hilbertraum, so besitzt {\mathfrak{H}} keine abzählbare Hamelbasis.

Beweis: Ist {\{ x_{k} \colon k \in {\mathbb N} \}} eine abzählbare Hamelbasis und {\{ e_{k} \colon k \in {\mathbb N} \}} die nach dem Gram-Schmidt Verfahren konstruieret ONB, so ist der Vektor

\displaystyle  	x = \sum_{k} \frac{1}{k} e_{k}

in {H} aber kann nicht als endliche Linearkombination der {\{ x_{k} \colon k \in {\mathbb N} \}} dargestellt werden. \Box

Beispiel 1. Wir betrachten den Hilbertraum {\mathfrak{H} = L^{2}(-1,1)} aller bezüglich des Lebesgueschen Maßes absolut quadratisch integrierbaren Funktionen. Wenn wir auf die Funktionen {f_{n}},

\displaystyle  f_{n}(t) := t^{n}\quad -1 \leqslant t \leqslant 1 , \quad n \in {\mathbb N},

das Gram-Schmidt Verfahren anwenden, so erhalten wir eine Folge {g_{n}} von orthonormalen Polynomen auf {\left[a,b\right]}, die sogenannte \emph}, die durch

\displaystyle  \left. \begin{array}{rll} g_{n}(t) &= \sqrt{(n + \frac{1}{2})}\,P_{n}(t)\;\text{mit} \\ P_{n}(t) &= \frac{1}{2^{n}n!}\,(\frac{\mathrm{d}}{\mathrm{d}t})^{n}(t^{2} - 1)^{n}. \end{array} \right\} \ \ \ \ \ (44)

gegeben sind (benannt nach Adrien Legendre).

Das Gram-Schmidt Verfahren liefert die Existenz von vollständigen Orthonormalsystem bei separablen Hilberträumen durch ein konstruktives Verfahren und mittels der Methode der vollständigen Induktion. Ist {\mathfrak{H}} nicht separabel, so erhalten wir so zwar orthogonale Mengen (abzählbare), woraus aber nicht die Existenz eines vollständigen Systems folgt.

Um dies zu beweisen, nutzt man entweder das Lemma von Zorn (benannt nach Max Zorn), oder den Hausdorff’schen Maximalkettensatz, der auf Felix Hausdorff zurückgeht. Wir haben dies als Erläuterung im Anhang zusammengestellt und werden dieses auch in späteren Kapiteln noch nutzen.

Theorem 30. Ist {\mathfrak{H}} ein Prähilbertraum und {\mathfrak{S}} ein beliebiges Orthonormalsystem in {\mathfrak{H}}, so existiert ein maximales Orthonormalsystem in {\mathfrak{H}}, welches {\mathfrak{S}} als Teilmenge enthält.

Insbesondere besitzt jeder Prähilbertraum mindestens ein maximales Orthonormalsystem.

Theorem 31.

  1. Jeder Hilbertraum besitzt eine Hilbertraumbasis.
  2. Jeder Hilbertraum ist isometrisch isomorph zu {\ell^{2}(A)} für eine geeignete Indexmenge {A}.
  3. In einem Hilbertraum sind zwei Hilbertraumbasen gleichmächtig.
  4. Genau dann sind die beiden Hilberträume {\ell^{2}(A)} und {\ell^{2}(B)} isometrisch isomorph, wenn {A} und {B} gleichmächtige Mengen sind.

Beweis: (1) Dies folgt unmittelbar aus Theorem (30) in Kombination mit Theorem (24).

(2) Es sei {\{ e_{\alpha} \}_{\alpha \in A}}. Dann ist die Abbildung

\displaystyle  	x \rightarrow \{ ( x | e_{\alpha} ) \colon \alpha \in A \}

wegen des Theorems (24) ein Isomorphismus der Hilberträume {\mathfrak{H}} und {\ell^{2}(A)}.

(3) Es seien {\{ e_{\alpha} \}_{\alpha \in A}} und {\{ f_{\beta} \}_{\beta \in B}} zwei ONB von {\mathfrak{H}} . Sind die Mächtigkeiten von {A} und {B} endlich, so gilt ({|A|} bezeichnet die Mächtigkeit einer Menge)

\displaystyle  	|A| = \sum_{\alpha \in A} \| e_{\alpha} \|^{2} 		= \sum_{\alpha \in A}\sum_{\beta \in B} |( e_{\alpha} | f_{\beta} )|^{2} 		= \sum_{\beta \in B} \| f_{\beta} \|^{2} = |B| .

Seien nun {A} und {B} keine endlichen Mengen: Für {\alpha \in A} sei

\displaystyle  	B_{\alpha} = \{ \beta \in B \; \colon \; ( e_{\alpha} | f_{\beta} ) \neq 0 \}.

Dann ist

  1. {B_{\alpha} \neq \emptyset}.
  2. {B_{\alpha}} ist abzählbar.
  3. {\bigcup_{\alpha \in A} B_{\alpha} = B}.

Also ist gilt

\displaystyle  	|B| \leqslant | {\mathbb N} | | A | = | A |.

Genauso gilt umgekehrt {| A | \leqslant |B| }. Nach dem Satz von Cantor-Berstein-Schröder folgt hieraus die Behauptung (siehe [7] für den Satz von (Cantor-)Bernstein-Schröder und die Berechtigung der benutzten Kardinalzahlenarithmetik). \Box

Anmerkung: Es sei an dieser Stelle angemerkt, dass die Vollständigkeit notwendig ist, da Prähilberträume existieren mit einem maximalen Orthonormalsystem, das aber keine Orthonormalbasis ist. \lozenge

5.3. Beispiele für Orthonormalsystemen

Die folgenden Beispiele setzen Kenntnis der Lebesgueschen Integrationstheorie auf {{\mathbb R}} voraus. Sehr gute Einführungen in diese Theorie findet man in T. Tao [7], in dem Buch von E. Stein [7] oder in [7].

Legendre’sche Polyonme: In {L^{2}(-1,1)} bilden die Legendre-Polynome {P_{n}} (siehe (44)) eine Orthonormalbasis und erfüllen gleichzeitig die Legendre’sche Differentialgleichung

\displaystyle  (1-t^{2})y''(t) - 2ty'(t) + n(n+1)y(t) = 0, \quad t\in (-1,1).

Siehe hierzu [7], 26.4. Benannt sind diese Polynome nach Adrien-Marie Legendre.

Hermite’sche Funktionen: In {L^{2}({\mathbb R})} bilden die Hermite-Funktionen {h_{n}, n\geqslant 0} eine Orthonormalbasis. Ausgehend von den Hermite-Polynomen

\displaystyle  H_{n}(t) = (-1)^{n}e^{t^{2}}\frac{d^{n}}{dt^{n}}e^{-t^{2}},

welche die Hermite’sche Differentialgleichung

\displaystyle  y''(t) - 2ty'(t) + 2ny(t) = 0, \quad t\in {\mathbb R},

erfüllen, erhält man diese durch

\displaystyle  h_{n}(t) = (2^{n}\,n!\,\sqrt{\pi})^{-1/2}\,e^{t^{2}/2}\,H_{n}(t), \quad t\in {\mathbb R} .

Siehe hierzu [7], 26.3. Benannt sind diese Polynome nach Charles Hermite,

Haar’sche Funktionen: In {L^{2}({\mathbb R})} bilden die Haar’schen Funktionen, benannt nach dem ungarischen Mathematiker Alfréd Haar, eine Orthonormalbasis. Sie werden ausgehend von {\varphi = \chi_{[0,\frac{1}{2})} - \chi_{(\frac{1}{2},1]}} durch

\displaystyle  \varphi_{j,k}(t) = 2^{k/2}\varphi(2^{k}\,t - j) \quad j,k\in{\mathbb Z}, t\in{\mathbb R}

gebildet (man zeichne die ersten drei Haarfunktionen auf). Eine Verallgemeinerung der Haarfunktionen sind die Wavelets (siehe etwa [7]).

Allgemeines Verfahren:

Weitere ONB erhält man durch folgendes Verfahren: Es sei {B} eine Borelteilmenge von {{\mathbb R}} mit positivem Lebesguemaß und {w} eine strikt positive Borel messbare Funktion mit

\displaystyle  \int_{B}\;s^{2n}w(t)\,\mathrm{d}s < \infty \quad (n\in{\mathbb N}).

Die Menge aller Borel messbaren Funktionen {f} auf {B} mit

\displaystyle  \int_{B}\;|f(t)|^{2}w(t)\,\mathrm{d}s < \infty

mit dem üblichen Skalarprodukt ist ein Hilbertraum {\mathfrak{H}}. In {\mathfrak{H}} bilden die Funktionen {s \rightarrow s^{n}, \; n\in{\mathbb N},} eine linear unabhängige Teilmenge. Wendet man hierauf das Gram-Schmidt Verfahren an, erhält man eine orthonormale Folge {(e_{n})}, in der alle {e_{n}} Polynome vom Grad {\leq n} sind.

Für {B=[0,1]} und {w(t) = (1-s)^{\nu}(1+2)^{\mu}, \; \nu,\mu > -1,} erhält man die Jacobi Polynome {P_{n}^{(\nu,\mu)}(t)} (für {\nu = \mu = 0} sind dies gerade die Legendre Polynome). Die Laguerre Polynome {L_{n}^{\nu}, \; \nu > 1} erhält man für {B = [0,\infty)} und {w(t)= s^{\nu}e^{-s}}, die Hermite Polynome für {B={\mathbb R}} und {w(t) = e ^{-s^{2}}} (siehe [7], Abschnitt 29 für Details).

6. Der Prähilbertraum {\mathcal{R}_{ 2 \pi }}

Wir kommen nun zurück zu unserem Ausgangspunkt in Abschnitt (2), wobei wir das dortige Beispiel hier etwas motifiziert haben.

Mit {\mathcal{R}_{ 2 \pi }} bezeichnen wir die Menge aller komplexwertigen und Riemann-integrierbaren Funktionen auf dem Intervall {\left[ - \pi , 2\pi \right]} mit {f ( - \pi ) = f ( \pi )} für alle { f \in \mathcal{R}_{ 2 \pi }} (oder äquivalent: Alle komplexwertigen, Riemann-integrierbaren Funktionen auf dem Einheitskreis {\mathbb{T} = \{ \lambda \in {\mathbb C} \colon | \lambda | = 1 \}}). Dann ist {\mathcal{R}_{ 2 \pi }} ein Vektorraum, falls wir die Addition und skalare Multiplikation „punktweise“ definieren.

Die Abbildung

\displaystyle  	( f , g ) \mapsto ( f | g ) := \frac{1}{2 \pi}\int_{ - \pi }^{ \pi} f(t)\overline{g(t)} \mathrm{d}t. \ \ \ \ \ (45)

ist eine positiv-semidefinite hermitesche Sesquilinearform {\mathcal{R}}, die die Halbnorm

\displaystyle  	\| f \|_{2} = \sqrt{\Bigg( \frac{1}{2 \pi}\int_{ - \pi }^{ \pi} | f(t) |^{2} \mathrm{d}t \Bigg)}

erzeugt. Mittels der Theorie (siehe die Folgerungen aus der Cauchy-Schwarz Ungleichung (9)) können wir nach dem abgeschlossenen Teilraum

\displaystyle  \{ f \in \mathcal{R}_{2\pi} \colon \| f \|_{2} = 0 \}

faktorisieren und so annehmen, dass dies eine Norm auf dem Prähilbertraum {\mathcal{R}_{2\pi}} ist.

In diesem Prähilbertraum bilden die Funktionen

\displaystyle  	e_{k}(t) \colon (t \mapsto e^{2\pi i kt}) \quad (t \in \left[ - \pi , \pi \right), \quad k \in {\mathbb Z}). \ \ \ \ \ (46)

ein Orthonormalsystem und mit Hilfe des Satzes von Stone-Weierstraß folgt, dass diese sogar dicht in {\mathcal{R}} sind. Daher können wir die Ergebnisse der Theoreme (22) und (24) anwenden.

Setzen wir für {f \in \mathcal{R}_{2\pi}}

\displaystyle  \begin{array}{ll} 	\widehat{f}(k) &:= ( f | e_{k} ) = \frac{1}{2 \pi} \int_{ - \pi }^{ \pi } f(t) e^{-i k s} 					\mathrm{d}(t) \quad (k \in {\mathbb Z}), \\ \\ 	S_{n}(f)(t) &:= \sum_{|k| \leq n} a_{k} e^{i k t} \quad (n \in {\mathbb N} , \; k \in {\mathbb Z}), \end{array} \ \ \ \ \ (47)

so ergibt sich

Theorem 32. Für {f \in \mathcal{R}_{2\pi}} gilt:

  1. Konvergenz im quadratischen Mittel

    \displaystyle  		\lim_{n \rightarrow \infty} \frac{1}{2 \pi}\int_{ - \pi }^{ \pi} |f(t) - S_{n}(t)|^{2} = 0 .

    Hierfür schreiben wir

    \displaystyle  		f(t) \sim \sum_{- \infty}^{\infty} \widehat{f}({k}) e^{i k t} \; .

  2. Parsevalsche Identität

    \displaystyle  		\sum_{- \infty}^{\infty} |\widehat{f}({k})|^{2} 			= \frac{1}{2 \pi} \int_{ - \pi }^{ \pi} |f(t)|^{2}\mathrm{d}s \; .

  3. Lemma von Riemann

    \displaystyle  		\lim_{|k|}| \widehat{f}({k}) | = 0 .

  4. Skalarprodukt Sind {f , g \in \mathcal{R}} mit Fourierkoeffizienten { ( \widehat{f}(k) )_{k \in {\mathbb Z}} } und { ( \widehat{g}(k) )_{k \in {\mathbb Z}} }, so gilt

    \displaystyle  		( f | g ) = \sum_{- \infty}^{\infty} \widehat{f}(k) \overline{ \widehat{g}(k)}.

Anmerkung: Wir hatten bereits gezeigt , dass {\mathcal{R}_{2\pi}} kein Hilbertraum ist (siehe Aufgabe (3)). Dies folgt auch aus der Tatsache, dass es in {\mathcal{R}_{2\pi}} keine Funktion {f} gibt, deren Fourierkoeffizienten bezüglich des Orthonormalsystems (46) die Folge

\displaystyle  	\widehat{f}(k) = 		\begin{cases} 	\frac{1}{k} 	& ( k \geq 1 ) ,	\\ 						0			& ( k \leq 0 ) . 		\end{cases}

ergibt.

Aufgabe 9. Man beweise diese Behauptung (siehe hierzu [7], Chapter I, §1.

\lozenge

Anmerkung: — Die Aussage zur Konvergenz im quadratischen Mittel in Theorem (32) sagt wenig aus über die punktweise Konvergenz oder gar gleichmäßigen Konvergenz der Funktionenfolge {S_{n}(f)} gegen die Ausgangsfunktion {f}.

Selbst wenn die Folge {S_{n}(f)} für ein {t} konvergiert ist im Allgemeinen nicht sicher gestellt, dass der Grenzwert den Funktionswert {f(t)} ist.

Aufgabe 10. Man gebe eine Funktionenfolge {f_{k}} in {\mathcal{R}} an mit {\lim_{k}\| f_{k} \|_{2} = 0}, für die aber {\lim_{k}f_{k}(t)} für jedes {t \in \left[0,2\pi\right]} nicht existiert.

Hinweis: Man suche eine Folge von Intervallen {I_{k}} in {\left[ - \pi , \pi \right]}, deren Intervalllängen gegen {0} konvergieren, so dass jeder Punkt aus {\left[ - \pi , \pi \right]} zu unendlich vielen dieser Intervalle gehört. Man setze dann {f_{k}} gleich der charakteristische Funktion {\chi_{I_{k}}} des Intervalls {I_{k}}.

Zwei positive Ergebnisse hierzu sind die folgenden (siehe [7], Chapter 3, 2.1 .).

Theorem 33. Es sei {f \in \mathcal{R}} .

  1. Ist {f} Lipschitz stetig an der Stelle {t_{0}}, d.h. es existiert eine Konstante {0 < M \in {\mathbb R}} mit {| f(t_{0}) - f(t) | \leq M | t_{0} - t |} für alle {t \in \left[0,2\pi\right)}, so konvergiert {S_{n}(t_{0}) \rightarrow f(t_{0})} für {n \rightarrow \infty}.
  2. Ist {f} differenzierbar an der Stelle {t_{0}}, so konvergiert {S_{n}(t_{0}) \rightarrow f(t_{0})} für {n \rightarrow \infty}.

Dieses Ergebnis ist überraschend, da die Fourierkoeffizienten durch Integration über ein gesamtes Intervall gefunden werden, hier aber eine lokale Konvergenzaussage gilt.

Überraschend ist auch, dass es stetige Funktionen in {\mathcal{R}} gibt, deren Fourierreihe an einem Punkt divergieren, d.h. in Theorem (33) kann die Differenzierbarkeit nicht durch die Stetigkeit ersetzt werden. Für ein Beispiel hierzu siehe [7], Chapter 3, 2.2.

Aufgabe 11. Es sei {f \in \mathcal{R}}. Ist zweimal stetig differenzierbar, so konvergiert die Folge {S_{n}(f)} gleichmäßig auf {\left[ - \pi , \pi \right]} gegen {f}.

Sind { ( \widehat{f}(k) )_{k \in {\mathbb Z}} } die Fourierkoeffizienten von {f} so gilt für die Fourierkoeffizienten von {f'} und {f''}

\displaystyle  	\widehat{f'}(k) = i k \widehat{f}(k) \quad \text{und} \quad 	\widehat{f''}(k) = ( i k )^{2}\widehat{f}(k) 			\quad (k \in {\mathbb Z} ) .

Hinweis: Partielle Integration unter Beachtung von {f( - \pi ) = f( \pi )}.

Die Fragestellung über das punktweise Konvergenzverhalten von Fourierreihen hat die Mathematiker seit der Habilitationsschrift von Bernd Riemann zur Theorie der Fourriereihen, mit der er viele Entwicklungen der Analysis angestoßen hat, beschäftigt. Es war dann eine mathematische Sensation, als Lennart Carleson 1966 zeigte, dass die Folge {(S_{n}(f))} stets punktweise außerhalb einer Menge vom Lebesgueschen Maß {0} konvergiert. Mehr zum Theorem von Carleson findet sich auf dem Blog von T. Tao.

Im Gegensatz hierzu gibt es {L^{1}-}Funktionen, deren Fourierreihe nicht punktweise konvergieren. Dieses geht auf A. Kolmogorov zurück. \lozenge

Ist {f \in \mathcal{R}_{2 \pi}}, so kann man die Fourierreihe von {f} kann man schreiben als

\displaystyle  			f(t) \sim \widehat{f}(0) + \sum_{k \geq 1} \bigg( 				\left[ \widehat{f}(k) + \widehat{f}(- k) \right] \cos kt 				+ i \left[ \widehat{f}(k) - \widehat{f}(- k) \right] \sin kt \bigg).

Es ist

\displaystyle  		f(t) \sim \sum_{- \infty}^{\infty} \widehat{f}({k}) e^{i k t} \; .

Hieraus folgt mit Hilfe der Eulerschen Formeln {\frac{1}{2} ( \cos kt = e^{i k t} + e^{- i k t} ) } und {\frac{1}{2i} ( \sin kt = e^{i k t} - e^{- i k t} )}:

\displaystyle  \begin{array}{ll} 	\widehat{f}(k) e^{i k t} & + \widehat{f}(- k) e^{-i k t} \\ 		& = \widehat{f}(k) ( \cos kt + i \sin kt ) + \widehat{f}(- k) ( \cos kt - i \sin kt )\\ 		& = \left[ \widehat{f}(k) + \widehat{f}(- k) \right] \cos kt + 				i \left[ \widehat{f}(k) - \widehat{f}(- k) \right] \sin kt \end{array}

Setzen wir für {k \in {\mathbb N}}

\displaystyle  \begin{array}{ll} 	a_{0} & := 2 \widehat{f}(0) \\ 	a_{k} & := \widehat{f}(k) + \widehat{f}(- k) \\ 	b_{k} & := i ( \widehat{f}(k) + \widehat{f}(- k) ) \end{array} \ \ \ \ \ (48)

so ist

\displaystyle  			f(t) \sim \frac{1}{2} a_{0} 					+ \sum_{k \geq 1} \bigg( a_{k} \cos kt + b_{k} \sin kt \bigg).

Für die Koeffizienten {a_{k}} und {b_{k}} ergibt sich für {k \in {\mathbb N}}

\displaystyle  	a_{0} = 2 \, \frac{ 1 }{ 2 \pi } \int_{ - \pi }^{ \pi } f(t) \mathrm{d}(t) 			= \frac{ 1 }{ \pi } \int_{ - \pi }^{ \pi } f(t) \mathrm{d}(t) \ \ \ \ \ (49)

\displaystyle  \begin{array}{ll} 	a_{k} & = \widehat{f}(k) + \widehat{f}(- k) \\ 			& = \frac{ 1 }{ 2 \pi } \int_{ - \pi }^{ \pi } f(t) ( e^{-i k s} + e^{i k s} )\mathrm{d}(t) \\ 			& = \frac{ 1 }{ 2 \pi } \int_{ - \pi }^{ \pi } f(t) (2 \cos kt )\mathrm{d}(t) \\ 			& = \frac{ 1 }{ \pi } \int_{ - \pi }^{ \pi } f(t) \cos kt \, \mathrm{d}(t) \end{array} \ \ \ \ \ (50)

und

\displaystyle  \begin{array}{ll} 	b_{k} & = i(\widehat{f}(k) - \widehat{f}(- k)) \\ 			& = \frac{ i }{ 2 \pi } \int_{ - \pi }^{ \pi } f(t) ( e^{-i k s} - e^{i k s} )\mathrm{d}(t) \\ 			& = \frac{ i }{ 2 \pi } \int_{ - \pi }^{ \pi } f(t) (- 2i \, \sin kt )\mathrm{d}(t) \\ 			& = \frac{ 1 }{ \pi } \int_{ - \pi }^{ \pi } f(t) \sin kt \mathrm{d}(t) \end{array} \ \ \ \ \ (51)

Zu beachten ist auch, dass

\displaystyle  	\widehat{f}(0) = \frac{ 1 }{ 2 \pi } \int_{ - \pi }^{ \pi } f(t) \mathrm{d}(t)

der Mittelwert der Funktion {f} über dem Intervall {\left[ - \pi , \pi \right]} ist.

Zusammenfassung: Der Zusammenhang zwischen den Fourierkoeffizienten {(\widehat{f}(k))_{k \in {\mathbb Z}}} und den Koeffizienten {(a_{k})_{k \in {\mathbb N}}} und {(b_{k})_{k \in {\mathbb N}})} ist gegeben durch

\displaystyle  	a_{k} = \widehat{f}(k) + \widehat{f}(- k) \quad \text{und}\quad 		b_{k} = i(\widehat{f}(k) - \widehat{f}(- k)) \\ \ \ \ \ \ (52)

\displaystyle  	\widehat{f}(k) = \frac{1}{2}( a_{k} - i \, b_{k} ) \quad \text{und}\quad 	\widehat{f}(- k)) = \frac{1}{2}( a_{k} + i \, b_{k} ). \ \ \ \ \ (53)

Satz 34. Ist {f} eine gerade Funktion, d.h. {f(t) = f(-t)}, so ist { \widehat{f}(k) = \widehat{f}( - k)} und somit {b_{k} = 0} für alle {k \in {\mathbb N}}; d.h. wir erhalten eine Kosinusreihe.

Ist {f} eine ungerade Funktion, d.h. {f(t) = -f(-t)}, so ist { \widehat{f}(k) = - \widehat{f}( - k)} und somit {a_{k} = 0} für alle {k \in {\mathbb N}} und {a_{0} =0}; d.h. wir erhalten eine Sinusreihe.

Beweis: Ist {g \in \mathcal{R}_{2\pi}}, so gilt

\displaystyle  	\int_{- \pi}^{\pi} g(t) \mathrm{d}t = 	\begin{cases} 		2 \int_{0}^{\pi} g(t) \mathrm{d}t		& (g \text{ gerade}) \\ 		0									& (g \text{ ungerade}) 	\end{cases}

Dies nutzen wir nun für den Beweis der Behauptung: Sei für {f \in \mathcal{R}_{2\pi}} und {h_{1}(t) := f(t) \cos kt} bzw. {h_{2}(t) := f(t) \sin kt}.

Ist {f} eine gerade Funktion, so ist {h_{1}} eine gerade Funktion und {h_{2}} eine ungerade Funktion. Dann gilt aber {b_{k}=0}.

Ist {f} eine ungerade Funktion, so ist {h_{1}} eine ungerade Funktion und {h_{2}} eine gerade Funktion. Dann gilt aber {a_{k}=0}. \Box

Anmerkung: Jede Reihe der Form

\displaystyle  	\frac{1}{2} A_{0} + A_{1}\cos t + B_{1}\sin t + A_{2} \cos 2t + B_{2} \sin 2t + \ldots \ \ \ \ \ (54)

heißt eine trigonometrische Reihe. Wenn die Koeffizienten durch die Definition in (47) gegeben sind, so nennt man (54) eine Fourierreihe.

So ist z.B. die trigonometrische Reihe

\displaystyle  	\sin t + \sin 2t + \sin 3t + \ldots

keine Fourierreihe, da das Lemma von Riemann verletzt ist und

\displaystyle  	\sin t + \frac{1}{\sqrt{2}} \sin 2t + \frac{1}{\sqrt{3}}\sin 3t + \ldots

ist keine Fourierreihe (einer Riemann integrierbaren Funktion), da die Parsevalgleichung nicht erfüllt ist (die Reihe {\sum ( \frac{1}{\sqrt{n}})^{2}} ist divergent). Man kann aber zeigen, dass diese Reihe konvergiert. \lozenge

Beispiele

\index{Beispiele!Fourierreihen} Beispiel 1: Ist {f \in \mathcal{R}_{2\pi}} die Funktion

\displaystyle  	f(t) = 	\begin{cases} 		t 	& t \in \left( - \pi , \pi \right) \\ 		0	& t = \pi \quad \text{oder} \quad t = - \pi , 	\end{cases} \ \ \ \ \ (55)

dann ist ist {f} eine ungerade Funktion, d.h. wir erhalten in der Darstellung als Fourierreihe eine Sinusreihe. Nachrechnen ergibt

\displaystyle  	\widehat{f}(0) = \frac{1}{2 \pi} \int_{- \pi}^{\pi} t \mathrm{d}t = 0

\displaystyle  \begin{array}{ll} 	\widehat{f}(k) &= \frac{1}{2 \pi} \int_{- \pi}^{\pi} t e^{- i k t}\mathrm{d}t 					\\ 			& = \frac{1}{2 \pi} \left[ \frac{t}{- i k}e^{-i k t} \right] \, \bigg|_{- \pi}^{\pi} 					- \frac{1}{2 \pi } \int_{ - \pi }^{ \pi } ( \frac{1}{- ik} ) e^{- i k t} \mathrm{d}t \\ 			& = \frac{1}{2 \pi} \left[ - \frac{t}{i k}e^{-i k t} \right] 				- \left[ \frac{1}{2 \pi} (\frac{1}{ ( - i k )^{2}} e^{-i k t} \right] \, \bigg|_{- \pi}^{\pi} \\ 			& = \frac{1}{2 \pi} e^{-ikt} \left[ \frac{t}{-ik} + \frac{1}{k^{2}} \right] \, \bigg|_{- \pi}^{\pi}\\ 			& = \frac{( - 1) ^{k + 1}}{i k}, \end{array}

da {e^{-ik\pi} = (-1)^{k}} für alle {k \in {\mathbb Z}}. Daher ist die Fourierreihe von {f} gegeben durch

\displaystyle  	f(t) \sim \sum_{k \neq 0} \frac{( - 1 ) ^{k + 1}}{i k} e^{i k t} 			= 2 \; \sum_{k = 1}^{\infty} ( - 1 )^{k + 1} \frac{\sin kt}{k} \ \ \ \ \ (56)

Wendet man auf diese das Theorem (33) an (oder das Ergebnis der Übungsaufgabe), so man für {s_{0} = \frac{1}{2} \pi} mittels (56) das bekannte Ergebnis

\displaystyle  	1 - \frac{1}{3} + \frac{1}{5} - \frac{1}{7} + \cdots = \frac{\pi}{4} \;.

Beispiel 2: Ist {f \in \mathcal{R}_{2\pi}} die Funktion

\displaystyle  	f(t) = |t | , \quad t \in \left[ - \pi , \pi \right], \ \ \ \ \ (57)

dann ist ist {f} eine gerade Funktion, d.h. wir erhalten eine Kosinusreihe, d.h. es ist {b_{k} = 0} für alle {k \in {\mathbb N}}. Für die Fourierkoeffizienten {a_{k}} gilt

\displaystyle  	a_{k} = \frac{2}{\pi} \int_{0}^{ \pi } f(t) \cos kt \mathrm{d}t 		= \frac{2}{\pi} \int_{0}^{ \pi } t \cos kt \mathrm{d}t.

Für {k = 0} ist daher

\displaystyle  	a_{0} = \frac{2}{\pi} \int_{0}^{ \pi } t \mathrm{d}t = \frac{1}{\pi}t^{2} \, \big|_{0}^{\pi} 			= \pi .

und für {k \geq 1}

\displaystyle  	a_{k} = \frac{2}{\pi} \frac{ t \sin k t}{ k } \bigg|_{0}^{\pi} 			- \frac{2}{\pi} \int_{0}^{ \pi } \frac{\sin kt}{k} \mathrm{d}t 			= \frac{2}{\pi}\frac{\cos kt}{k^{2}} = \frac{2}{\pi}\frac{(-1)^{k} - 1}{k^{2}},

da {\sin k\pi = 0} und {\cos k\pi = ( -1)^{k}}. Wegen {(-1)^{k} - 1 = -2} für ungerades {k} und {= 0} für gerades {k} folgt

\displaystyle  	f(t) = |t | \sim \frac{\pi}{2} - \frac{4}{\pi} \left[\frac{\cos t}{1^{2}} + \frac{\cos 3t}{3^{2}} 			+ \frac{\cos 5t }{5^{2}} + \cdots \right] = \sum_{k \geq 1} \frac{ \cos (2k-1) t}{(2k -1)^{2}} \ \ \ \ \ (58)

Wiederum können wir das Theorem (33) anwenden und erhalten für {t_{0} = 0}

\displaystyle  	 	 1 + \frac{1}{3^{2}} + \frac{1}{5^{2}} + \frac{1}{7^{2}} + \cdots = \frac{\pi^{2}}{8}. \ \ \ \ \ (59)

Wir betrachten nun die Zetafunktion an der Stelle {2}

\displaystyle  	\zeta ( 2 ) = 1 + \frac{1}{2^{2}} + \frac{1}{3^{2}} + \frac{1}{4^{2}} + \cdots .

Durch ein einfaches Umformen der Reihe

\displaystyle  	 \frac{1}{2^{2}} + \frac{1}{4^{2}} + \frac{1}{6^{2}} + \cdots

bekommen wir

\displaystyle  	\frac{1}{2^{2}} + \frac{1}{4^{2}} + \frac{1}{6^{2}} + \cdots 	 	= \frac{1}{4} \bigg[\frac{1}{1^{2}} + \frac{1}{2^{2}} + \frac{1}{3^{2}} + \frac{1}{4^{2}} + \cdots \bigg] 		= \frac{1}{4} \zeta ( 2 ).

Wenn wir nun die Differenz

\displaystyle  \zeta ( 2 ) - \frac{1}{4} \zeta ( 2 )

bilden, so erhalten wir gerade die Summe (59), da die ungeraden Terme bestehen bleiben. Damit folgt

\displaystyle  	\zeta ( 2 ) - \frac{1}{4} \zeta ( 2 ) = \frac{\pi^{2}}{8} \quad \text{oder}	\quad \zeta ( 2 ) = \frac{\pi^{2}}{6}.

Dieses Ergebnis ist eine der vielen Lösung zum so genannten „Basler Problem“, auch die „Geißel der Analytiker“ genannt. An der Berechnung von {\zeta(2)} haben sich viele berühmt Mathematiker vergeblich versucht, darunter John Wallis, Gottfried Leibniz, Jacob Bernoulli (der indirekte Namensgeber des Problems) oder Johann Bernoulli. Erst Leonhard Euler gelang es 1735 eine Lösung anzugeben. Anmerkung: Das Ergebnis für die Zetafunktion ergibt sich auch aus der Fourierreihe (56): Wegen der Parsevalschen Gleichung gilt

\displaystyle  	\| f \|_{2}^{2} = \frac{1}{2 \pi} \int_{- \pi}^{\pi} t^{2} \mathrm{d}t = \frac{\pi^{2}}{3} 		= \sum_{- \infty}^{\infty} | \widehat{f}(k) |^{2} = 2 \sum_{k = 1}^{\infty}\frac{1}{k^{2}}

oder

\displaystyle  		\sum_{k = 1}^{\infty}\frac{1}{k^{2}} = \frac{\pi^{2}}{6}.

\lozenge

Anmerkung: Wer sich näher mit Fourierannalysis beschäftigen will, den verweise ich auf das Buch von E. Stein [7] und auf die einschlägigen Kapitel in dem Buch von A. Kolmogorov und S. Fomin [7]. Einen historischen Abriss findet man in D. Bressoud [7]. Wer es ganz genau wissen will, der sollte das Buch von Antoni Zygmund [7] durcharbeiten. Hier findet sich auch das oben erwähnte Beispiel von Kolmogorov in Chapter VIII, §4 und zu Beginn des Buches die Lösung zur Aufgabe (9) \lozenge

Mit der letzten Aufgabe dieses Teils verabschieden wir uns zunächst von der Theorie der Hilberträume, werden aber regelmäßig auf diese wichtige Klasse von Banachräumen zurückkommen.

Aufgabe 12.

  • Es sei {f} die Funktion {t \rightarrow |t|} auf dem Intervall {\left[-\pi , \pi \right]}. Mit Hilfe der Parsevalschen Identität für das Skalarprodukt zeige man

    \displaystyle  		\sum_{ k = 1 }^{ \infty }\; \frac{ 1 }{ k^{4} } = \frac{ \pi^{4} }{ 90 } 			\quad \text{und} \quad 		\sum_{ k =1 }^{ \infty }\; \frac{ 1 }{ (2k+1)^{4} } = \frac{ \pi^{4} }{ 96 }.

  • Es sei {f} die Funktion {t \mapsto t ( \pi - t )} auf dem Intervall {\left[0 , \pi \right]}. Man zeige (mit den oben angewandten Methoden)

    \displaystyle  		\sum_{ k = 0}^{\infty}\; \frac{1}{( 2 k + 1 )^{6}} = \frac{\pi^{6}}{960} 				\quad \text{und} \quad 			 		\sum_{ k = 1}^{\infty}\; \frac{1}{k ^{6}} = \frac{\pi^{6}}{945}.

    Wer will, kann sich auch noch an der Summe {\sum \;{1}/{k^{3}}} oder gleich an der Summe für {\sum \; {1}/{k^{n}}}, {n} ungerade versuchen. Bisher gibt es dafür aber keine einfache Lösung.

  • Was ist die Fourierreihe der folgenden Funktionen:
    1. {f(t) = \sin^{2} t}.
    2. {f(t) = 				\begin{cases} 					-1 	& -\pi < t < 0, \\ 					1 	& 0 < t < \pi . 				\end{cases}}
    3. {f(t) = 				\begin{cases} 					0 	& -\pi < t < 0, \\ 					1 	& 0 < t < \pi . 				\end{cases}}

Anhang 1: Summierbarkeit in Banachräumen

In diesem Abschnitt fassen wir die wesentlichen Begriffe zu Netzen und unendlichen Summen in einem Banachraum {X} zusammen.

Es sei {X} ein Banachraum mit Norm {\| \cdot \|}. Unter einem Netz in {X} verstehen wir eine Familie {(x_{j})_{j \in J}}, wobei {J} eine, durch die Relation { \leq } gerichtete Indexmenge ist.

Definition 35. Das Netz {\{ x_{j} \}} konvergiert gegen {x \in X} , wenn für alle {\epsilon > 0} ein {j_{0} \in J} existiert, so dass für alle {j \geqslant j_{0}} stets {\| x_{j} - x \| < \epsilon} gilt.

Wir nennen {\{ x_{j} \}} ein Cauchynetz, wenn für alle {\epsilon > 0} ein {j_{0} \in J} existiert, so dass für alle {j, k \geqslant j_{0}} stets {\| x_{j} - x_{k} \| < \epsilon}.

Jetzt betrachten wir eine beliebige Familie {\{ x_{\alpha}, \alpha \in \mathbb{A} \}} von Vektoren in {X} und stellen keine weiteren Bedingungen an die Indexmenge {\mathbb{A}}. Mit {\mathcal{F}} bezeichnen wir die Menge aller endlichen Teilmengen von {\mathbb{A}} und ordnen {\mathcal{F}} mittels der Inklusion {\supseteq}. Für jedes {\mathbb{F} \in \mathcal{F}} können wir die endliche Summe

\displaystyle  	s(\mathbb{F}) = \sum_{\alpha \in \mathbb{F}} x_{\alpha}

in {X} bilden. Auf diese Weise erhalten wir ein Netz

\displaystyle  	( s(\mathbb{F}) , \mathcal{F} , \supseteq )\; , \quad \text{kurz} \quad \{ s( \mathbb{F} ) \} \; ,

in {X}. Wenn dieses Netz gegen ein {x \in X} konvergiert, so nennen wir die Menge

\displaystyle  \{ x_{\alpha}, \alpha \in \mathbb{A} \}

(unbedingt) summierbar und sagen, dass die Summe

\displaystyle  \sum_{\alpha}x_{\alpha}

in {X} existiert. Hierfür schreiben wir dann schreiben

\displaystyle  	x = \sum_{\alpha}x_{\alpha}.

Man beachte, dass an die Indexmenge {\mathbb{A}} keine weiteren Bedingungen gestellt werden. Daher nennt man die Summen auch ungeordnet. Umgeschrieben bedeutet dies das folgende.

Definition 36. Eine Familie {\{ x_{\alpha}, \alpha \in \mathbb{A} \}} heißt uneigentlich summierbar (kurz summierbar) in {X} mit Summe {x}, wenn es zu jedem {\varepsilon > 0} eine endliche Teilmenge {\mathbb{F}_{0} \subseteq \mathbb{A}} gibt, so dass für alle endlichen Teilmengen {\mathbb{F} \supseteq \mathbb{F}_{0}}

\displaystyle  \| \sum_{\alpha \in \mathbb{F}}x_{\alpha} - x \| = \| s( \mathbb{F} ) - x \| < \varepsilon . \ \ \ \ \ (60)

Satz 37. Seien {X, Y} normierte Vektorräume, {\{ x_{\alpha}, \alpha \in \mathbb{A} \}} und {\{ y_{\alpha}, \alpha \in \mathbb{A} \}} summierbare Familien in {X} mit Summe {x} bzw. {y}, {\lambda \in \mathbf{K}} und {T \colon X \rightarrow Y} eine stetige lineare Abbildung. Dann gilt

  • Die Familie {\{ x_{\alpha} + y_{\alpha}, \alpha \in \mathbb{A} \}} ist summierbar mit Summe {x + y}.
  • Die Familie {\{ \lambda x_{\alpha}, \alpha \in \mathbb{A} \}} ist summierbar mit Summe {\lambda x}.
  • Die Familie {\{ T ( x_{\alpha} ), \alpha \in \mathbb{A} \}} ist summierbar in {Y} mit Summe
    {T(x) = \sum_{\alpha}T ( x_{\alpha} )}.

Ist {X} ein Prähilbertraum und {y \in X}, so gilt

  • {(\sum_{\alpha} x_{\alpha} | y ) = \sum_{\alpha} ( x_{\alpha} | y )}.

Beweis: Die Behauptungen folgen unmittelbar aus den nachfolgenden elementaren Eigenschaften der Norm bzw. dem Skalarprodukt, die die für jede endliche Teilmenge {F} von {\mathbb{A}} gelten.

\displaystyle  \begin{array}{ll} 	&\| \lambda x - \sum_{\alpha \in F} \lambda x_{\alpha} \| 		= | \lambda | \| x - \sum_{\alpha \in F } x_{\alpha} \|										\\ 	&\| ( x + y ) - \sum_{\alpha \in F }( x_{\alpha} + y_{\alpha} ) \| 		\leq \| x - \sum_{\alpha \in F } x_{\alpha} \| 	+ \| y - \sum_{\alpha \in F } y_{\alpha}\|	\\ 	&\| T ( x ) - \sum_{\alpha \in F} T ( x_{\alpha} ) \| 		 \leq \| T \| \| x - \sum_{\alpha \in F } x_{\alpha} \| 									\\ 	&|( x | y ) - ( \sum_{\alpha \in F} x_{\alpha} | y ) | = |( x - \sum_{\alpha \in F} x_{\alpha}| y ) | 			\leq \| x - \sum_{\alpha \in F } x_{\alpha} \| \| y \| \end{array}

\Box

Für Banachräume ergibt sich folgender Sachverhalt.

Satz 38. Sei {X} ein Banachraum. Eine Familie {\{ x_{\alpha}, \alpha \in \mathbb{A} \}} von Vektoren in {X} ist genau dann summierbar, wenn für alle {\varepsilon > 0} eine endliche Menge {F_{0} \subseteq \mathbb{A}} existiert, so dass { \| \sum_{\alpha \in F} x_{\alpha} \| < \varepsilon} für alle endlichen Teilmengen {F \subseteq \mathbb{A}} mit {F \cap F_{0} = \emptyset}.

Ist {\{ x_{\alpha} \colon \alpha \in \mathbb{A} \}} summierbar, so ist die Menge {\mathbb{B} = \{ \alpha \in \mathbb{A} \; \colon \; x_{\alpha} \neq 0 \}} höchstens abzählbar.

Beweis: Ist {\{ x_{\alpha}, \alpha \in \mathbb{A} \}} summierbar mit Summe {x}, so existiert zu {\varepsilon > 0} eine endliche Teilmenge {F_{0}} von {\mathbb{A}} mit {\| x - \sum_{\alpha \in F} x_{\alpha} \| \leq \varepsilon} für alle endlichen Mengen {F \supseteq F_{0}}. {F \subseteq \mathbb{A}} mit {F \cap F_{0} = \emptyset} und {F} endlich, so folgt

\displaystyle  \| \sum_{\alpha \in F} x_{\alpha} \| 	= \| \sum_{\alpha \in F \cup F_{0}} x_{\alpha} - \sum_{\alpha \in F_{0}} x_{\alpha} \| 	\leq \| x - \sum_{\alpha \in F \cup F_{0}} x_{\alpha} \| + \|x - \sum_{\alpha \in F_{0}} x_{\alpha} \| 	\leq 2 \varepsilon.

Ist umgekehrt die Bedingung erfüllt, so existiert zu jedem {n \in {\mathbb N}} eine endliche Teilmenge {F_{n}} von {\mathbb{A}} mit { \| \sum_{\alpha \in F} x_{\alpha} \| \leq \frac{1}{n}} für alle endlichen Teilmengen {F} von {\mathbb{A}} mit {F \cap F_{n} = \emptyset}. Ersetzen wir die {F_{n}} durch {F_{1} \cup \ldots \cup F_{n}}, so gilt diese Eigenschaft immer noch. Daher können wir ohne Einschränkung der Allgemeinheit annehmen (und wir machen dies), dass die endlichen Mengen {F_{n}} monoton wachsend sind (d.h. {F_{n} \subseteq F_{n+1}} für alle {n \in {\mathbb N}} gilt).

Für alle {n < m} gilt dann

\displaystyle  	 \| \sum_{\alpha \in F_{n}} x_{\alpha} - \sum_{\alpha \in F_{m}} x_{\alpha} \| 	 	= \| \sum_{\alpha \in F_{m} \setminus F_{n}} x_{\alpha} \| \leq \frac{1}{n},

da {( F_{m} \setminus F_{n} ) \cap F_{n} = \emptyset}. Da {X} ein Banachraum ist, konvergiert die Folge

\displaystyle  x_{n} := \sum_{\alpha \in F_{n}} x_{\alpha} \;, n \in {\mathbb N}

gegen ein {x \in X}.

Ist nun {F} eine endliche Teilmenge von {\mathbb{A}} mit {F \supseteq F_{n}} so folgt aus

\displaystyle  	 \| x - \sum_{\alpha \in F} x_{\alpha} \| \leq \| x - \sum_{\alpha \in F_{n}} x_{\alpha} \| 	 		+ \| \sum_{\alpha \in F \setminus F_{n}} x_{\alpha} \|,

dass die Familie {\{ x_{\alpha} \colon \alpha \in \mathbb{A} \}} summierbar in {X} ist.

Für {\beta \notin \bigcup_{n \in {\mathbb N}} F_{n}} gilt

\displaystyle  	\| x_{\beta} \| \leqslant \| x - \sum_{ \alpha \in F_{n} \cup \{ \beta\} } x_{\alpha} \| 		+ \| x - \sum_{ \alpha \in F_{n} } x_{\alpha} \| 	< \frac{2}{n},

also ist {\| x_{\beta} \| = 0}. Da die Vereinigung endlicher Mengen höchstens abzählbar ist, folgt die Behauptung. \Box

Aus diesem Satz ergibt sich die folgende Definition.

Definition 39. (Cauchykriterium für Summen) Für eine Familie {\{ x_{\alpha} \colon \alpha \in \mathbb{A} \}} von Vektoren heißt das zugehörige Netz {\{ s( \mathbb{F} ) \}} der endlichen Summen ein Cauchynetz, wenn für alle {\varepsilon > 0} eine endliche Menge {F_{0} \subseteq \mathbb{A}} existert, so dass { \| s(F) \| = \| \sum_{\alpha \in F} x_{\alpha} \| < \varepsilon} für alle endlichen Teilmengen {F \subseteq \mathbb{A} \setminus F_{0}}.

Anmerkung:

  • Aus den obigen Überlegungen folgt, dass eine Familie {\{ z_{\alpha} \colon \alpha \in \mathbb{A} \}} von komplexen Zahlen genau dann unbedingt summierbar ist, wenn die Familie {\{ | z_{\alpha}| \colon \alpha \in \mathbb{A} \}} unbedingt summierbar (in {{\mathbb R}_{+}}) ist.

    Um dieses zu zeigen, nutzt man das Cauchykriterium in Definition (39): Für {\mathbb{F} \subseteq \mathbb{A}} endlich und {z_{\alpha} = x_{\alpha} + iy_{\alpha}} ist:

    \displaystyle  \begin{array}{l l } \bigg| \sum_{\alpha \in \mathbb{F}} z_{\alpha} \bigg| 		& \leqslant \sum_{\alpha \in \mathbb{F}} | z_{\alpha} | 				\leqslant \sum_{\alpha \in \mathbb{F}} | x_{\alpha} | + \sum_{\alpha \in \mathbb{F}} | y_{\alpha} | \\ 		& = \sum_{\alpha \in \mathbb{F}_{1}} x_{\alpha} + \sum_{\alpha \in \mathbb{F}_{2}} ( - x_{\alpha}) 			+ \sum_{\alpha \in \mathbb{F}_{3}} y_{\alpha} + \sum_{\alpha \in \mathbb{F}_{4}} ( - y_{\alpha}) \\ 		& \leqslant 4 \max_{j = 1 , \ldots , 4 } \Big\{ \sum_{\alpha \in \mathbb{F}_{j} } \ldots \Big\} 			\leqslant 4 \max_{j = 1 , \ldots , 4 } \big| \sum_{\alpha \in \mathbb{F}_{j}} z_{\alpha} \big| \end{array}

    wobei {\mathbb{F}_{1}, \ldots \mathbb{F}_{4}} geeignete Teilmengen von {\mathbb{F}} sind. Da jede der Familien {\{ z_{\alpha} \}}, {\{ |z_{\alpha}| \}} das Cauchykriterium erfüllt, wenn die andere dieses tut, und da {{\mathbb C}} bzw. {{\mathbb R}} vollständige metrische Räume sind, folgt hieraus die Behauptung.

  • Ist {\{ x_{\alpha} \colon \alpha \in \mathbb{A} \}} eine Familie positiver, reeller Zahlen, so ist das Netz {\{ s ( \mathbb{F} ) \}} der zugehörigen endlichen Summen monoton wachsend. Deshalb ist die Familie genau dann summierbar, wenn das Netz beschränkt ist. In diesem Fall ist

    \displaystyle  \sum_{\alpha}x_{\alpha} = \sup_{\mathrm{F}} s(\mathbb{F}).

\lozenge

Definition 40. Eine Familie {\{ x_{\alpha} \colon \alpha \in \mathbb{A} \}} in einem Banachraum {X} heißt absolut summierbar, wenn {\sum_{\alpha \in \mathbb{A}}\| x_{\alpha} \| < \infty} ist.

Satz 41. in einem Banachraum ist jede absolut summierbare Familie unbedingt summierbar

Anmerkung:

  • Im allgemeinen sind uneigentlich summierbare Familien in einem unendlichdimensionalen Banachraum nicht absolut summierbar. Man betrachte hierzu die Familie

    \displaystyle  	 x_{n} := \frac{1}{n}e_{n} \quad (n \in {\mathbb N})

    in dem Banachraum {\ell^{2}}. Dann ist diese Familie summierbar mit Summe

    \displaystyle  x = (\frac{1}{n})_{n\in {\mathbb N}},

    aber offensichtlich nicht absolutsummierbar.

  • Ist {X} ein endlichdimensionaler Banachraum (d.h. {= {\mathbb R}^{n}} oder {= {\mathbb C}^{n}}), so sind diese Begriffe absolut summierbar und unbedingt summierbar äquivalent. Dies charakterisiert bereits endlichdimensionale Banachräume (Satz von Dvoretzky-Rogers, siehe Proc.Nat.Acad.Sci. (U.S.A.) 36, 192 – 197 (1950)).

\lozenge

Anhang 2: Das Lemma von Zorn und Hausdorff’s Maximalkettensatz

Ist {A} eine Menge, so heißt eine Relation {R \subseteq A \times A} eine Ordnung, wenn

  • {a_{R}a} für alle {a \in A}.
  • {a_{R}b} und {b_{R}a} impliziert {a = b}.
  • {a_{R}b} und {b_{R}c} impliziert {a_{R}b}.

Manchmal nennt man {R} auch eine teilweise Ordnung (partial order). Gilt für zwei beliebige Elemente {a, b \in A} stets {a \leq b} oder {b \leq a}, so spricht man von einer Totalordnung oder linearen Ordnung.

Wir schreiben für {R} dann stets {\leq}, also {a \leq b := a_{R}b}. Eine geordnete Menge ist dann eine Menge zusammen mit einer in ihr definierten Ordnungsrelation, d.h. ein geordnetes Paar {(A , \leq )}, wobei {A} eine Menge und {\leq} eine Ordnung in {A} ist.

Eine geordnete Menge mit einer Totalordnung nennt man oft eine Kette (siehe hierzu P. Halmos [7], Kapitel 14).

Theorem 42. (Der Hausdorffsche Maximalkettensatz) Jede nichtleere, geordnete Menge enthält mindestens eine maximale total geordnete Teilmenge.

Hierbei bedeutet „M ist maximale total geordnete Teilmenge von A“, dass {M \cup \{a\}, a \in A} nicht mehr total geordnet ist. Einen schönen Beweis dieses Satzes mit Hilfe des Auswahlaxioms findet sich in W. Rudin [7], Anhang.

Zu diesem Satz äquivalent ist

Lemma 43. (Lemma von Zorn) Es sei {A} eine geordnete Menge, so dass jede Kette in {A} eine obere Schranke besitzt. Dann enthält {A} ein maximales Element.

Dabei nennen wir ein Element {m \in A} maximal, wenn {a \leq m} für alle {a \in A} gilt (man beachte, dass dieses maximale Element nicht eindeutig zu sein braucht). Eine Beweis dieses Sachverhalts und die Äquivalenz zum Hausdorffschen Maximalkettensatz bzw. zum Auswahlaxiom findet man in P. Halmos [7], Kapitel 16 .

Anhang 3: Projektionen

Im Folgenden fassen wir die wesentlichen Eigenschaften von direkten Summen und Projektionen in Vektorräumen zusammen. Ergänzungen und weitere Erläuterungen finden sich in P. Halmos [7], §41 und §42 .

Ist {E} ein Vektorraum und {M, N} Teilräume von {E}, so nennen wir {E} die direkte Summe von {M} und {N}, wenn gilt:

\displaystyle  	E = M + N := \{ m + n \colon m \in M, \; n \in N \} \quad \text{und} \quad M \cap N = \{ 0 \}

und wir schreiben dann

\displaystyle  	E = M \oplus N.

Aus dieser Definition folgt unmittelbar:

  • Die Zerlegung {x = m + n, \; x \in E, m \in M, n \in N} ist eindeutig. (Ist {x = m_{1} + n_{2} = m_{2} + n_{2}} so ist {m_{1} - m_{2} = n_{2} - n_{1} \in M \cap N = \{ 0 \}} und somit {m_{1} = m_{2}} und {n_{1} = n_{2}}.)
  • Die Abbildung {P := (x = m + n \mapsto m) \colon E \rightarrow M} ist linear und {P^{2} = P \circ P = P}. (Wegen der Eindeutigkeit der Zerlegung folgt unmittelbar die Linearität von {P}. Ist {x = m + n}, so ist {m = m + 0} und wir bekommen {P^{2}(x) = P(P(x)) = P(m) = m = P(x)} für alle {x \in E}.)
  • Es ist {M = \{ x \in E \colon Px = x \}} und {N = \{ x \in E \colon Px = 0 \}.} (Ist {x = m + n}, so ist {Px = x \iff n = 0} und {Px = 0 \iff m = 0}.)

    Definition 44. Wir nennen {P} die Projektion auf {M} längs {N}.

  • Ist {P} eine lineare Abbildung auf {E} mit {P^{2} =P}, so ist {P} die Projektion auf {M := \{ x \in E \colon Px = x \}} längs {N := \{ x \in E \colon Px = 0 \}}. (Seien {M} und {N} wie definiert. Für jedes {x \in E} ist {x = Px + (I-P)x}. Wegen {P(Px) = P(x)} ist {Px \in M}; wegen {P((I-P)x) = Px - P^{2}x = Px - Px = 0} ist {(I - P)(x) \in N.} Sicherlich ist {M \cap N = \{0\}}, d.h. {E = M \oplus N}. Hieraus folgt aber, dass {P} die Projektion auf {M} längs {N} ist.)
  • Ist {P} Projektion auf {M} längs {N}, so ist {(I - P)} Projektion auf {N} längs {M}. (Dies folgt unmittelbar aus der Charakterisierung im letzten Punkt.)

Satz 45. (Eigenschaften von Projektionen) Sind {P_{1}, P_{2}} Projektionen auf die Teilräume {M_{1}, M_{2}} eines Vektorraums {E} längs {N_{1}, N_{2}}, so gilt

  1. {P_{1} + P_{2}} ist genau dann Projektion, wenn {P_{1}P_{2} = P_{2}P_{1} = 0}. Dann ist {P = P_{1} + P_{2}} Projektion auf {M = M_{1} \oplus M_{2}} längs {N = N_{1} \cap N_{2}.}
  2. {P_{1} - P_{2}} ist genau dann Projektion, wenn {P_{1}P_{2} = P_{2}P_{1} = P_{2}}. Dann ist {P = P_{1} - P_{2}} Projektion auf {M = M_{1} \cap M_{2}} längs {N = N_{1} \oplus N_{2}.}
  3. Gilt {P_{1}P_{2} = P_{2}P_{1}}, so ist {P = P_{1}P_{2}} Projektion auf {M = M_{1} \cap M_{2}} längs {N = N_{1} + N_{2}.} (Es ist im Allgemeinen {N_{1} + N_{2}} keine direkte Summe, etwa für {P = P_{1} = P_{2}}).

Der Beweis zu diesen Behauptungen mit ergänzenden Anmerkungen findet man in P. Halmos [7], §42 .

Ist {E} ein normierter Vektorraum, so fordern wir, dass die Projektion {P} stetig ist, d.h. es gibt {m \in {\mathbb R}_{+}} mit {\| Px \| \leq m \| x \|} für alle {x \in E}. Hieraus ergeben sich einige Folgerungen und Konsequenzen:

  • Die Teilräume {M = \{ x \in E \colon Px = x \}} und {N = \{ x \in E \colon Px = 0 \}} sind abgeschlossen in {E}. (Es ist {M = P^{-1}\{0\}} und {N = (I - P)^{-1}\{0\}}. Da die Menge {\{0\}} in {E} abgeschlossen ist und die Funktionen {P} bzw. {I - P, \; I} die identische Abbildung auf {E} folgt die Behauptung.)
  • Sind {M} und {N} abgeschlossene Teilräume von {E}, so muss {M + N} nicht abgeschlossen sein (siehe hierzu das Beispiel auf dem Aufgabenblatt 6).
  • Ist {M} ein abgeschlossener Teilraum von {E}, so existiert zwar stets ein algebraischer komplementärer Teilraum {N} von {M} in {E}, aber die zughörige Projektion muss nicht stetig sein (dies gilt etwa für {c_{0}} in {\ell^{\infty}}, was aber ein nicht triviales Ergebnis der Banachraumtheorie ist).

Definition 46. Ist {E} ein normierter Vektorraum und {M} ein abgeschlossener Teilraum von {E}. Wir nennen {M} in {E} (topologisch) komplementierbar, wenn es einen abgeschlossenen Teilraum {N} in {E} gibt, so dass die Projektion {P} auf {M} längs {N} stetig ist und {E = M \oplus N}.

Wie man sieht, muss man den algebraischen Begriff der Komplementierbarkeit von dem der topologischen Komplementierbarkeit unterscheiden: Ersteres ist nach dem Lemma von Zorn (im unendlichdimensionalen Fall) bzw. nach dem Austauschsatz von Steinitz (im endlichdimensionalen Fall) immer möglich. Der zweite Fall Bedarf weitere Klarstellung, was im Rahmen der Behandlung von linearen Abbildungen erfolgen wird.

Anhang 4: Ergänzung zum Begriff der Mächtigkeit

Einer der wichtigen Begriffe ist der der Mächtigkeit von Mengen. Für eine ausführliche Einführung in die Grundbegriffe hierzu verweise ich auf P. Halmos [7] bzw. auf O. Deiser [7. Das Buch von Halmos ist für den Einstieg bestens geeignet, während Deiser, auf die historichen Entwicklung aufbauend, chronologisch vorgeht und viele historische Details zur Verfügung stellt.

Definition 47. (Cantor) Sind {A} und {B} Mengen, so nennt man diese gleichmächtig, wenn es eine Bijektion zwischen {A} und {B} gibt und schreibt {|A| = |B|}. Gibt es eine injektive Abbildung von {A} nach {B}, so schriebt man {|A| < |B|}. Existiert eine surjektive Abbildung von {A} auf {B}, so schreibt man {|A| > |B|}.

Satz 48. Sind {A} und {B} Mengen, so sind äquivalent:

  1. Es gibt eine injektive Abbildung {f \colon A \rightarrow B}.
  2. Es gibt eine surjektive Abbildung {g \colon B \rightarrow A}.

Beweis: Für {(1) \implies (2)} definiert man {g} auf dem Bildbereich von {f} als {f^{-1}}. Dann wählt man ein beliebiges {a \in A} und bildet alle Elemente von {B}, die nicht im Bildbereich von {f} liegen, auf dieses ausgezeichnete Element von {A} ab.

Ist {g \colon B \rightarrow A} surjektiv, so definiert man auf {B} die Relation {\sim} durch: {b \sim c \iff g(b) = g(c)}. Dann ist {\sim} eine Äquivalenzrelation auf {B} (dies muss man nachprüfen und begründen). Wir wählen nun ein Repräsentantensystem aus der Menge der Nebenklassen {B/\sim} aus (Auswahlaxiom anwenden). Da {g} surjektiv ist, finden wir zu jedem {a \in A} ein eindeutig bestimmtes Element {b} in dieser Auswahl mit {g(b) = a}. Definiere {f(a) := b}; dann ist {f} wohldefiniert und injektiv. \Box

Wichtig sind die beiden folgenden Sätze, die wir ohne Beweis angeben.

Satz 49. (Zermelo) Sind Sind {A} und {B} Mengen, so gilt entweder {|A| = |B|} oder {|A| < |B|} oder {|A| > |B|}.

Beispiel: Ist {A = {\mathbb N}} und {B = \{2k \colon k \in {\mathbb N} \}}, so sind {A} und {B} gleichmächtig (mittels {f(k) = 2k}).

Satz 50. (Cantor-Bernstein-Schröder) Sind Sind {A} und {B} Mengen und gilt {|A| < |B|} und {|B| < |A|}, so sind {A} und {B} gleichmächtig, d.h. es existiert eine bijektive Abbildung von {A} auf {B}.

Definition 51. Eine Menge {A} heißt unendlich, wenn es eine echte Teilmenge {B \subset A} gibt, mit {|A| = |B|}.

Eine Menge {A} heißt abzählbar, wenn es eine bijektive Abbildung von {A} auf {N} gibt.

Eine Menge {A} heißt überabzählbar, wenn es keine injektive Abbildung von {A} nach {N} gibt.

Beispiele für abzählbare Mengen

  • Die Menge der ganzen Zahlen {{\mathbb Z}} ist gleichmächtig zu den natürlichen Zahlen mittels

    \displaystyle  	f ( z ) = 	\begin{cases} 					2z 			&	z \geq 0, \\ 					-2z -1 		& 	z < 0. 				\end{cases}

  • Sind {A} und {B} abzählbare Mengen, so ist {A \cup B} abzählbar: Denn sind {f \colon A \rightarrow {\mathbb N}} und {g \colon B \rightarrow {\mathbb N}} Bijektionen, so ist die Abbildung

    \displaystyle  	h ( x ) = 	\begin{cases} 					f(x) 			&	x \in A, \\ 					(- g(x) + 1) 	& 	x \in B 				\end{cases}

    eine Bijektion von {A \cup B} auf {{\mathbb Z}}. Wegen {|{\mathbb Z}| = |{\mathbb N}|} folgt die Behauptung.

  • Die Menge {{\mathbb N} \times {\mathbb N}} ist abzählbar mittels der Cantorschen Paarungsfunktion {\pi} mit {\pi ( m , n ) := \frac{1}{2} ( m + n ) ( m + n + 1 ) m} (bitte mit Hilfe eines Bildes klar machen was hier passiert). Die Abzählbarkeit der Menge {{\mathbb N} \times {\mathbb N}} sieht man am auch, wenn man diese Menge als Matrix

    \displaystyle  			\left.\begin{array}{ccccc} 				(1,1) & (2,1) & (3,1) & (4,1) & \cdots \\ 				(1,2) & (2,2) & (3,2) & (4,2) & \cdots \\ 				(1,3) & (2,3) & (3,3) & (4,3) & \cdots \\ 				(1,4) & (2,4) & (3,4) & (4,4) & \cdots \\ 				\vdots & \vdots & \vdots & \vdots & \ddots 			\end{array}\right.

    schreibt und dann mittels

    \displaystyle (1,1) \rightarrow (2,1) \rightarrow (1,2) \rightarrow (1,3) \rightarrow (2,3) \; \cdots

    abzählt. Wie hängt dies mit der Paarungsfunktion {\pi} zusammen?

  • Lemma 52. Die Vereinigungsmenge von abzählbar vielen Mengen, die jede für sich abzählbar sind, ist abzählbar.

    Beweis: Es sei {\{A_{n} \colon n \in {\mathbb N}} eine abzählbare Familie von abzählbaren Mengen und {A := \bigcup _{n \in {\mathbb N}}\; A_{n}}. Da jede der Mengen {A_{n}} abzählbar ist, existiert mindestens eine injektive Abbildung {j_{n} \colon A_{n} \rightarrow {\mathbb N}}. Für jedes {n \in {\mathbb N}} wählen wir eine solches {j_{n} \colon A_{n} \rightarrow {\mathbb N}} (hier benötigen wir das Auswahlaxiom zumindestens in seiner abzählbaren Variante, es sei denn die {j_{n}} sind bereits explizit durch eine Vorschrift gegeben). Für {x \in A} sei {n(x)} die erste Zahl {n \in {\mathbb N}} mit {x \in A} und sei {j(x) := j_{n(x)}(x)}. Dann ist die Abbildung

    \displaystyle  			( x \mapsto ( n(x) , j(x) ) ) \colon A \rightarrow {\mathbb N} \times {\mathbb N}

    eine injektive Abbildung von {A} nach {{\mathbb N} \times {\mathbb N}}. Da {{\mathbb N} \times {\mathbb N}} abzählbar ist (siehe Anmerkung) folgt die Behauptung. \Box

  • Die Menge {{\mathbb Q}} ist abzählbar: Für {n \in {\mathbb N}} sei {A_{n} := \{ q \in {\mathbb Q} \colon n(q) + z(q) = n \}}, wobei {n(q)} und {z(q)} den Nenner und den Zähler (gekürzt) von {q} bezeichnen. Dann ist {A_{n}} eine endliche Menge und {{\mathbb Q} = \bigcup_{n \in {\mathbb N}} A_{n}}.
  • Die Menge {\mathbb{A}} der algebraischen Zahlen ist abzählbar: Dazu betrachtet man für jedes {n \in {\mathbb N}} die Menge aller Nullstellen {A_{n}} der Polynome vom Grand {\leq n} mit Koeffizienten aus {{\mathbb Q}}. Dies ist eine abzählbare Menge und die algebraischen Zahlen sind gerade die Vereinigungsmenge aller {A_{n}}.
  • Eine Menge {A} ist genau dann unendlich (d.h. nicht endlich), wenn sie eine abzählbare unendliche Teilmenge enthält. Es ist klar, dass eine Menge mit {|A| \geq |{\mathbb N}|} nicht endlich sein kann (da {{\mathbb N}} nicht endlich ist). Sei umgekehrt {A} eine unendliche Menge. Behauptung: Zu jedem {n \in {\mathbb N}} existiert eine Teilmenge {A_{n} \subseteq A} mit genau {n} Elementen und {A_{n-1} \subsetneqq A_{n}} für alle {n \in {\mathbb N}}.

    Hierzu sei {A_{0}:= \emptyset}. Da {X \neq \emptyset} existiert {x \in X} und wir setzen {A_{1} := A_{0} \cup \{ x \}}. Angenommen wir haben die Mengen {A_{0}, A_{1}, \ldots , A_{n-1}} wie behauptet konstruiert. Da {A_{n-1}} eine endliche Teilmenge der unendlichen Menge {X} ist, muss {X \setminus A_{n-1} \neq \emptyset} sein. Daher gibt ein {x \in X \setminus A_{n-1}} und wir setzen {A_{n} = A_{n-1} \cup \{ x \}}. Nach Induktionsvoraussetzung hat {A_{n-1}} genau {n-1} Elemente, damit {A_{n}} genau {n} und {A_{n-1} \subsetneqq A_{n}} für alle {n \in {\mathbb N}}.

    {\bigcup_{n}\;A_{n}} ist eine abzählbare, nicht endliche Teilmenge von {X}.

Nichtabzählbare Mengen

  • Die Menge der reellen Zahlen {{\mathbb R}} ist nicht abzählbar (Diagonalverfahren von Cantor).
  • Die Menge {\mathbb{T}} der transzendenten Zahlen ist nicht abzählbar: Denn wäre {\mathbb{T}} abzählbar, so wäre wegen {{\mathbb R} = \mathbb{T} \cup \mathbb{A}} auch abzählbar.

Vermischtes

  • Ist {\mathbb{F} := \{ f \colon {\mathbb R} \rightarrow {\mathbb R} \colon f \text{ ist Funktion } \} =:{\ } ^{{\mathbb R}}{\mathbb R}}, so gilt {| {\mathbb R} | < | \mathbb{F} |}. Zu {r \in {\mathbb R}} definiert man sich die Funktion {f_{r}} Angenommen es gäbe eine surjektive Abbildung {F} von {{\mathbb R}} nach {\mathbb{F}}, d.h. für ein beliebiges {r \in {\mathbb R}} ist {F(r) \in \mathbb{F}}. Dann ist die Abbildung {d} gegeben durch {d(t) := F(r)(t) + 1} in {\mathbb{F}} aber es würde

    \displaystyle d(r) = F(r)(r) + 1 	= d(r) + 1

    gelte, ein Widerspruch. Somit kann es keine surjektive Abbildung geben und damit muss {| {\mathbb R} | < | \mathbb{F} |} sein.

  • Ist {\mathfrak{C} := \{ f \colon {\mathbb R} \rightarrow {\mathbb R} \colon f \text{ ist Funktion und stetig} \}}, so gilt {| {\mathbb R} | = | \mathbb{F} |}. Dies folgt wegen der Tatsache, dass jede stetige Funktion bereits durch ihre Einschränkung auf die rationalen Zahlen {{\mathbb Q}} eindeutig bestimmt ist. Daher gilt:

    \displaystyle \mathfrak{C} \leq |^{{\mathbb Q}}{\mathbb R}| = |^{{\mathbb N}}{\mathbb R}| = |{\mathbb R}|.

  • Die Mächtigkeit der Riemann integrierbaren Funktionen ist {|F|}. Dies zeigt man mit Hilfe der Catormenge und der Tatsache, dass diese die Mächtigkeit der reellen Zahlen hat, dass jede Riemman integrierbare Funktion „fast überall“ stetig ist und dass die Cantormenge das Maß Null hat.

Für alle weiteren Details verweise ich auf die beiden bereits erwähnten Bücher von P. Halmos bzw. von O. Deiser.

7. Literatur

  1. D. Bressoud, A Radical Approach to Lebesgue’s Theory of Integration (Cambridge Press)
  2. O. Deiser, Einführung in die Mengelehre (Springer-Verlag)
  3. M. Day, Normed Linear Spaces (Springer-Verlag)
  4. C. Gasquet, Fourier Analysis and Applications (Springer-Verlag)
  5. P. Halmos, Naive Mengenlehre (Vandenhoeck)
  6. P. Halmos, Finite Dimensional Vector Spaces (Springer-Verlag)
  7. P. Halmos, Introduction to Hilbert Space, (Chelsea Publishing)
  8. H. Heuser, Gewöhnliche Differentialgleichungen (Teubner)
  9. W. Rudin, Analysis (Oldenbourg)
  10. W, Rudin, Reelle und Komplexe Analysis (oldenbourgh-Verlag)
  11. J. Dugundji, Topology (Allyn & Bacon)
  12. J. von Neumann, Mathematische Grundlagen der Quantenmechanik (Springer-Verlag)
  13. A. Kolmogorov; S. Fomin, Reelle Funktionen und Funktionalanalysis (VEB Deutscher Verlag)
  14. W. Rudin, Analysis (Oldenbourg)
  15. W. Rudin, Relle und Komplexe Analysis (Oldenbourgh)
  16. M. Schechter, Principles of Functional Analysis (AMS)
  17. E. Stein, Fourier Analysis (Princeton Press)
  18. E. Stein, Real Analysis (Princeton Press)
  19. T. Tao, Analyisis 2 (Hindustan Press)
  20. A. Zygmund, Trigonometric Series (Cambridge Press)