edit-this-file.tex 23.1 KB
Newer Older
Harry Fuchs's avatar
Harry Fuchs committed
1
Compiled on \today
Harry Fuchs's avatar
Harry Fuchs committed
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74

* Erinnerungen an WS

Wir studieren Mannigfaltigkeiten (Mfg).

$\approx$ topologische Räume, die lokal wie $\mathbb R^n$ aussehen + glatte ~Strukturen~ von glatten Abbildungen zu sprechen.

Konkret: um jeden Punkt $p\in M$ gibt es eine Umgebung $U\ni p$ zusammen mit einer Karte $x\colon U\to \mathbb R^n$

%Bild 1

Idee: da $M$ lokal wie $\mathbb R^n$ aussieht, versucht man, Objekte aus der Analysis auch auf $M$ zu verstehen.

~Wichtig dabei~: das Objekt auf $M$ muss koordinatenunabhängig werden! (Physik verlangt das auch!)

1. ~Tangentialraum~ „über“ jedem Punkt $p\in M$ „hängt“ ein Vektorraum $T_pM$, $\dim T_pM = \dim M$ Elemente von $T_pM$ heißen Tangentialvektoren.
  %TODO %TYPO: remove space here
  $$
    T_pM &=& \{ \text{Ableitungen von Funktionen an } p \}
    \\&=& \{ \partial \colon C^{\infty}(M) \to \mathbb R \text{ linear} \ |\ \partial(fg) = f(p)\cdot\partial(g) + g(p)\cdot\partial(f) \}
  $$
  
  Motto: Tangentialvektor $\mathrel{\hat=}$ Richtungsableitung!
  
  %Bild 2
  
  $\pi \colon TM \to M$ ist glatt
  $v\in T_pM \mapsto p$
  
  Nutzen: wir verstehen „wirklich“, was Ableitungen sind
  
  Früher: 
  $$
    f\in C^\infty(\mathbb R^m, \mathbb R^n) &\rightsquigarrow& D_pf \in \mathbb M_{n\times m} (\mathbb R)
    \\&& Df \in C^\infty(\mathbb R^m, \mathbb M_{n\times m}(\mathbb R))
  $$
  
  Jetzt in Diffgeo:
  
  $$1
  f\in C^\infty(M, N) \underset{p\in M}\rightsquigarrow D_pf \colon T_pM \to T_{f(p)}N \text{ linear}
  $$1
  
  %Bild 3
  
2. ODEs als Flüsse von Vektorfeldern
  %Bild 4
  
  Vektorfeld: $X\colon M \to TM$ mit $\pi \circ X = id_M$ ($\Leftrightarrow X(p) \in T_pM$)
  Gegeben $X \rightsquigarrow \Phi \colon \underset{\subseteq \mathbb R \times M}W \to M$ (Fluss des Vektorfeldes)
  
  s.d. $\forall p\in M\ \gamma_p(t) := \Phi(t,p)$ die ODE
  $$1
    \dot \gamma(t) = X(\gamma(t))
  $$1
  lässt

3. Lie-Klammer von Vektorfeld und Lie-Gruppen Auf Vektorfeldern auf $M$ ergibt es eine interessante algebraische Struktur: die Lie-Klammer: gegeben $X$, $Y \in \underbrace{\Gamma(TM)}_{Vektorfeld} \rightsquigarrow [X,Y] \in \Gamma (TM)$
  
  $(\Gamma(TM), [\cdot, \cdot])$ wird zu einer Lie-Algebra.
  
  Def. Eine Lie-Algebra $(V, [\cdot, \cdot])$ ist ein Vektorraum $V$ mit einer bilinearen Abbildung $[\cdot, \cdot]: V\times V \to V$ mit folgenden Eingenschaften:
  
    1. $[X,Y] = -[Y,X]$, $\ X$, $Y \in V$
    2. Jacobi-Identität: $X$, $Y$, $Z\in V$:
    $$
      [X, [Y,Z]] + [Y, [Z, X]] + [Z, [X,Y]] = 0
    $$
    
  Beispiele:
    1. $\Gamma(TM)$, $[\cdot, \cdot]$ ist eine Lie-Algebra
    2. $\mathbb M_u(\mathbb R)$, $[A,B] = AB - BA$ ist eine Lie-Algebra
  
Harry Fuchs's avatar
Harry Fuchs committed
75
  Verbindung zwischen a) und b)%ref
Harry Fuchs's avatar
Harry Fuchs committed
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
  -- Lie-Gruppen
  Lie-Gruppe $=$ Mannigfaltigkeit und Gruppe (auf kompatible Weise) Multiplikation, Inversion glatt.
  
  $G$ Lie-Gruppe $\rightsquigarrow \operatorname{Lie}(G) = 2(G) = \{ X\in \Gamma(TG) \ |\ \underbrace{(Lg)_*}_{(Lg)_{*,p} = D_pLg} X = X \} = \{ x\ |\ x \text{ linksinvariantes Vektorfeld } \}$
  
  $\rightarrow$ Lie-Algebra bzgl. $[\cdot, \cdot]$, heißt Lie-Algebra von $G$.
  
  Eigenschaften: $\operatorname{Lie}(G) \cong T_1G$ als Vektoraum
  $\Rightarrow \dim_{\mathbb R} \operatorname{Lie}(G) = \dim G$
 
  %TODO %TYPO vertical space
  $$
    Lg \colon G &\to& G\\
    h &\mapsto& g\cdot h
  $$

  Satz $G = GL(n, \mathbb R) \underset{\text{offen}}{\subset} \mathbb M_n(\mathbb R)$
  
  $\operatorname{Lie}(G) \cong T_1G \underset{\text{Vektoraum}}\cong \mathbb M_n (\mathbb R)$
  
  Dies ist auch ein Isomorphismus zwischen Lie-Algebren!
  
  $$1
    (\operatorname{Lie}(\operatorname{GL(n, \mathbb R)}), [\cdot, \cdot]) \cong (\mathbb M_n(\mathbb R), [\cdot, \cdot])
  $$1
  
  Für jedes $G< \operatorname{GL}(n, \mathbb R)$ ist dann $\operatorname{Lie}(G) \subseteq (\mathbb M_n(\mathbb R), [\cdot, \cdot])$.
  $$1
    [A,B] = AB - BA
  $$1
Harry Fuchs's avatar
Harry Fuchs committed
106
107

%DATE 2019-04-02
Harry Fuchs's avatar
Harry Fuchs committed
108

Harry Fuchs's avatar
Harry Fuchs committed
109
* Übung 1
Harry Fuchs's avatar
Harry Fuchs committed
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147

Differential einer Abbildung

$$1
  f\colon \mathbb R^n  \to \mathbb R^n
$$1

$$
p\in \mathbb R^n\ \ \ D_p f \colon \mathbb R^n &\to& \mathbb R^m (\text{linear})
\\ v &\mapsto& \underbrace{\partial_vf(p)}_{=D_pf(v)}
$$

$$
  \partial_v f(p) &=& \sum_{i=1}^n \left.\frac{\partial f}{\partial x^i}\right|_p v^i
  \\ D_pf \underset{\text{als Matrix}}{=} \left(\frac{\partial f_i}{\partial x^j} \right)_{
    \begin{matrix}
      i = \overline{1, m} \\
      j = \overline{1, n}
    \end{matrix}}
$$

$$
  f\colon M\to N
$$
$$
  p\in M \rightsquigarrow D_p f \colon &T_p M& \to T_{f(p)}N\ \text{linear}
  \\ &\reflectbox{\rotatebox[origin=c]{90}{$\in$}}&
  \\ &v& \mapsto (\underbrace{\varphi}_{C^\infty} \mapsto v(f^*\varphi)) = v(\underbrace{\phi \circ f}_{\in C^\infty(M)})
$$

$v \mathrel{\hat=}$ Ableitungsoperation ($v\colon C^\infty(M) \to \mathbb R$) mit $v(fg) = f(p)v(g) + g(p)v(f)$

\begin{tikzcd}
M \arrow[r, "f"] \arrow[rr, "f^*\varphi"', bend right] & N \arrow[r, "\varphi"] & \mathbb R
\end{tikzcd}

%TODO vertical line

Harry Fuchs's avatar
Harry Fuchs committed
148
149
%2019-??-??

Harry Fuchs's avatar
Harry Fuchs committed
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
TODO Bildchen %TODO

$$
  M &\overset f\to& N
  \\ &\reflectbox{\rotatebox[origin=c]{270}{$\leadsto$}}&
  \\ C^\infty(N) &\overset{f^*}{\to}& C^\infty(M)\ \text{linear, sogar Algebrenhomomorphismus}%TODO letzes Wort nicht verstanden
  \\ \varphi &\mapsto& \varphi\circ f
$$

Jeder Tangentialvektor $v$ ist eine lineare Abbildung $v\colon C^\infty(M) \to \mathbb R$, dann ist $\underbrace{v\circ f^*}_{=D_{\pi(v)}f(v) = f_*v} \colon C^\infty(M) \to \mathbb R$ linear

%TODO vertical line

** Beispiel

$$1
  G = U(n) = \{ A \in \mathbb M_n (\mathbb C) \ |\ A^*A = 1 \} \subseteq \operatorname{GL}(n, \mathbb C)
$$1

$$
  &\operatorname{Lie}(G)& = \operatorname{og} = \underline{u}(n) = {?} = \{ X\in \mathbb M_n \mathbb(C) \ |\ X^* = -X \},\ [\cdot, \cdot]
  \\&\reflectbox{\rotatebox[origin=c]{90}{$\cong$}}&\\
  &T_1G& \subset T_1\operatorname{GL}(n, \mathbb C) \cong \operatorname{gl}(n, \mathbb C) \cong \mathbb M_n(\mathbb C)
  \\&\reflectbox{\rotatebox[origin=c]{90}{$=$}}&\\
  \{&\dot\gamma(0)& \ |\ \gamma\colon(-\epsilon, \epsilon) \to G \wedge \gamma(0) = 1\}
$$

Sei $\gamma\colon(-\epsilon, \epsilon) \to G$ eine Kurve, $\gamma(0)=1$

$G=U(n)\Rightarrow \gamma(t)^*\cdot \gamma(t) = 1 \leftarrow \left.\frac{d}{dt}\right|_{t=0}$

$$
  \dot\gamma(0)^*\gamma(0) &+& \gamma(0)^*\dot\gamma(0) = 0\\
  &\reflectbox{\rotatebox[origin=c]{90}{$=$}}&\\
  \dot\gamma(0)^* &+& \dot\gamma(0) = 0
$$

Also:

$$
  T_1(G) \subseteq \{ X\in \mathbb M_n(\mathbb C)\ |\ X^* = -X \}
$$

Dazu: Zeige $\supseteq$ betrachte:
$$
  \gamma(t) := e^{tX} \left(:= \sum_{k=0}^\infty \frac{t^k X^k}{k!}\right)
\\  \gamma(t)^* = e^{tX^*} = e^{-tX}
\\  \gamma(t)*\gamma(t) = e^{-tX}\cdot e^{tX} = 1 \Rightarrow \gamma(t)\in \operatorname{U}(n)
\\ \dot\gamma(t) = Xe^{tX} \Rightarrow \dot\gamma(0) = X
$$
wie gewünscht. $\Rightarrow$ Gleichheit

%Hinweis nur mündlich:
$$
  D_1 \det = (A\mapsto \operatorname{Trace}(A))
$$

$$
  G = U(n) < \operatorname{GL}(n,\mathbb R)
  \operatorname{og} = \underline{u}(n) \subset \operatorname{gl}(n,\mathbb R) = \mathbb M_n(\mathbb R)
$$

Wir haben gesehen:
$$
  \exp \colon &\operatorname{og}& \to G\\
  &\reflectbox{\rotatebox[origin=c]{90}{$\in$}}&\\
  &X& \mapsto \exp(X)
$$

$$
  \gamma(t) = e^{tX} = \exp(tX)
$$

$$
  \dot\gamma(t) = Xe^{tX} = e^{tX} \cdot X = \gamma(t) \cdot X = \left( L_{\gamma{(t)}} \right)_* \underbrace{X}_{\in T_1G} = \tilde X(\gamma(t))
$$

wobei $\tilde X$ das linksinvariante Vektorfeld zu $X$ ist

$\Rightarrow \gamma(t)$ ist eine Integralkurve von $\tilde X$

Ausführlicher:

$G\in \operatorname{GL}(m, \mathbb R) \subset \mathbb M_n(\mathbb R) \cong \mathbb R^{n^2}$

$$
  X\in T_1G \rightsquigarrow
  \underbrace{\tilde X(A)}_{ \text{linksinvariantes VF} }
  = \underbrace A_{\in G}\cdot X \in T_AG\subseteq \mathbb M_n(\mathbb R)
$$

Eine Integralkurve $A(t) \in G$ von $\tilde X$ erfüllt dann:
$$
  \dot A(t) = A(t)\cdot X
$$

$\rightsquigarrow$ mit $A(0) = 1 \rightsquigarrow A(t) = e^{tX}$

%TODO vertical line

$$
  x &\mapsto& A\cdot x
  \\ f\colon \mathbb R^n &\to& \mathbb R^n \ \text{linear}
  \\ \Rightarrow D_pf = f\colon \mathbb R^n &\to& \mathbb R^m
  \\
  \\ f\colon V &\to& W \text{ linear}
$$

mit Übung 28 %TODO ref
$p\in V$:


\begin{center}
  \begin{tikzcd}
  T_pV \arrow[r, "D_pf"] \arrow[d, phantom, "\reflectbox{\rotatebox[origin=c]{90}{$\cong$}}" description] & T_pW \arrow[d, phantom, "\reflectbox{\rotatebox[origin=c]{90}{$\cong$}}" description] \\
  V \arrow[r, "f"]                                      & W
  \end{tikzcd}
\end{center}

%TODO vertical line
%TODO das war das mündliche Zeug

$$
  \det \gamma(t) = 1 \leftarrow \left.\frac{d}{dt}\right|_{t=0}
$$

$$
  \det \colon \operatorname{GL}(n, \mathbb R) \to \mathbb R
$$

$$
  D_1 \det \colon \mathbb M_n(R) &\to &\mathbb R
  \\ A &\mapsto& {?} = \operatorname{Tr}(A)
$$

$$
  \det (1+tA) = 1 + ({?}) + O(t^2)
$$

Determinante ist Konjugationsinvariant

$$1
  \det(1+tA) = \det (1+tBAB^{-1})
$$1

Wenn $A$ diagonalisierbar ist folgt somit:

$$
  \det (1+tA)
  &=&
    \left|\begin{matrix}
      1+t\lambda_1& & \\
      & \ddots & \\
      && 1+t\lambda_n
    \end{matrix}\right|
  \\&=&
    (1+t\lambda_1)\cdots(1+t\lambda_n)
  \\&=&
    1+t(\lambda_1 + \lambda_n) + O(t^2)
  \\&=&
    1 + t\cdot \operatorname{Trace}(A) + O(t^2)
$$
Harry Fuchs's avatar
Harry Fuchs committed
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450


* Integration auf Mannigfaltigkeiten

Suchen eines koordinateninvarianten Integrationsbegriffs

%TODO schöner
\begin{tikzcd}
 \arrow[rr, "U", no head]  &  & \mathbb R^n                                        \\
                           &             & \downarrow \ \alpha \colon U\overset{\cong} \to V \text{ Diffeo} \\
 \arrow[rr, "V"', no head] &             & \mathbb R^n                                       
\end{tikzcd}

Betrachte $n=1$:

$U$, $V \subseteq \mathbb R$ offenen Intervalle. $\alpha\colon \underbrace{U}_{=(a,b)} \to V$ Diffeo ($=$ strikt monotone glatte Fkt.)

Transformationsformel:
$$
  \int_{\alpha(a)}^{\alpha(b)} f(\alpha(t))\alpha'(t)\,\mathrm d t = \int_{a}^{b}f(t)\,\mathrm dt
$$

„Mnemonik“:
$$
  \intd v = v'(u)\intd u
$$

$f\colon V\to \mathbb R$
$$
  \int_{U}(\alpha^*(f))(u)\alpha'(u)\intd u = \int_V f(v)\intd v \neq \int_V \alpha^*(f)(t) \intd t
$$

In $\mathbb R^n$:

$$
\int_U \alpha^*(t)(\det D_u\alpha)\intd_{u_1}\cdots\intd_{u_n} = \int_V f(v) \intd_{v_1}\dotsm\intd_{v_n}
$$

$$
\alpha \colon &U& \to V \text{ Diffeo}
\\ &(u_1,\dotsc,u_n)& \mapsto (v_1, \dotsc, v_n)
$$

$v=v(u)$
$$
\int_V f(v) \intd v_1 \intd v_2
$$

$$
  \intd v_1
  = \frac{\partial v_1 }{\partial u_1 }\intd u_1 
  + \frac{\partial v_1 }{\partial u_2 }\intd u_2
$$

$$
  \intd v_2
  = \frac{\partial v_2 }{\partial u_1 }\intd u_1 
  + \frac{\partial v_2 }{\partial u_2 }\intd u_2 
$$

$$
  \intd v_1 \intd v_2
  = \xcancel{\frac{\partial v_1 }{\partial u_1 }\frac{\partial v_2 }{\partial u_1 } \intd u_1 \intd u_1}
  + \xcancel{\frac{\partial v_1 }{\partial u_2 }\frac{\partial v_2 }{\partial u_2 } \intd u_2 \intd u_2}
  + \frac{\partial v_1 }{\partial u_1 }\frac{\partial v_2 }{\partial u_2 } \intd u_2 \intd u_2
  + \frac{\partial v_1 }{\partial u_2 }\frac{\partial v_2 }{\partial u_1 } \intd u_2 \intd u_1
  =: (*)
$$

$$
  = \int_V f(v) \intd v_1 \intd v_2
  = \int_U f(v(u))
%   \left%TODO overcome boxes
  \Bigg
  (
    \underbrace{
      \frac{\partial v_1 }{\partial u_1 } \frac{\partial v_2}{\partial u_2} - \frac{\partial v_1}{\partial u_2}\frac{\partial v_2}{\partial u_1}
    }_{
      \underset{
        \begin{subarray}{c}
          \text{sollte}\\
          (*)\text{ sein}
        \end{subarray}
      }{=} \det \left(
      \begin{matrix}
        \frac{\partial v_1}{\partial u_1} & \frac{\partial u_1}{\partial u_2}
        \\ \frac{\partial v_2}{\partial u_1} & \frac{\partial v_2}{\partial u_2}  
      \end{matrix}\right)
    }
  \Bigg
%   \right
  )
  \intd u_1 \intd u_2
$$

Damit die Mnemonik stimmt, muss also gelten:

$$
  \intd u_1 \cdot \intd u_1 &=& \intd u_2 \cdot \intd u_2 = 0
  \\ \intd u_1 \cdot \intd u_2 &=& - \intd u_2 \cdot \intd u_1 = 0
$$

Erkenntniss:

Koordinatenfrei werden nicht Funktionen, sondern sogenannte Differentialformen integriert. Eine $n$-Differentialform auf $\mathbb R^n$ ist (informell) ein Ausdruck
$$
  \omega = f(x) \intd x_1 \wedge \ldots \wedge \intd x_n
$$
mit den Rechenregeln: wenn $x=x(y)$ mit $y = (y_1,\dotsc,y_n)$ dann transformiert sich der Ausdruck zu 

$$
  f(x(y))
  \left(
    \frac{\partial x_1}{\partial y_1}\intd y_1 + \ldots + \frac{\partial x_1}{\partial y_n}\intd y_n
    \wedge \ldots \wedge
    \frac{\partial x_n}{\partial y_1}\intd y_1 + \ldots + \frac{\partial x_n}{\partial y_n}\intd y_n
  \right)
$$

und es gilt:

$$
 T^*M \ni \intd y_i \wedge \intd y_j = -\intd y_j \wedge \intd y_i,\ \ \ \ i,j = 1,\ldots, n
$$

folglich ist $\int \omega$ unabhängig von Koordinaten.

Ziel:

* Das Tensorprodukt

ausgehend von einem Vektoraum $V(= T_pM, T_p^*M)$ einen Kalkühl zu entwickeln, welcher die Interpretation von Ausdrücken wie $\intd x_1 \wedge \ldots \wedge \intd x_k$ mit Rechenregeln $\intd x_i \wedge \intd x_j = \intd x_j \wedge \intd x_i$ erlaubt.

Das wird durch Theorie von Tensorprodukten und multiliniearen (z.B. $\det\colon \underbrace{\mathbb R^n \times \ldots \times \mathbb R^n}_{n\text{-mal}} \to \mathbb R$) Abbildungen gemacht

Hauptidee: eine multilinieare Abbildung $f\colon V_1 \times \ldots \times V_n \to W$. Es reicht diese Idee für bilineare Abbildungen zu realisieren. (dann wiederholt man es)

** Definition: Tensorprodukt

Harry Fuchs's avatar
Harry Fuchs committed
451
Ein Vektoraum $V\otimes W$ zusammen mit einer bilinearen Abbildung $i\colon V \times W \to V \otimes W$ heißt Tensorprodukt von $V$ und $W$, wenn für jede bilineare Abbildung $f \colon V\times W \to Z$, ($Z$ beliebiger Vektoraum) eine eindeutige lineare Abbildung $\bar f \colon V\otimes W \to Z$ existiert mit $\bar f\circ i = f$ (genannt universelle Eigenschaften)
Harry Fuchs's avatar
Harry Fuchs committed
452
453
454
455
456
457
458
459

\begin{center}
\begin{tikzcd}
V\times W \arrow[r, "i"] \arrow[rd, "f"'] & V\otimes W \arrow[d, "\exists!\bar f", dashed] \\
                                          & Z                                             
\end{tikzcd}
\end{center}

Harry Fuchs's avatar
Harry Fuchs committed
460
** Lemma: Eindeutigkeit des Tensorprodukts $V\otimes W$
Harry Fuchs's avatar
Harry Fuchs committed
461

Harry Fuchs's avatar
Harry Fuchs committed
462
Wenn $V\otimes W$ existiert, dann ist es eindeutig bis auf einen eindeutigen Isomorphismus.
Harry Fuchs's avatar
Harry Fuchs committed
463
464
465
466
467

Beweis:

\begin{center}
\begin{tikzcd}
Harry Fuchs's avatar
Harry Fuchs committed
468
469
V + W \arrow[r, "i_1"] \arrow[rd, "i_2"'] & (V\otimes W)_1 \arrow[d, "\exists!f_1", dashed] &  \                                 \\
                                          & (V\otimes W)_2                                  &  \arrow[u, "\exists!f_2", dashed]
Harry Fuchs's avatar
Harry Fuchs committed
470
471
472
\end{tikzcd}
\end{center}

Harry Fuchs's avatar
Harry Fuchs committed
473
Die universelle Eigenschaft von $(V\otimes W)_1$ liefert $f_1\colon (V\otimes W)_1 \to (V\otimes W)_2$ mit $f_1\circ i_1 = i_2$.
Harry Fuchs's avatar
Harry Fuchs committed
474

Harry Fuchs's avatar
Harry Fuchs committed
475
Die universelle Eigenschaft von $(V\otimes W)_2$ liefert $f_2\colon (V\otimes W)_2 \to (V\otimes W)_1$ mit $f_2\circ i_2 = i_1$.
Harry Fuchs's avatar
Harry Fuchs committed
476
477
478
479
480

Beh. $f_1$, $f_2$ sind invers zueinander. Betrachte z.B.: $f_1\circ f_2$

\begin{center}
\begin{tikzcd}
Harry Fuchs's avatar
Harry Fuchs committed
481
482
V\otimes W \arrow[r, "i_2"] \arrow[rd, "i_2"'] & (V\otimes W)_2 \arrow[d, "f_1\circ f_2"] & \                   \\
\                                             & (V\otimes W)_2                           & \  \arrow[u, "id"']
Harry Fuchs's avatar
Harry Fuchs committed
483
484
485
\end{tikzcd}
\end{center}

Harry Fuchs's avatar
Harry Fuchs committed
486
Wegen der Eigenschaften in der Definition von $(V\otimes W)_2$ ist $f_1\circ f_2 = \operatorname{id}_{(V\otimes W)_2}$. Analog gilt $f_2\circ f_1 = \operatorname{id}_{(V\circ W)_1}$
Harry Fuchs's avatar
Harry Fuchs committed
487

Harry Fuchs's avatar
Harry Fuchs committed
488
** Existenz von $V \otimes W$
Harry Fuchs's avatar
Harry Fuchs committed
489

Harry Fuchs's avatar
Harry Fuchs committed
490
Idee: $V\otimes W$ soll von Ausdrücken der Form $v\otimes w$, $v\in V$, $w\in W$ aufgespannt werden und $v\otimes w$ soll linear in $V$ und $W$ sein.
Harry Fuchs's avatar
Harry Fuchs committed
491
492
493
494
495
496

Definition:
Sei $X$ eine Menge. Der freie (re­elle) Vektoraum auf $X$, $\mathcal F_{\mathbb R}(X)$, ist der %TODO der?
(reelle) Vektoraum mit Basis $X$.

$$
Harry Fuchs's avatar
Harry Fuchs committed
497
  \mathcal F_{\mathbb R}(X) \cong \{ f\colon X\to \mathbb R\ |\ f(x) \neq 0 \text{ für endlich viele } x\in X \}
Harry Fuchs's avatar
Harry Fuchs committed
498
499
500
$$

$$
Harry Fuchs's avatar
Harry Fuchs committed
501
  V\otimes W :=
Harry Fuchs's avatar
Harry Fuchs committed
502
503
  {
    \mathcal F(V\times W)
Harry Fuchs's avatar
Harry Fuchs committed
504
  }/{
Harry Fuchs's avatar
Harry Fuchs committed
505
506
507
508
509
510
511
512
513
514
515
516
    \left\langle
    \begin{subarray}{l}
      (v_1+v_2, w) -(v_1,w) -(v_2,w), v_1, v_2 \in V, w\in W \\
      (v, w_1+w_2) -(v,w_1) -(v,w_2), v \in V, w_1, w_2\in W \\
      \left.
      \begin{subarray}{l}
        (\lambda v, w) - \lambda(v,w) \\
        (v, \lambda w) - \lambda(v,w) \\
      \end{subarray}
      \right\}
      v \in V, w\in W, \lambda \in \mathbb R
    \end{subarray} \right\rangle
Harry Fuchs's avatar
Harry Fuchs committed
517
  }
Harry Fuchs's avatar
Harry Fuchs committed
518
519
520
521
$$

Sei
$$
Harry Fuchs's avatar
Harry Fuchs committed
522
523
  i \colon &V\times W& \to V\otimes W
  \\ &(v,w)& \mapsto [(v,w)] =: v\otimes w
Harry Fuchs's avatar
Harry Fuchs committed
524
525
526
527
528
$$

Diese Definition heißt, dass folgende Rechenregeln gelten:

$$
Harry Fuchs's avatar
Harry Fuchs committed
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
  (v_1+v_2)\otimes w &=& v_1\otimes w + v_2 \otimes w
  \\ v\otimes (w_1 + w_2) &=& v\otimes w_1 + v\otimes w_2
  \\ \lambda(v\otimes w) &=& v\otimes \lambda w = \lambda v\otimes w,\ \ v_1, v_2 \in V, w_1, w_2 \in W, \lambda \in \mathbb R
$$

%%%%2019-04-10


$$
  \langle \cdot \rangle = \operatorname{span}(\cdot)
$$

wenn $E$ ein Vektoraum ist, $E' \subseteq E$ Untervektorraum, dann ist ${E}/{E'} = \{ e+E'\ |\ e\in E \}$ mit mengenmäßiger Addition und Skalarmultiplikation. (bei uns ist $E = \mathcal F(V\times W)$, $E' = \langle \ldots \rangle$)

Interpretation: ${E}/{E'} =$ Vektoraum der Äquivalenzklassen von Vektoraum in $E$ modulo $E'$. 
($e'=0$, $e'\in E'$) %TODO ?

Entsprechend ist

$$
  V\otimes W = \operatorname{span}\{ \underbrace{v\otimes w}_{=[(v,w)]}\ |\ v\in V, w\in W \}
$$

mit den Relationen:
$$
  (v_1+v_2)\otimes w &=& v_1\otimes w + v_2 \otimes w
  \\ v\otimes (w_1 + w_2) &=& v\otimes w_1 + v\otimes w_2
  \\ \lambda(v\otimes w) &=& v\otimes \lambda w = \lambda v\otimes w,\ \ v_1, v_2 \in V, w_1, w_2 \in W, \lambda \in \mathbb R
$$

** Lemma

Die angegebene Konstruktion von $V\otimes W$ erfüllt die universelle Eigenschaft.

Beweis:

Sei $f\colon V\times W \to Z$ gegeben, bilinear

Definiere

$$
  \hat f\colon V\times W &\to& Z,\ \ \ \ \text{linear}
  \\ \sum_{i=1}^k \lambda_i(v_i, w_i) &\mapsto& \sum_{i=1}^k \lambda_i f(v_i, w_i)
$$

Behauptung: $\hat f$ induziert eine lineare Abbildung $\bar f$
$$
  \bar f\colon V\otimes W &\to& Z
  \\ (v\otimes w) &\mapsto& \hat f((v,w))
$$

Dazu muss man überprüfen, dass $(v_1 + v_2, w) - (v,w) - (v_2, w)$ sowie andere Relationen von irgendwas oben %TODO ref 
im Kern von $\hat f$ liegen. Das ist dadurch gewährleistet, dass $f$ bilinear ist, z.B.

$$
  && \hat f( (v_1 + v_2, w) - (v_1, w) - (v_2, w) )
  \\ &\overset{\text{Def. } \hat f}{=}& f(v_1 + v_2, w) - f(v_1, w) - f(v_2, w)
  \\ &\overset{\text{Bilinearität von } f}=& 0
$$

$\Rightarrow$ $\bar f$ erfüllt dann $\bar f(v\otimes w) = f(v,w) \Rightarrow V\otimes W$ erfüllt die universelle Eigenschaft.

** Homomorphismen und Dualräume: (Erinnerung aus LAAG)

$V$, $W$ Vektorräume $\rightsquigarrow Hom(V,W) = \{ f\colon V\to W\ |\ f \text{ linear } \}$ ist selbst ein Vektoraum, wenn $V$, $W$ endlichdimensional $\Rightarrow \operatorname{dim} \operatorname{Hom}(V,W) = \operatorname{dim}V \cdot \operatorname{dim} W$ ($\operatorname{Hom}(V,W) \cong \mathbb{M}(m\times n, \mathbb R)$, wenn $V\cong \mathbb R^n$, $W\cong \mathbb R^m$) 

$V^* := \operatorname{Hom}(V, \mathbb R)$ ist dann der Dualraum von $V$. Wenn $\{ e_i \}_{i=1}^n$ eine Basis in $V$ ist, dann gibt es die duale Basis $\{ \alpha_j \}_{j=1}^n \subset V^*$ mit: $\alpha_j(e_i) := \delta_{ij} = \begin{cases} 1,  & i=j \\ 0, & i\neq j \end{cases}$

Schließlich ist für $\operatorname V < \infty$ die Einbettung $i\colon V\to V^{**}$, $v\mapsto (\alpha \mapsto \alpha(v))$ ein Isomorphismus

** Proposition

$W\otimes V^*$ ist kanonisch isomorph zu $\operatorname{Hom}(V,W)$ für endlichdimensionale $V$, $W$. Insbesondere gilt dann:

$$
  \operatorname{dim} W\otimes V^* = \operatorname{dim} W \cdot \operatorname{dim} V = \operatorname{dim} W \otimes V
$$

Mehr: wenn $\{ f_j \}^m_{j=1}$ und $\{ e_i \}^n_{i=1}$ Basen in $W$ bzw. $V$ sind. Dann ist $\{ f_j \otimes e_i \}_{i=1,\dotsc, n; j=1,\dotsc, m}$ eine Basis in $W\otimes V$

Beweis:

Sei $L\colon W\times V^* \to \operatorname{Hom}(V,W)$, $(w,\alpha) \mapsto (\theta_{w,\alpha} \colon v \mapsto \alpha(v)\cdot w)$, ($\theta_{w,\alpha}\operatorname{Rang} 1$-Operator definiert durch $\alpha$, $w$)

$L$ ist bilinear, weil:

$$
  && (L(w_1 + \lambda w_2, \alpha_1 + \mu\alpha_2))(v)
  \\&=& (\alpha_1 + \mu\alpha_2)(v)\cdot(w_1 + \lambda w_2)
  \\&=& \underbrace{ \alpha_1(v)w_1 }_{L(w_1, \alpha_1)(v)}
  + \underbrace{ \mu \alpha_2(v)w_1 }_{L(w_1, \alpha_2)(v)}
  + \lambda \underbrace{ \alpha_1(v)w_2 }_{L(w_2, \alpha_1)(v)}
  + \mu\lambda \underbrace{ \alpha_2(v)\cdot w_2 }_{L(w_2, \alpha_2)(v)}
$$

Nach der universellen Eigenschaft vom Tensorprodukt bekommen wir eine lineare Abbildung

Harry Fuchs's avatar
Harry Fuchs committed
626
$$
Harry Fuchs's avatar
Harry Fuchs committed
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
  \bar L \colon W\otimes V^* &\to& \operatorname{Hom}(V,W)
  \\ w\otimes \alpha &\mapsto& \theta_{w,\alpha}
$$

$\bar L$ ist ein Isomorphismus: geben wir das Inverse an. Sei $\{ e_i \}_{i=1}^n$ eine Basis on $V$, $\{ \alpha_i \}_{i=1}^n$ die duale Basis in $V^*$. Definiere

$$
  \varphi \colon \operatorname{Hom}(V,W) &\to& W\otimes V^*
  \\ T &\mapsto& \sum_{i=1}^n T(e_i) \otimes \alpha_i
$$

$$
  \varphi \circ \bar L(w\otimes \alpha) &=& \varphi(\theta_{w,\alpha})
  \\&=& \sum_{w,\alpha} (e_i) \otimes \alpha_i
  \\&=& \sum_{i=1}^{n} \alpha(e_i)w\otimes \alpha_i
  \\&=& w\otimes \left( \sum_{i=1}^{n}\alpha(e_i)\cdot \alpha_i \right)
  \\&=& w\otimes \alpha
  \\&\Rightarrow& \varphi \circ \bar L = \operatorname{id}
$$

$$
  (\bar L\circ \varphi(T)(v)) 
  &=& \sum_{i=1}^{n} \theta_{T(e_i), \alpha_i}(v)
  \\&=& \sum_{i=1}^{n}\alpha_i(v)T(e_i)
  \\&=& T\left(\sum_{i=1}^{n} \alpha_i (v) e_i\right)
  \\&=& T(v) 
  \\&\Rightarrow& \bar L \circ \varphi = \operatorname{id}
$$

$W\otimes W$ ist nach Konstruktion aufgespannt durch $f_j \otimes e_i$, $\operatorname{dim} W\otimes V = \operatorname{dim} W \cdot \operatorname{dim} V \Rightarrow \{ f_j \otimes e_i \}$ ist eine Basis.

** Korollar

Wenn $X$, $Y$ endliche Mengen sind, dann gilt:

$$
  \mathcal F(X\times Y) \cong \mathcal{F}(X) \otimes \mathcal{F}(Y)
$$

Erinnerung: hier gilt $\mathcal F(X) = \{ f\colon X \to \mathbb R \}$ mit punktweisen Operationen

** Korollar

$W\otimes V \cong V\otimes W$, $W\otimes(V\otimes Z) = (W\otimes V)\otimes Z$

Bemerkung: Es gilt auch ohne Einschränkung auf Dimensionen

** Definition Tensor

Ein Tensor vom Typ $(r,s)$ (zum Vektoraum $V$) ist ein Element des Vektoraumes

$$
  T_{r,s}(V) := V \underbrace{ \otimes \ldots \otimes V }_{r\text{-mal}} \otimes \underbrace{ V^* \otimes \ldots \otimes V^* }_{s\text{-mal}}
$$

Bemerkung: Wenn $\{ e_i \}_{i=1}^n$ eine Basis in $V$, $\{ \alpha_i \}_{i=1}^n \subset V^*$ duale Basis. $\rightsquigarrow$

$$
  \{ e_{i_1} \otimes \ldots \otimes e_{i_r} \otimes \alpha_{j_1} \otimes \ldots \otimes \alpha_{j_r} \ |\ i_1, \ldots, i_r, j_1, \ldots, j_s \in \{ 1,\ldots, n \} \}
$$

ist eine Basis in $T_{r,s}$ (Beweis: wende induktiv die Proposition an).

$\Rightarrow$ jedes $T\in T_{r,s}(V)$ ist darstellbar also

$$
  T= \sum_{i_1, \ldots, i_r, j_1, \ldots, j_s \in \{ 1,\ldots, n \} } T_{j_1,\ldots,j_s}^{i_1,\ldots,i_r} (e_{i_1} \otimes \ldots \otimes e_{i_r}\otimes \alpha_{j_1} \otimes \ldots \otimes \alpha_{j_s})
$$

Beispiel $T_{1,1} (V) = V\otimes V^* \cong \operatorname{Hom}(V,V) = \operatorname{End}(V)$ d.h., elemente von $T_{1,1}$ kann man als lineare Abbildung von $V$ nach $V$ interpretieren. Multilinear heißt linear in jeder Komponente. Sei
$$
  M_{s,r}(V) := \{ f\colon \underbrace{ V\times \ldots \times V }_{s\text{-mal}} \times \underbrace{ V^* \times \ldots \times V^* }_{r\text{-mal}} \to \mathbb R\ |\ f \text{ multiliniear } \}
$$

** Proposition

$T_{r,s}(V)$ ist kanonisch isomorph zu $M_{s,r} (V)$

** Korollar

$$
  \operatorname{Bil}(V) = \{ b\colon V\times V \to \mathbb R \text{ biliniear} \} \cong V^*\otimes V^*
$$

Insbesondere ist ein Skalarpodukt auf $V$ ein Tensor vom Typ $(0,2)$ Notation $g_{i,j}$ für Koordinaten einer Metrik ist konstant mit Tensorprodukten.
Harry Fuchs's avatar
Harry Fuchs committed
712