Sei
[
Ω
,
F
,
P
]
{\displaystyle [\Omega ,{\mathcal {F}},P]}
ein Wahrscheinlichkeitsraum. Eine zufällige Größe
X
:
Ω
→
R
{\displaystyle X:\Omega \to \mathbb {R} }
auf diesem Raum heißt normalverteilt mit den Parametern
α
{\displaystyle \alpha }
und
σ
2
{\displaystyle \sigma ^{2}}
, wobei
α
∈
R
{\displaystyle \alpha \in \mathbb {R} }
und
σ
>
0
{\displaystyle \sigma >0}
sind, falls
X
{\displaystyle X}
die folgende Dichtefunktion besitzt:
(3.1)
f
X
(
u
)
:=
g
α
,
σ
2
(
u
)
=
1
2
π
σ
exp
{
−
(
u
−
α
)
2
2
σ
2
}
(
u
∈
R
)
.
{\displaystyle f_{X}(u):=g_{\alpha ,\sigma ^{2}}(u)={\frac {1}{{\sqrt {2\pi }}\sigma }}\exp \left\{-{\frac {(u-\alpha )^{2}}{2\sigma ^{2}}}\right\}\quad (u\in \mathbb {R} ).}
Symbolisch schreiben wir
X
∼
N
(
α
,
σ
2
)
{\displaystyle X\sim {\mathcal {N}}(\alpha ,\sigma ^{2})}
. Falls
X
∼
N
(
0
,
1
)
{\displaystyle X\sim {\mathcal {N}}(0,1)}
, so heißt
X
{\displaystyle X}
standardnormalverteilt. Die Normalverteilung nennt man auch Gauß-Verteilung.
Wir setzen als aus der Analysis bekannt voraus
(3.2)
∫
−
∞
∞
e
−
u
2
/
2
d
u
=
2
π
.
{\displaystyle \int \limits _{-\infty }^{\infty }e^{-u^{2}/2}\,du={\sqrt {2\pi }}.}
Aus (3.2) folgt, dass
g
0
,
1
{\displaystyle g_{0,1}}
eine Dichtefunktion ist. Für
α
∈
R
,
σ
>
0
{\displaystyle \alpha \in \mathbb {R} ,\sigma >0}
erhalten wir nach Substitution
y
=
(
u
−
α
)
/
σ
{\displaystyle y=(u-\alpha )/\sigma }
∫
−
∞
∞
g
α
,
σ
2
(
u
)
d
u
=
∫
−
∞
∞
g
0
,
1
(
y
)
d
y
=
1.
{\displaystyle \int \limits _{-\infty }^{\infty }g_{\alpha ,\sigma ^{2}}(u)\,du=\int \limits _{-\infty }^{\infty }g_{0,1}(y)dy=1.}
Sei
X
∼
N
(
α
,
σ
2
)
{\displaystyle X\sim {\mathcal {N}}(\alpha ,\sigma ^{2})}
. Dann gilt
E
X
=
α
{\displaystyle \mathbb {E} X=\alpha }
und
Var
(
X
)
=
σ
2
{\displaystyle \operatorname {Var} (X)=\sigma ^{2}}
.
Sei
X
∼
N
(
0
,
σ
2
)
{\displaystyle X\sim {\mathcal {N}}(0,\sigma ^{2})}
. Beweise, dass gilt
(3.3)
E
X
n
=
{
0
f
u
¨
r
n
∈
N
u
n
g
e
r
a
d
e
,
(
n
−
1
)
!
!
⋅
σ
n
f
u
¨
r
n
∈
N
g
e
r
a
d
e
,
{\displaystyle \mathbb {E} X^{n}={\begin{cases}0&f{\ddot {u}}r\ n\in \mathbb {N} \ ungerade,\\(n-1)!!\cdot \sigma ^{n}&f{\ddot {u}}r\ n\in \mathbb {N} \ gerade,\end{cases}}}
wobei für ungerade natürliche Zahlen
k
{\displaystyle k}
die Doppelfakultät
k
!
!
{\displaystyle k!!}
als das Produkt aller ungeraden natürlichen Zahlen bis
k
{\displaystyle k}
definiert ist, also
k
!
!
:=
1
⋅
3
⋅
5
⋅
.
.
.
⋅
k
{\displaystyle k!!:=1\cdot 3\cdot 5\cdot ...\cdot k}
.
Sei
[
Ω
,
F
,
P
]
{\displaystyle [\Omega ,{\mathcal {F}},P]}
ein Wahrscheinlichkeitsraum,
n
≥
1
{\displaystyle n\geq 1}
. Ein zufälliger Spaltenvektor
X
_
=
(
X
1
,
.
.
.
,
X
n
)
T
:
Ω
→
R
n
{\displaystyle {\underline {X}}=(X_{1},...,X_{n})^{T}:\Omega \to \mathbb {R} ^{n}}
auf diesem Raum heißt
n
{\displaystyle n}
-dimensional normalverteilt mit Erwartungswertvektor
μ
_
=
(
μ
1
,
.
.
.
,
μ
n
)
∈
R
n
{\displaystyle {\underline {\mu }}=(\mu _{1},...,\mu _{n})\in \mathbb {R} ^{n}}
und Kovarianzmatrix
Σ
{\displaystyle \Sigma }
, wobei
Σ
{\displaystyle \Sigma }
eine symmetrische positiv definite
(
n
×
n
)
{\displaystyle (n\times n)}
-Matrix ist, falls
X
_
{\displaystyle {\underline {X}}}
die folgende Dichtefunktion besitzt:
(3.4)
f
X
_
(
u
_
)
:=
1
(
2
π
)
n
|
det
Σ
|
exp
{
−
1
2
(
u
_
−
μ
_
)
T
Σ
−
1
(
u
_
−
μ
_
)
}
(
u
_
∈
R
n
)
.
{\displaystyle f_{\underline {X}}({\underline {u}}):={\frac {1}{\sqrt {(2\pi )^{n}|\det \Sigma |}}}\exp \left\{-{\frac {1}{2}}({\underline {u}}-{\underline {\mu }})^{T}\Sigma ^{-1}({\underline {u}}-{\underline {\mu }})\right\}\quad ({\underline {u}}\in \mathbb {R} ^{n}).}
Symbolisch schreiben wir
X
_
∼
N
(
μ
_
,
Σ
)
{\displaystyle {\underline {X}}\sim {\mathcal {N}}({\underline {\mu }},\Sigma )}
.
Es ist noch zu zeigen, dass Definition 3.2 korrekt ist, dass also
μ
_
{\displaystyle {\underline {\mu }}}
der Erwartungswertvektor und
Σ
{\displaystyle \Sigma }
die Kovarianzmatrix ist. In finanzmathematischen Anwendungen nennt man
Σ
{\displaystyle \Sigma }
auch Volatilitätsmatrix .
Die Verteilung
N
(
0
_
,
E
n
)
{\displaystyle {\mathcal {N}}({\underline {0}},E_{n})}
, wobei
0
_
{\displaystyle {\underline {0}}}
der Nullvektor in
R
n
{\displaystyle \mathbb {R} ^{n}}
und
E
n
{\displaystyle E_{n}}
die
(
n
×
n
)
{\displaystyle (n\times n)}
-Einheitsmatrix ist, heißt
n
{\displaystyle n}
-dimensionale Standardnormalverteilung.
Die Dichte eines
N
(
0
_
,
E
n
)
{\displaystyle {\mathcal {N}}({\underline {0}},E_{n})}
-verteilten Zufallsvektors
X
_
{\displaystyle {\underline {X}}}
hat die Form
(3.5)
f
X
_
(
u
_
)
=
1
(
2
π
)
n
exp
{
−
1
2
∑
k
=
1
n
u
k
2
}
=
1
(
2
π
)
n
exp
{
−
1
2
u
_
T
⋅
u
_
}
.
{\displaystyle f_{\underline {X}}({\underline {u}})={\frac {1}{({\sqrt {2\pi }})^{n}}}\exp \left\{-{\frac {1}{2}}\sum _{k=1}^{n}u_{k}^{2}\right\}={\frac {1}{({\sqrt {2\pi }})^{n}}}\exp \left\{-{\frac {1}{2}}{\underline {u}}^{T}\cdot {\underline {u}}\right\}.}
Man beachte, dass
X
_
=
(
X
1
,
.
.
.
,
X
n
)
T
∼
N
(
0
_
,
E
n
)
{\displaystyle {\underline {X}}=(X_{1},...,X_{n})^{T}\sim {\mathcal {N}}({\underline {0}},E_{n})}
genau dann gilt, wenn
X
1
,
.
.
.
,
X
n
{\displaystyle X_{1},...,X_{n}}
unabhängige standardnormalverteilte Zufallsgrößen sind. Damit ist es in diesem Spezialfall offensichtlich, dass
0
_
=
(
0
,
.
.
.
,
0
)
T
{\displaystyle {\underline {0}}=(0,...,0)^{T}}
der Erwartungswertvektor und
E
n
{\displaystyle E_{n}}
die Kovarianzmatrix ist.
Der in Definition 3.2 beschriebene allgemeine normalverteilte Zufallsvektor lässt sich aus einem standardnormalverteilten Zufallsvektor durch eine affine Abbildung gewinnen. Den folgenden Satz setzen wir als aus der Analysis bekannt voraus.
Sei
X
_
{\displaystyle {\underline {X}}}
ein zufälliger Spaltenvektor mit Dichtefunktion
f
X
_
{\displaystyle f_{\underline {X}}}
und
S
:
R
n
→
R
n
{\displaystyle S:\mathbb {R} ^{n}\to \mathbb {R} ^{n}}
eine affine Abbildung,
S
(
x
_
)
=
A
x
_
+
m
_
{\displaystyle S({\underline {x}})=A{\underline {x}}+{\underline {m}}}
mit
m
_
=
(
m
1
,
.
.
.
,
m
n
)
T
∈
R
n
{\displaystyle {\underline {m}}=(m_{1},...,m_{n})^{T}\in \mathbb {R} ^{n}}
und
det
A
≠
0
{\displaystyle \det A\neq 0}
. Der Zufallsvektor
Y
_
=
A
X
_
+
m
_
{\displaystyle {\underline {Y}}=A{\underline {X}}+{\underline {m}}}
hat die Dichte
(3.6)
f
Y
_
(
y
_
)
=
1
|
det
A
|
f
X
_
(
S
−
1
(
y
_
)
)
=
1
|
det
A
|
f
X
_
(
A
−
1
(
y
_
−
m
_
)
)
(
y
_
∈
R
n
)
.
{\displaystyle f_{\underline {Y}}({\underline {y}})={\frac {1}{|\det A|}}f_{\underline {X}}(S^{-1}({\underline {y}}))={\frac {1}{|\det A|}}f_{\underline {X}}(A^{-1}({\underline {y}}-{\underline {m}}))\quad ({\underline {y}}\in \mathbb {R} ^{n}).}
Seien
X
1
,
.
.
.
,
X
n
{\displaystyle X_{1},...,X_{n}}
unabhängige standardnormalverteilte Zufallsgrößen,
X
_
=
(
X
1
,
.
.
.
,
X
n
)
T
{\displaystyle {\underline {X}}=(X_{1},...,X_{n})^{T}}
. Weiter sei
A
{\displaystyle A}
eine reguläre
(
n
×
n
)
{\displaystyle (n\times n)}
-Matrix,
μ
_
=
(
μ
1
,
.
.
.
,
μ
n
)
T
{\displaystyle {\underline {\mu }}=(\mu _{1},...,\mu _{n})^{T}}
ein gegebener Spaltenvektor und
Y
_
:=
A
X
_
+
μ
_
{\displaystyle {\underline {Y}}:=A{\underline {X}}+{\underline {\mu }}}
. Es gilt
Y
_
∼
N
(
μ
_
,
Σ
)
{\displaystyle {\underline {Y}}\sim {\mathcal {N}}({\underline {\mu }},\Sigma )}
mit
Σ
=
A
⋅
A
T
{\displaystyle \Sigma =A\cdot A^{T}}
.
Jeder normalverteilte Vektor lässt sich durch eine affine Transformation aus einem standardnormalverteilten erzeugen. Dies folgt daraus, dass sich jede symmetrische positv definite
(
n
×
n
)
{\displaystyle (n\times n)}
-Matrix
Σ
{\displaystyle \Sigma }
in der Form
Σ
=
A
⋅
A
T
{\displaystyle \Sigma =A\cdot A^{T}}
darstellen lässt, wobei
A
{\displaystyle A}
eine reguläre
(
n
×
n
)
{\displaystyle (n\times n)}
-Matrix ist. Somit erhält man für beliebig gegebenes positiv definites und symmetrisches
Σ
{\displaystyle \Sigma }
und jeden Vektor
μ
_
∈
R
n
{\displaystyle {\underline {\mu }}\in \mathbb {R} ^{n}}
einen
N
(
μ
_
,
Σ
)
{\displaystyle {\mathcal {N}}({\underline {\mu }},\Sigma )}
-verteilten zufälliger Vektor
Y
_
{\displaystyle {\underline {Y}}}
aus einem standardnormalverteilten Vektor
X
_
{\displaystyle {\underline {X}}}
durch die Transformation
Y
_
=
A
X
_
+
μ
_
{\displaystyle {\underline {Y}}=A{\underline {X}}+{\underline {\mu }}}
.
Nach Theorem 3.2 gilt für
u
_
∈
R
n
{\displaystyle {\underline {u}}\in \mathbb {R} ^{n}}
f
Y
_
(
u
_
)
=
1
|
det
A
|
f
X
_
(
A
−
1
(
u
_
−
μ
_
)
)
{\displaystyle f_{\underline {Y}}({\underline {u}})={\frac {1}{|\det A|}}f_{\underline {X}}(A^{-1}({\underline {u}}-{\underline {\mu }}))}
=
1
(
2
π
)
n
|
det
A
|
exp
{
−
1
2
(
A
−
1
(
u
_
−
μ
_
)
)
T
⋅
A
−
1
(
u
_
−
μ
_
)
}
{\displaystyle ={\frac {1}{({\sqrt {2\pi }})^{n}|\det A|}}\exp \left\{-{\frac {1}{2}}(A^{-1}({\underline {u}}-{\underline {\mu }}))^{T}\cdot A^{-1}({\underline {u}}-{\underline {\mu }})\right\}}
=
1
(
2
π
)
n
|
det
A
|
exp
{
−
1
2
(
u
_
−
μ
_
)
T
(
A
−
1
)
T
⋅
A
−
1
(
u
_
−
μ
_
)
}
{\displaystyle ={\frac {1}{({\sqrt {2\pi }})^{n}|\det A|}}\exp \left\{-{\frac {1}{2}}({\underline {u}}-{\underline {\mu }})^{T}(A^{-1})^{T}\cdot A^{-1}({\underline {u}}-{\underline {\mu }})\right\}}
=
1
(
2
π
)
n
|
det
A
|
exp
{
−
1
2
(
u
_
−
μ
_
)
T
(
A
T
)
−
1
⋅
A
−
1
(
u
_
−
μ
_
)
}
{\displaystyle ={\frac {1}{({\sqrt {2\pi }})^{n}|\det A|}}\exp \left\{-{\frac {1}{2}}({\underline {u}}-{\underline {\mu }})^{T}(A^{T})^{-1}\cdot A^{-1}({\underline {u}}-{\underline {\mu }})\right\}}
=
1
(
2
π
)
n
|
det
(
A
⋅
A
T
)
|
exp
{
−
1
2
(
u
_
−
μ
_
)
T
(
A
⋅
A
T
)
−
1
(
u
_
−
μ
_
)
}
,
{\displaystyle ={\frac {1}{\sqrt {(2\pi )^{n}|\det(A\cdot A^{T})|}}}\exp \left\{-{\frac {1}{2}}({\underline {u}}-{\underline {\mu }})^{T}(A\cdot A^{T})^{-1}({\underline {u}}-{\underline {\mu }})\right\},}
wobei wir die Beziehung
det
(
A
⋅
A
T
)
=
det
A
⋅
det
A
T
=
(
det
A
)
2
{\displaystyle \det(A\cdot A^{T})=\det A\cdot \det A^{T}=(\det A)^{2}}
verwendet haben.
q.e.d.
Sei
Y
_
=
(
Y
1
,
.
.
.
,
Y
n
)
T
∼
N
(
μ
_
,
Σ
)
{\displaystyle {\underline {Y}}=(Y_{1},...,Y_{n})^{T}\sim {\mathcal {N}}({\underline {\mu }},\Sigma )}
. Für alle
j
,
k
∈
{
1
,
.
.
.
,
n
}
{\displaystyle j,k\in \{1,...,n\}}
gilt
E
Y
k
=
μ
k
,
Cov
(
Y
j
,
Y
k
)
=
σ
j
k
.
{\displaystyle \mathbb {E} Y_{k}=\mu _{k},\quad \operatorname {Cov} (Y_{j},Y_{k})=\sigma _{jk}.}
Zu
Σ
{\displaystyle \Sigma }
existiert eine reguläre Matrix
A
=
(
a
j
k
)
j
,
k
∈
{
1
,
.
.
.
,
n
}
{\displaystyle A=(a_{jk})_{j,k\in \{1,...,n\}}}
mit
Σ
=
A
⋅
A
T
{\displaystyle \Sigma =A\cdot A^{T}}
. Es gilt
Y
_
=
A
X
_
+
μ
_
{\displaystyle {\underline {Y}}=A{\underline {X}}+{\underline {\mu }}}
mit
X
_
∼
N
(
0
_
,
E
n
)
{\displaystyle {\underline {X}}\sim {\mathcal {N}}({\underline {0}},E_{n})}
. Für
j
∈
{
1
,
.
.
.
,
n
}
{\displaystyle j\in \{1,...,n\}}
gilt
E
Y
j
=
E
(
∑
k
=
1
n
a
j
k
X
k
+
μ
j
)
=
∑
k
=
1
n
a
j
k
E
(
X
k
)
+
μ
j
=
μ
j
.
{\displaystyle \mathbb {E} Y_{j}=\mathbb {E} \left(\sum _{k=1}^{n}a_{jk}X_{k}+\mu _{j}\right)=\sum _{k=1}^{n}a_{jk}\mathbb {E} (X_{k})+\mu _{j}=\mu _{j}.}
Mit
σ
j
l
{\displaystyle \sigma _{jl}}
bezeichnen wir die Elemente der Matrix
Σ
=
A
⋅
A
T
{\displaystyle \Sigma =A\cdot A^{T}}
. Da
X
1
,
.
.
.
,
X
n
{\displaystyle X_{1},...,X_{n}}
als unabhängig und standardnormalverteilt vorausgesetzt wurden, gilt für alle
k
,
r
∈
{
1
,
.
.
.
,
n
}
{\displaystyle k,r\in \{1,...,n\}}
die Beziehung
Cov
(
X
k
,
X
r
)
=
δ
k
,
r
{\displaystyle \operatorname {Cov} (X_{k},X_{r})=\delta _{k,r}}
, woraus folgt
Cov
(
Y
j
,
Y
l
)
=
Cov
(
∑
k
=
1
n
a
j
k
X
k
+
μ
j
,
∑
r
=
1
n
a
l
r
X
r
+
μ
l
)
{\displaystyle \operatorname {Cov} (Y_{j},Y_{l})=\operatorname {Cov} \left(\sum _{k=1}^{n}a_{jk}X_{k}+\mu _{j},\sum _{r=1}^{n}a_{lr}X_{r}+\mu _{l}\right)}
=
Cov
(
∑
k
=
1
n
a
j
k
X
k
,
∑
r
=
1
n
a
l
r
X
r
)
{\displaystyle =\operatorname {Cov} \left(\sum _{k=1}^{n}a_{jk}X_{k},\sum _{r=1}^{n}a_{lr}X_{r}\right)}
=
∑
k
,
r
=
1
n
a
j
k
a
l
r
Cov
(
X
k
,
X
r
)
=
∑
k
,
r
=
1
n
a
j
k
a
l
r
δ
k
,
r
=
∑
k
=
1
n
a
j
k
a
l
k
=
σ
j
l
,
{\displaystyle =\sum _{k,r=1}^{n}a_{jk}a_{lr}\operatorname {Cov} (X_{k},X_{r})=\sum _{k,r=1}^{n}a_{jk}a_{lr}\delta _{k,r}=\sum _{k=1}^{n}a_{jk}a_{lk}=\sigma _{jl},}
was zu beweisen war.
q.e.d.
Ein Charakteristikum für normalverteilte Zufallsvektoren ist, dass Unabhängigkeit und Unkorreliertheit äquivalent sind.
Sei
X
_
=
(
X
1
,
.
.
.
,
X
n
)
T
∼
N
(
μ
_
,
Σ
)
{\displaystyle {\underline {X}}=(X_{1},...,X_{n})^{T}\sim {\mathcal {N}}({\underline {\mu }},\Sigma )}
. Die zufälligen Größen
X
1
,
.
.
.
,
X
n
{\displaystyle X_{1},...,X_{n}}
sind genau dann unabhängig, wenn sie unkorreliert sind.
Da
Σ
{\displaystyle \Sigma }
die Kovarianzmatrix ist, ist Unkorreliertheit äquivalent zu
σ
j
k
=
0
{\displaystyle \sigma _{jk}=0}
für
j
≠
k
{\displaystyle j\neq k}
(d. h.
Σ
{\displaystyle \Sigma }
ist eine Diagonalmatrix). Weiterhin gilt
σ
k
k
=
Var
(
X
k
)
=:
σ
k
2
{\displaystyle \sigma _{kk}=\operatorname {Var} (X_{k})=:\sigma _{k}^{2}}
. Die zur Diagonalmatrix
Σ
{\displaystyle \Sigma }
inverse Matrix
Σ
−
1
{\displaystyle \Sigma ^{-1}}
ist wiederum diagonal mit den Einträgen
1
/
σ
k
2
{\displaystyle 1/\sigma _{k}^{2}}
auf der Diagonalen. Folglich ist
X
_
{\displaystyle {\underline {X}}}
genau dann unkorreliert, wenn die Dichtefunktion
f
X
_
{\displaystyle f_{\underline {X}}}
die Form
f
X
_
(
u
_
)
=
1
(
2
π
)
n
/
2
(
|
det
Σ
|
)
1
/
2
exp
{
−
1
2
∑
k
=
1
n
(
u
k
−
μ
k
)
2
σ
k
2
}
=
f
X
1
(
u
1
)
⋅
.
.
.
⋅
f
X
n
(
u
n
)
{\displaystyle f_{\underline {X}}({\underline {u}})={\frac {1}{(2\pi )^{n/2}(|\det \Sigma |)^{1/2}}}\exp \left\{-{\frac {1}{2}}\sum _{k=1}^{n}{\frac {(u_{k}-\mu _{k})^{2}}{\sigma _{k}^{2}}}\right\}=f_{X_{1}}(u_{1})\cdot ...\cdot f_{X_{n}}(u_{n})}
hat.
q.e.d.
Im folgenden identifizieren wir die lineare Abbildung mit der sie beschreibenden Matrix. Eine Abbildung (Matrix)
O
{\displaystyle O}
heißt orthogonal , falls
O
−
1
=
O
T
{\displaystyle O^{-1}=O^{T}}
. Folglich gilt auch
O
⋅
O
T
=
O
T
⋅
O
=
E
n
{\displaystyle O\cdot O^{T}=O^{T}\cdot O=E_{n}}
. Orthogonale Abbildungen im
R
n
{\displaystyle \mathbb {R} ^{n}}
sind Drehspiegelungen.
Sei
X
_
{\displaystyle {\underline {X}}}
n
{\displaystyle n}
-dimensional standardnormalverteilt und
O
{\displaystyle O}
eine orthogonale Transformation. Dann ist
Y
_
=
O
X
_
{\displaystyle {\underline {Y}}=O{\underline {X}}}
wiederum standardnormalverteilt.
Aus Theorem 3.3 folgt unmittelbar
Y
_
∼
N
(
0
_
,
E
n
)
{\displaystyle {\underline {Y}}\sim {\mathcal {N}}({\underline {0}},E_{n})}
, denn
Σ
−
1
=
(
O
⋅
O
T
)
−
1
=
(
E
n
)
−
1
=
E
n
{\displaystyle \Sigma ^{-1}=(O\cdot O^{T})^{-1}=(E_{n})^{-1}=E_{n}}
.
q.e.d.
Wir geben noch an, wie sich
n
{\displaystyle n}
-dimensional normalverteilte Zufallsvektoren bei allgemeinen affinen Transformationen verhalten.
Es sei
S
:
R
n
→
R
m
,
m
≤
n
{\displaystyle S:\mathbb {R} ^{n}\to \mathbb {R} ^{m},m\leq n}
eine beliebige affine Abbildung,
S
(
x
_
)
=
A
x
_
+
ν
_
{\displaystyle S({\underline {x}})=A{\underline {x}}+{\underline {\nu }}}
für
x
_
∈
R
n
{\displaystyle {\underline {x}}\in \mathbb {R} ^{n}}
, wobei
A
{\displaystyle A}
eine
(
m
×
n
)
{\displaystyle (m\times n)}
-Matrix mit Rang
m
{\displaystyle m}
ist und
ν
_
∈
R
m
{\displaystyle {\underline {\nu }}\in \mathbb {R} ^{m}}
. Weiter sei
X
_
{\displaystyle {\underline {X}}}
n
{\displaystyle n}
-dimensional normalverteilt,
X
_
∼
N
(
μ
_
,
Σ
)
{\displaystyle {\underline {X}}\sim {\mathcal {N}}({\underline {\mu }},\Sigma )}
. Dann ist
Y
_
=
S
X
_
{\displaystyle {\underline {Y}}=S{\underline {X}}}
m
{\displaystyle m}
-dimensional normalverteilt und zwar gilt
(3.7)
Y
_
∼
N
(
A
μ
_
+
ν
_
,
A
Σ
A
T
)
.
{\displaystyle {\underline {Y}}\sim {\mathcal {N}}(A{\underline {\mu }}+{\underline {\nu }},A\Sigma A^{T}).}
Wir verzichten hier auf den Beweis.
Als Spezialfall erhalten wir das folgende Ergebnis:
Sei
X
_
=
(
X
1
,
.
.
.
,
X
n
)
T
∼
N
(
μ
_
,
Σ
)
{\displaystyle {\underline {X}}=(X_{1},...,X_{n})^{T}\sim {\mathcal {N}}({\underline {\mu }},\Sigma )}
. Dann gilt
X
1
+
.
.
.
+
X
n
∼
N
(
μ
1
+
.
.
.
+
μ
n
,
∑
j
,
k
=
1
n
σ
j
k
)
{\displaystyle X_{1}+...+X_{n}\sim {\mathcal {N}}\left(\mu _{1}+...+\mu _{n},\sum _{j,k=1}^{n}\sigma _{jk}\right)}
. Sind die Zufallsgrößen
X
1
,
.
.
.
,
X
n
{\displaystyle X_{1},...,X_{n}}
unkorreliert (unabhängig), so ist
X
1
+
.
.
.
+
X
n
∼
N
(
μ
1
+
.
.
.
+
μ
n
,
σ
1
2
+
.
.
.
+
σ
n
2
)
{\displaystyle X_{1}+...+X_{n}\sim {\mathcal {N}}(\mu _{1}+...+\mu _{n},\sigma _{1}^{2}+...+\sigma _{n}^{2})}
.
Gegeben sei die
(
1
×
n
)
{\displaystyle (1\times n)}
-Matrix
A
=
(
1
,
.
.
.
,
1
)
{\displaystyle A=(1,...,1)}
. Dann gilt
A
X
_
=
X
1
+
.
.
.
+
X
n
{\displaystyle A{\underline {X}}=X_{1}+...+X_{n}}
. Aus Theorem 3.7 schlussfolgern wir
X
1
+
.
.
.
+
X
n
∼
N
(
A
μ
_
,
A
Σ
A
T
)
{\displaystyle X_{1}+...+X_{n}\sim {\mathcal {N}}(A{\underline {\mu }},A\Sigma A^{T})}
. Es gilt
A
μ
_
=
μ
1
+
.
.
.
+
μ
n
{\displaystyle A{\underline {\mu }}=\mu _{1}+...+\mu _{n}}
sowie
A
Σ
A
T
=
∑
j
,
k
=
1
n
σ
j
k
{\displaystyle A\Sigma A^{T}=\sum _{j,k=1}^{n}\sigma _{jk}}
, womit der Beweis beendet ist.
q.e.d.
Für normalverteilte Zufallsgrößen kann man also mühelos die Verteilung der Summe ermitteln. Im allgemeinen kann man meist nur unter der zusätzlichen Annahme der Unabhängigkeit die Verteilung der Summe explizit ermitteln.
Eine Familie von Zufallsgrößen
(
X
t
)
t
∈
I
{\displaystyle (X_{t})_{t\in I}}
über einem Wahrscheinlichkeitsraum
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,{\mathcal {F}},P)}
heißt stochastischer Prozess.
I
=
[
0
,
1
)
,
I
=
R
,
I
=
N
{\displaystyle I=[0,1),I=\mathbb {R} ,I=\mathbb {N} }
oder
I
=
[
0
,
T
]
{\displaystyle I=[0,T]}
heißt dabei die Zeitparametermenge. Falls
I
{\displaystyle I}
höchstens abzählbar ist, so heißt
(
X
t
)
t
∈
I
{\displaystyle (X_{t})_{t\in I}}
zeitlich diskreter stochastischer Prozeß, sonst zeitlich stetig.
(
X
t
)
t
∈
I
{\displaystyle (X_{t})_{t\in I}}
kann auch als Funktion mit
X
:
I
×
Ω
→
R
{\displaystyle \mathbf {X} :I\times \Omega \to \mathbb {R} }
mit
X
(
t
,
ω
)
:=
X
t
(
ω
)
{\displaystyle \mathbf {X} (t,\omega ):=X_{t}(\omega )}
beschrieben werden. Dann ist
X
(
t
,
⋅
)
:
Ω
→
R
{\displaystyle \mathbf {X} (t,\cdot ):\Omega \to \mathbb {R} }
eine Zufallsgröße
∀
t
∈
I
{\displaystyle \forall t\in I}
und
∀
ω
∈
Ω
{\displaystyle \forall \omega \in \Omega }
heißt
X
(
⋅
,
ω
)
:
I
→
R
{\displaystyle \mathbf {X} (\cdot ,\omega ):I\to \mathbb {R} }
Trajektorie (oder Pfad) von
(
X
t
)
{\displaystyle (X_{t})}
.
Sei
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,{\mathcal {F}},P)}
ein Wahrscheinlichkeitsraum. Eine Familie von
σ
{\displaystyle \sigma }
-Algebren
(
F
t
)
t
∈
I
{\displaystyle ({\mathcal {F}}_{t})_{t\in I}}
mit
F
s
⊆
F
t
⊆
F
∀
s
<
t
∈
I
{\displaystyle {\mathcal {F}}_{s}\subseteq {\mathcal {F}}_{t}\subseteq {\mathcal {F}}\quad \forall s<t\in I}
heißt Filtration in
F
{\displaystyle {\mathcal {F}}}
.
Ein Wahrscheinlichkeitsraum
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,{\mathcal {F}},P)}
heißt vollständig, falls
F
{\displaystyle {\mathcal {F}}}
alle Nullmengen
O
{\displaystyle {\mathcal {O}}}
enthält. Dabei ist
(3.8)
O
:=
{
A
⊆
Ω
:
∃
B
∈
F
m
i
t
A
⊆
B
u
n
d
P
(
B
)
=
0
}
.
{\displaystyle {\mathcal {O}}:=\{A\subseteq \Omega :\exists B\in {\mathcal {F}}\ mit\ A\subseteq B\ und\ P(B)=0\}.}
Eine Filtration
(
F
t
)
{\displaystyle ({\mathcal {F}}_{t})}
heißt vollständig, falls
F
t
{\displaystyle {\mathcal {F}}_{t}}
∀
t
∈
I
{\displaystyle \forall t\in I}
vollständig ist.
Sei
(
F
t
)
{\displaystyle ({\mathcal {F}}_{t})}
Filtration in
F
{\displaystyle {\mathcal {F}}}
,
(
X
t
)
{\displaystyle (X_{t})}
stochastischer Prozess über
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,{\mathcal {F}},P)}
.
(
X
t
,
F
t
)
{\displaystyle (X_{t},{\mathcal {F}}_{t})}
heißt stochastischer Prozess mit Filtration, falls
(
X
t
)
{\displaystyle (X_{t})}
(
F
t
−
B
)
{\displaystyle ({\mathcal {F}}_{t}-{\mathcal {B}})}
-messbar ist
∀
t
∈
I
{\displaystyle \forall t\in I}
.
(
X
t
)
{\displaystyle (X_{t})}
heißt dann an die Filtration
(
F
t
)
{\displaystyle ({\mathcal {F}}_{t})}
adaptiert.
Die Filtration mit
F
t
:=
σ
(
{
X
s
:
s
≤
t
}
)
{\displaystyle {\mathcal {F}}_{t}:=\sigma (\{X_{s}:s\leq t\})}
heißt die kanonische Filtration von
(
X
t
)
{\displaystyle (X_{t})}
.
(
X
t
,
F
t
)
{\displaystyle (X_{t},{\mathcal {F}}_{t})}
und
(
Y
t
,
G
t
)
{\displaystyle (Y_{t},{\mathcal {G}}_{t})}
seien stochastische Prozesse mit Filtrationen über
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,{\mathcal {F}},P)}
.
(
X
t
,
F
t
)
{\displaystyle (X_{t},{\mathcal {F}}_{t})}
heißt Modifikation von
(
Y
t
,
G
t
)
{\displaystyle (Y_{t},{\mathcal {G}}_{t})}
, falls
X
t
=
Y
t
{\displaystyle X_{t}=Y_{t}}
P
{\displaystyle P}
-f. s.
∀
t
∈
I
{\displaystyle \forall t\in I}
.
(
X
t
)
{\displaystyle (X_{t})}
und
(
Y
t
)
{\displaystyle (Y_{t})}
heißen ununterscheidbar, falls
P
(
X
t
=
Y
t
∀
t
∈
I
)
=
1
{\displaystyle P(X_{t}=Y_{t}\quad \forall t\in I)=1}
.
Falls
(
X
t
,
F
t
)
{\displaystyle (X_{t},{\mathcal {F}}_{t})}
und
(
Y
t
,
G
t
)
{\displaystyle (Y_{t},{\mathcal {G}}_{t})}
ununterscheidbar sind, so ist
(
X
t
)
{\displaystyle (X_{t})}
Modifikation von
(
Y
t
)
{\displaystyle (Y_{t})}
.
Sei
(
X
t
)
{\displaystyle (X_{t})}
Modifikation von
(
Y
t
)
{\displaystyle (Y_{t})}
und beide haben
P
{\displaystyle P}
-f. s. stetige Trajektorien. Dann sind sie ununterscheidbar.
Sei
(
X
t
,
F
t
)
{\displaystyle (X_{t},{\mathcal {F}}_{t})}
stochastischer Prozess über
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,{\mathcal {F}},P)}
. Die Verteilungen aller möglichen Zufallsvektoren
(
X
t
1
,
.
.
.
,
X
t
n
)
,
n
∈
N
,
t
1
,
.
.
.
,
t
n
∈
I
{\displaystyle (X_{t_{1}},...,X_{t_{n}}),n\in \mathbb {N} ,t_{1},...,t_{n}\in I}
heißen die endlich-dimensionalen Verteilungen von
(
X
t
)
{\displaystyle (X_{t})}
.
Der Funktionenraum
R
I
:=
{
f
:
R
→
I
}
{\displaystyle \mathbb {R} ^{I}:=\{f:\mathbb {R} \to I\}}
enthält alle Trajektorien eines stochastischen Prozesses
(
X
t
)
{\displaystyle (X_{t})}
. Demzufolge läßt sich
(
X
t
)
{\displaystyle (X_{t})}
als zufälliges Element von
R
I
{\displaystyle \mathbb {R} ^{I}}
auffassen. Dazu betrachten wir
(3.9)
B
(
R
I
)
:=
σ
(
{
f
∈
R
I
|
{
f
(
t
1
)
,
.
.
.
,
f
(
t
n
)
}
∈
A
}
,
t
1
,
.
.
.
,
t
n
∈
I
,
n
∈
N
,
A
∈
B
n
)
{\displaystyle {\mathcal {B}}(\mathbb {R} ^{I}):=\sigma \left(\{f\in \mathbb {R} ^{I}|\{f(t_{1}),...,f(t_{n})\}\in A\},t_{1},...,t_{n}\in I,n\in \mathbb {N} ,A\in {\mathcal {B}}^{n}\right)}
die
σ
{\displaystyle \sigma }
-Algebra der Zylindermengen im
R
I
{\displaystyle \mathbb {R} ^{I}}
.
Gegeben sei ein stochastischer Prozess
(
X
t
,
F
t
)
{\displaystyle (X_{t},{\mathcal {F}}_{t})}
.
∀
n
∈
N
,
∀
t
1
,
.
.
.
,
t
n
∈
I
{\displaystyle \forall n\in \mathbb {N} ,\forall t_{1},...,t_{n}\in I}
sei
P
t
1
,
.
.
.
,
t
n
{\displaystyle P_{t_{1},...,t_{n}}}
das Verteilungsgesetz des zufälligen Vektors
(
X
t
1
,
.
.
.
,
X
t
n
)
{\displaystyle (X_{t_{1}},...,X_{t_{n}})}
, also das Wahrscheinlichkeitsmaß auf
(
R
n
,
B
n
)
{\displaystyle (\mathbb {R} ^{n},{\mathcal {B}}^{n})}
mit
(3.10)
P
t
1
,
.
.
.
,
t
n
(
A
)
=
P
(
(
X
t
1
,
.
.
.
,
X
t
n
)
∈
A
)
∀
A
∈
B
n
.
{\displaystyle P_{t_{1},...,t_{n}}(A)=P((X_{t_{1}},...,X_{t_{n}})\in A)\quad \forall A\in {\mathcal {B}}^{n}.}
Falls ein Prozess gegeben ist, so existieren die endlich-dimensionalen Verteilungen.
Sei
(
P
τ
)
τ
∈
T
{\displaystyle (P_{\tau })_{\tau \in {\mathcal {T}}}}
eine Familie von Wahrscheinlichkeitsmaßen mit
T
:=
{
(
t
1
,
.
.
.
,
t
n
)
∈
I
n
,
t
j
≠
t
k
∀
j
≠
k
,
n
∈
N
}
.
{\displaystyle {\mathcal {T}}:=\{(t_{1},...,t_{n})\in I^{n},t_{j}\neq t_{k}\quad \forall j\neq k,n\in \mathbb {N} \}.}
(
P
τ
)
{\displaystyle (P_{\tau })}
heißt konsistent, falls
∀
n
∈
N
,
∀
(
t
1
,
.
.
.
,
t
n
)
∈
T
,
∀
A
1
,
.
.
.
,
A
n
∈
B
{\displaystyle \forall n\in \mathbb {N} ,\forall (t_{1},...,t_{n})\in {\mathcal {T}},\forall A_{1},...,A_{n}\in {\mathcal {B}}}
und für alle Permutationen
π
1
,
.
.
.
,
π
n
{\displaystyle \pi _{1},...,\pi _{n}}
(3.11)
P
t
1
,
.
.
.
,
t
n
(
A
1
×
.
.
.
×
A
n
)
=
P
t
π
1
,
.
.
.
,
t
π
n
(
A
π
1
×
.
.
.
×
A
π
n
)
{\displaystyle P_{t_{1},...,t_{n}}(A_{1}\times ...\times A_{n})=P_{t_{\pi _{1}},...,t_{\pi _{n}}}(A_{\pi _{1}}\times ...\times A_{\pi _{n}})}
und
∀
n
∈
N
,
∀
t
1
,
.
.
.
,
t
n
+
1
∈
T
{\displaystyle \forall n\in \mathbb {N} ,\forall t_{1},...,t_{n+1}\in {\mathcal {T}}}
und
∀
A
∈
B
n
{\displaystyle \forall A\in {\mathcal {B}}^{n}}
(3.12)
P
t
1
,
.
.
.
,
t
n
+
1
(
A
×
R
)
=
P
t
1
,
.
.
.
,
t
n
(
A
)
{\displaystyle P_{t_{1},...,t_{n+1}}(A\times \mathbb {R} )=P_{t_{1},...,t_{n}}(A)}
gilt.
Satz 3.14 (Existenzsatz von Kolmogoroff)
Bearbeiten
Sei
(
P
τ
)
τ
∈
T
{\displaystyle (P_{\tau })_{\tau \in {\mathcal {T}}}}
eine konsistente Familie von Wahrscheinlichkeitsmaßen. Dann existiert ein Wahrscheinlichkeitsmaß
P
{\displaystyle P}
auf
[
R
I
,
B
(
R
I
)
]
{\displaystyle [\mathbb {R} ^{I},{\mathcal {B}}(\mathbb {R} ^{I})]}
und ein stochastischer Prozess
(
X
t
)
t
∈
I
{\displaystyle (X_{t})_{t\in I}}
auf
[
R
I
,
B
(
R
I
)
,
P
]
{\displaystyle [\mathbb {R} ^{I},{\mathcal {B}}(\mathbb {R} ^{I}),P]}
, so dass
∀
n
∈
N
{\displaystyle \forall n\in \mathbb {N} }
und
∀
t
1
,
.
.
.
,
t
n
∈
T
{\displaystyle \forall t_{1},...,t_{n}\in {\mathcal {T}}}
gilt:
(3.13)
P
(
(
X
t
1
,
.
.
.
,
X
t
n
)
∈
A
)
=
P
t
1
,
.
.
.
,
t
n
(
A
)
∀
A
∈
B
n
.
{\displaystyle P((X_{t_{1}},...,X_{t_{n}})\in A)=P_{t_{1},...,t_{n}}(A)\quad \forall A\in {\mathcal {B}}^{n}.}
Hierbei ist
X
t
(
ω
)
:=
ω
(
t
)
{\displaystyle X_{t}(\omega ):=\omega (t)}
.
Ein stochastischer Prozess heißt Gauß-Prozess, falls alle endlich-dimensionalen Verteilungen (mehrdimensional) normalverteilt sind.
(
X
t
)
{\displaystyle (X_{t})}
sei stochastischer Prozess.
μ
X
:
I
→
R
{\displaystyle \mu _{X}:I\to \mathbb {R} }
mit
μ
X
(
t
)
:=
E
X
t
{\displaystyle \mu _{X}(t):=\mathbb {E} X_{t}}
∀
t
∈
I
{\displaystyle \forall t\in I}
,
C
X
:
I
2
→
R
{\displaystyle C_{X}:I^{2}\to \mathbb {R} }
mit
C
X
(
s
,
t
)
:=
Cov
(
X
s
,
X
t
)
{\displaystyle C_{X}(s,t):=\operatorname {Cov} (X_{s},X_{t})}
∀
s
,
t
∈
I
{\displaystyle \forall s,t\in I}
und
σ
X
2
:
I
→
R
{\displaystyle \sigma _{X}^{2}:I\to R}
mit
σ
X
2
(
t
)
:=
C
X
(
t
,
t
)
{\displaystyle \sigma _{X}^{2}(t):=C_{X}(t,t)}
∀
t
∈
I
{\displaystyle \forall t\in I}
heißen Erwartungswert-, Kovarianz- und Varianzfunktion von
(
X
t
)
{\displaystyle (X_{t})}
.
Seien
X
t
∼
N
(
0
,
1
)
{\displaystyle X_{t}\sim {\mathcal {N}}(0,1)}
i. i. d. Dann ist
(
X
t
)
t
∈
[
0
,
1
)
{\displaystyle (X_{t})_{t\in [0,1)}}
Gauß-Prozess mit:
(3.14)
μ
X
(
t
)
=
0
{\displaystyle \mu _{X}(t)=0}
und
C
X
(
s
,
t
)
=
{
0
s
≠
t
1
s
=
t
∀
s
,
t
∈
I
.
{\displaystyle C_{X}(s,t)={\begin{cases}0&s\neq t\\1&s=t\end{cases}}\quad \forall s,t\in I.}
Dieser Prozess hat allerdings höchst irreguläre Trajektorien.
Ein stochastischer Prozess
(
X
t
)
{\displaystyle (X_{t})}
heißt streng stationär oder stationär im engeren Sinne, falls die endlich-dimensionalen Verteilungen invariant sind gegenüber Indexverschiebung, d. h.
∀
n
∈
N
,
∀
(
t
1
,
.
.
.
,
t
n
)
∈
T
{\displaystyle \forall n\in \mathbb {N} ,\forall (t_{1},...,t_{n})\in {\mathcal {T}}}
und
∀
h
∈
R
{\displaystyle \forall h\in \mathbb {R} }
mit
(
t
1
+
h
,
.
.
.
,
t
n
+
h
)
∈
T
{\displaystyle (t_{1}+h,...,t_{n}+h)\in {\mathcal {T}}}
gilt:
(3.15)
(
X
t
1
,
.
.
.
,
X
t
n
)
∼
(
X
t
1
+
h
,
.
.
.
,
X
t
n
+
h
)
.
{\displaystyle (X_{t_{1}},...,X_{t_{n}})\sim (X_{t_{1}+h},...,X_{t_{n}+h}).}
Speziell gilt:
X
t
∼
X
s
∀
s
,
t
∈
I
{\displaystyle X_{t}\sim X_{s}\quad \forall s,t\in I}
.
(
X
t
)
{\displaystyle (X_{t})}
heißt stationär (im weiteren Sinne), falls
E
X
t
2
<
∞
{\displaystyle \mathbb {E} X_{t}^{2}<\infty }
∀
t
∈
I
{\displaystyle \forall t\in I}
und
∀
s
,
t
,
h
{\displaystyle \forall s,t,h}
mit
(
t
,
s
)
∈
T
{\displaystyle (t,s)\in {\mathcal {T}}}
und
(
t
+
h
,
s
+
h
)
∈
T
{\displaystyle (t+h,s+h)\in {\mathcal {T}}}
gilt:
(3.16)
C
X
(
s
,
t
)
=
C
X
(
s
+
h
,
t
+
h
)
.
{\displaystyle C_{X}(s,t)=C_{X}(s+h,t+h).}
(
X
t
)
{\displaystyle (X_{t})}
heißt Prozess mit stationären Zuwächsen, falls
∀
s
,
t
,
h
{\displaystyle \forall s,t,h}
mit
(
s
,
t
)
∈
T
{\displaystyle (s,t)\in {\mathcal {T}}}
und
(
s
+
h
,
t
+
h
)
∈
T
{\displaystyle (s+h,t+h)\in {\mathcal {T}}}
gilt:
(3.17)
(
X
t
+
h
−
X
s
+
h
)
∼
(
X
t
−
X
s
)
.
{\displaystyle (X_{t+h}-X_{s+h})\sim (X_{t}-X_{s}).}
(
X
t
)
{\displaystyle (X_{t})}
heißt Prozess mit unabhängigen Zuwächsen, falls
∀
(
t
0
,
.
.
.
,
t
n
)
∈
T
,
t
0
<
.
.
.
<
t
n
{\displaystyle \forall (t_{0},...,t_{n})\in {\mathcal {T}},t_{0}<...<t_{n}}
die Zuwächse
X
t
0
,
(
X
t
1
−
X
t
0
)
,
.
.
.
,
(
X
t
n
−
X
t
n
−
1
)
{\displaystyle X_{t_{0}},(X_{t_{1}}-X_{t_{0}}),...,(X_{t_{n}}-X_{t_{n-1}})}
unabhängig sind.
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
sei Prozess mit unabhängigen Zuwächsen. Wir setzen
Z
j
:=
X
j
−
X
j
−
1
{\displaystyle Z_{j}:=X_{j}-X_{j-1}}
und
Z
0
:=
X
0
{\displaystyle Z_{0}:=X_{0}}
.
Dann sind die
(
Z
j
)
{\displaystyle (Z_{j})}
unabhängig und
X
n
=
∑
j
=
0
n
Z
j
.
{\displaystyle X_{n}=\sum _{j=0}^{n}Z_{j}.}
Auch die Umkehrung gilt.
(
X
n
)
{\displaystyle (X_{n})}
hat unabhängige Zuwächse genau dann, wenn
X
n
{\displaystyle X_{n}}
Summe unabhängiger Zufallsgrößen ist.
Ein stochastischer Prozess
W
=
(
W
t
)
t
∈
[
0
,
1
)
{\displaystyle {\mathcal {W}}=(W_{t})_{t\in [0,1)}}
heißt Wiener-Prozess oder Brownsche Bewegung, falls die folgenden Bedingungen erfüllt sind:
W
0
=
0
{\displaystyle W_{0}=0}
,
(
W
t
)
{\displaystyle (W_{t})}
ist ein Prozess mit unabhängigen und stationären Zuwächsen,
für alle
t
>
0
{\displaystyle t>0}
gilt
W
t
∼
N
(
0
,
t
)
{\displaystyle W_{t}\sim {\mathcal {N}}(0,t)}
,
P
{\displaystyle P}
-fast alle Trajektorien sind stetig.
Zeige, dass für die Zuwächse
W
t
−
W
s
,
s
<
t
{\displaystyle W_{t}-W_{s},s<t}
eines Wiener-Prozesses gilt
W
t
−
W
s
∼
N
(
0
,
t
−
s
)
{\displaystyle W_{t}-W_{s}\sim {\mathcal {N}}(0,t-s)}
.
σ
W
2
(
t
)
=
t
{\displaystyle \sigma _{\mathcal {W}}^{2}(t)=t}
, also je größer
t
{\displaystyle t}
, um so größer die Fluktuationen um den Erwartungswert
μ
W
(
t
)
=
0
{\displaystyle \mu _{\mathcal {W}}(t)=0}
.
Für einen Wiener-Prozess gilt
c
W
(
t
,
s
)
=
min
(
t
,
s
)
{\displaystyle c_{\mathcal {W}}(t,s)=\min(t,s)}
.
Ein Wiener-Prozess ist ein Gauß-Prozess.
Die kanonische Filtration eines Wiener-Prozesses
(
W
t
)
t
∈
[
0
,
1
)
{\displaystyle (W_{t})_{t\in [0,1)}}
ist die Filtration
(3.18)
F
t
W
:=
σ
(
{
W
s
:
0
≤
s
≤
t
}
)
(
t
≥
0
)
,
{\displaystyle {\mathcal {F}}_{t}^{\mathcal {W}}:=\sigma (\{W_{s}:0\leq s\leq t\})\quad (t\geq 0),}
die Filtration
(3.19)
F
t
:=
σ
(
{
F
t
W
∪
O
}
)
(
t
≥
0
)
{\displaystyle {\mathcal {F}}_{t}:=\sigma (\{{\mathcal {F}}_{t}^{\mathcal {W}}\cup {\mathcal {O}}\})\quad (t\geq 0)}
heißt Brownsche Filtration, wobei
O
{\displaystyle {\mathcal {O}}}
die Familie der Nullmengen (s. (3.8)) bezeichnet.
Die Brownsche Filtration ist vollständig. Das hat u. a. folgenden Vorteil: Ist
(
W
t
)
,
(
F
t
)
{\displaystyle (W_{t}),({\mathcal {F}}_{t})}
ein Wiener-Prozess mit Brownscher Filtration und ist
(
W
~
t
)
{\displaystyle ({\tilde {W}}_{t})}
eine Modifikation von
(
W
t
)
{\displaystyle (W_{t})}
, so ist
W
~
t
{\displaystyle {\tilde {W}}_{t}}
auch
(
F
t
,
B
)
{\displaystyle ({\mathcal {F}}_{t},{\mathcal {B}})}
-messbar, also es ist auch eine Filtration für
(
W
~
t
)
{\displaystyle ({\tilde {W}}_{t})}
. Die Brownsche Filtration ist also in gewisser Weise universell.
Ein stochastischer Prozess
(
X
t
)
t
∈
[
0
,
1
)
{\displaystyle (X_{t})_{t\in [0,1)}}
heißt
λ
{\displaystyle \lambda }
-selbstähnlich,
λ
>
0
{\displaystyle \lambda >0}
, falls für alle
n
∈
N
{\displaystyle n\in \mathbb {N} }
, für alle
t
1
,
.
.
.
,
t
n
≥
0
{\displaystyle t_{1},...,t_{n}\geq 0}
und für beliebiges
τ
>
0
{\displaystyle \tau >0}
gilt
(3.20)
(
τ
λ
X
t
1
,
.
.
.
,
τ
λ
X
t
n
)
∼
(
X
τ
t
1
,
.
.
.
,
X
τ
t
n
)
.
{\displaystyle (\tau ^{\lambda }X_{t_{1}},...,\tau ^{\lambda }X_{t_{n}})\sim (X_{\tau t_{1}},...,X_{\tau t_{n}}).}
Selbstähnlich heißt, dass eine andere Skalierung (Ausschnitt, Vergrößerung) wieder eine ähnliche Form hat wie das Original. Aber das gilt natürlich nicht trajektorienweise, sondern in Verteilung .
Der Wiener-Prozess ist 1/2-selbstähnlich, also falls für alle
n
∈
N
{\displaystyle n\in \mathbb {N} }
, für alle
t
1
,
.
.
.
,
t
n
≥
0
{\displaystyle t_{1},...,t_{n}\geq 0}
und für beliebiges
τ
>
0
{\displaystyle \tau >0}
gilt
(3.21)
(
τ
X
t
1
,
.
.
.
,
τ
X
t
n
)
∼
(
X
τ
t
1
,
.
.
.
,
X
τ
t
n
)
.
{\displaystyle ({\sqrt {\tau }}X_{t_{1}},...,{\sqrt {\tau }}X_{t_{n}})\sim (X_{\tau t_{1}},...,X_{\tau t_{n}}).}
Selbstähnliche Prozesse (und damit auch der Wiener-Prozess) haben ziemlich verrückte Trajektorien. Man beachte, dass die Trajektorien stetig sind, aber sie sind nicht differenzierbar.
Theorem 3.12 (Nichtdifferenzierbarkeit selbstähnlicher Prozesse)
Bearbeiten
Sei
(
X
t
)
t
≥
0
{\displaystyle (X_{t})_{t\geq 0}}
ein
λ
{\displaystyle \lambda }
-selbstähnlicher Prozess mit
λ
∈
(
0
,
1
)
{\displaystyle \lambda \in (0,1)}
und
(
X
t
)
{\displaystyle (X_{t})}
habe stationäre Zuwächse. Für alle
t
0
≥
0
{\displaystyle t_{0}\geq 0}
gilt
(3.22)
lim sup
t
↓
t
0
|
X
t
−
X
t
0
|
t
−
t
0
=
∞
,
{\displaystyle \limsup _{t\downarrow t_{0}}{\frac {|X_{t}-X_{t_{0}}|}{t-t_{0}}}=\infty ,}
d. h.
P
{\displaystyle P}
-fast alle Trajektorien sind in keinem Punkt differenzierbar.
Karl Weierstrass entdeckte als erster stetige nirgends differenzierbare Funktionen.
Theorem 3.13 (Unbeschränkte Variation der Brownschen Bewegung)
Bearbeiten
Für
P
{\displaystyle P}
-f. a. Trajektorien
W
t
(
ω
)
{\displaystyle W_{t}(\omega )}
eines Wiener-Prozesses
(
W
t
)
t
≥
0
{\displaystyle (W_{t})_{t\geq 0}}
und alle
T
>
0
{\displaystyle T>0}
ist die Variation von
W
t
(
ω
)
{\displaystyle W_{t}(\omega )}
auf
[
0
,
T
]
{\displaystyle [0,T]}
unendlich, d. h. bezeichnen wir mit
T
{\displaystyle {\mathcal {T}}}
die Menge aller endlichen Zerlegungen
τ
n
:
0
=
t
0
<
.
.
.
<
t
n
=
T
,
n
∈
N
{\displaystyle \tau _{n}:0=t_{0}<...<t_{n}=T,n\in \mathbb {N} }
, so gilt für
P
{\displaystyle P}
-f. a.
ω
{\displaystyle \omega }
(3.23)
sup
n
∈
N
,
τ
n
∈
T
∑
k
=
1
n
|
W
t
k
(
ω
)
−
W
t
k
−
1
(
ω
)
|
=
∞
.
{\displaystyle \sup _{n\in \mathbb {N} ,\tau _{n}\in {\mathcal {T}}}\sum _{k=1}^{n}|W_{t_{k}}(\omega )-W_{t_{k-1}}(\omega )|=\infty .}
Die unbeschränkte Variation ist (neben der Nichtdifferenzierbarkeit) der Hauptgrund dafür, dass die herkömmliche Integrationstheorie nicht anwendbar ist und neue Methoden - nämlich die stochastische Analysis - entwickelt werden mussten. Man beachte aber auch Satz 4.1.
Sei
(
W
t
)
t
∈
[
0
,
1
]
{\displaystyle (W_{t})_{t\in [0,1]}}
ein Wiener-Prozess. Der Prozess
X
=
(
X
t
)
t
∈
[
0
,
1
]
{\displaystyle {\mathcal {X}}=(X_{t})_{t\in [0,1]}}
mit
(3.24)
X
t
:=
W
t
−
t
⋅
W
1
(
t
∈
[
0
,
1
]
)
{\displaystyle X_{t}:=W_{t}-t\cdot W_{1}\quad (t\in [0,1])}
heißt Brownsche Brücke.
Zeige, dass
(
X
t
)
{\displaystyle (X_{t})}
ein Gauß-Prozess ist und dass gilt
μ
X
(
t
)
=
0
{\displaystyle \mu _{\mathcal {X}}(t)=0}
sowie
c
X
(
t
,
s
)
=
min
(
t
,
s
)
−
t
⋅
s
(
t
,
s
∈
[
0
,
1
]
)
{\displaystyle c_{\mathcal {X}}(t,s)=\min(t,s)-t\cdot s\quad (t,s\in [0,1])}
.
Aufgabe 3.4 (Brownsche Bewegung mit Drift)
Bearbeiten
Sei
(
W
t
)
t
∈
[
0
,
∞
)
{\displaystyle (W_{t})_{t\in [0,\infty )}}
ein Wiener-Prozess,
μ
∈
R
{\displaystyle \mu \in \mathbb {R} }
und
σ
>
0
{\displaystyle \sigma >0}
Konstanten. Der Prozess
X
=
(
X
t
)
t
∈
[
0
,
∞
)
{\displaystyle {\mathcal {X}}=(X_{t})_{t\in [0,\infty )}}
mit
(3.25)
X
t
:=
μ
t
+
σ
W
t
(
t
∈
[
0
,
∞
)
)
{\displaystyle X_{t}:=\mu t+\sigma W_{t}\quad (t\in [0,\infty ))}
heißt Brownsche Bewegung mit Drift.
Zeige, dass
(
X
t
)
{\displaystyle (X_{t})}
ein Gauß-Prozess ist mit
μ
X
(
t
)
=
μ
t
{\displaystyle \mu _{\mathcal {X}}(t)=\mu t}
sowie
c
X
(
t
,
s
)
=
σ
2
min
(
t
,
s
)
(
t
,
s
∈
[
0
,
∞
)
)
{\displaystyle c_{\mathcal {X}}(t,s)=\sigma ^{2}\min(t,s)\quad (t,s\in [0,\infty ))}
.
L. Bachelier beschrieb als erster die Preise von risikoreichen Anlagen durch eine Brownsche Bewegung. Die Brownsche Bewegung kann aber - wie jeder Gauß-Prozess - auch negative Werte annehmen, was für die Modellierung von Preisen nicht wünschenswert ist. In den mit dem Nobelpreis ausgezeichneten Arbeiten von Black, Scholes und Merton wird vorgeschlagen, nicht mit der Brownschen Bewegung selbst, sondern mit einer Funktion davon die Modellierung vorzunehmen.
Aufgabe 3.5 (Geometrische Brownsche Bewegung)
Bearbeiten
Sei
(
W
t
)
t
∈
[
0
,
∞
)
{\displaystyle (W_{t})_{t\in [0,\infty )}}
ein Wiener-Prozess,
μ
∈
R
{\displaystyle \mu \in \mathbb {R} }
und
σ
>
0
{\displaystyle \sigma >0}
Konstanten. Der stochastische Prozess
X
=
(
X
t
)
t
∈
[
0
,
∞
)
{\displaystyle {\mathcal {X}}=(X_{t})_{t\in [0,\infty )}}
mit
(3.26)
X
t
:=
exp
{
μ
t
+
σ
W
t
}
(
t
∈
[
0
,
∞
)
)
{\displaystyle X_{t}:=\exp\{\mu t+\sigma W_{t}\}\quad (t\in [0,\infty ))}
heißt geometrische Brownsche Bewegung mit Drift.
Zeige, dass
(
X
t
)
{\displaystyle (X_{t})}
kein Gauß-Prozess ist und dass gilt
μ
X
(
t
)
=
exp
{
(
μ
+
σ
2
/
2
)
t
}
(
t
∈
[
0
,
∞
)
)
.
{\displaystyle \mu _{\mathcal {X}}(t)=\exp\{(\mu +\sigma ^{2}/2)t\}\quad (t\in [0,\infty )).}
In der Physik bezeichnet man eine gewisse "Ableitung" der Trajektorien des Wiener Prozesses als weißes Rauschen . Da die Trajektorien nirgends differenzierbar sind, ist dies nur im Sinne einer gewissen Konvergenz zu verstehen. Eine gewisse Approximation dieses weißen Rauschens ist das sog. farbige Rauschen.
Aufgabe 3.6 (Gaußsches farbiges Rauschen)
Bearbeiten
Sei
(
W
t
)
t
∈
[
0
,
∞
)
{\displaystyle (W_{t})_{t\in [0,\infty )}}
ein Wiener-Prozess und
h
>
0
{\displaystyle h>0}
eine Konstante. Der Prozess
X
=
(
X
t
)
t
∈
[
0
,
∞
)
{\displaystyle {\mathcal {X}}=(X_{t})_{t\in [0,\infty )}}
mit
(3.27)
X
t
:=
W
t
+
h
−
W
t
h
(
t
∈
[
0
,
∞
)
)
{\displaystyle X_{t}:={\frac {W_{t+h}-W_{t}}{h}}\quad (t\in [0,\infty ))}
heißt Gaußsches farbiges Rauschen.
Zeige, dass
(
X
t
)
{\displaystyle (X_{t})}
ein Gauß-Prozess ist und dass gilt
μ
X
(
t
)
=
0
{\displaystyle \mu _{\mathcal {X}}(t)=0}
und
c
X
(
t
,
s
)
=
s
+
h
−
min
(
s
+
h
,
t
)
h
2
(
0
≤
s
≤
t
)
{\displaystyle c_{\mathcal {X}}(t,s)={\frac {s+h-\min(s+h,t)}{h^{2}}}\quad (0\leq s\leq t)}
.
Für
t
≥
s
+
h
{\displaystyle t\geq s+h}
gilt
c
X
(
t
,
s
)
=
0
{\displaystyle c_{\mathcal {X}}(t,s)=0}
, d. h. (die Zufallsgrößen sind normalverteilt!) zu weiter als
h
{\displaystyle h}
voneinander entfernten Zeitpunkten sind die Zufallsgrößen unabhängig. Wäre
W
t
{\displaystyle W_{t}}
differenzierbar, so würde für
h
↓
0
{\displaystyle h\downarrow 0}
in (3.27) im Limes die Ableitung des Wiener-Prozesses stehen. In diesem Sinne ist das farbige Rauschen eine Approximation des weißen Rauschens. Beachte auch, dass
Var
(
X
t
)
=
c
X
(
t
,
t
)
=
1
/
h
{\displaystyle \operatorname {Var} (X_{t})=c_{\mathcal {X}}(t,t)=1/h}
gilt. Je kleiner
h
{\displaystyle h}
, um so größer die Varianz der Zufallsgrößen.
a) Sei
f
:
R
→
R
{\displaystyle f:\mathbb {R} \to \mathbb {R} }
differenzierbar in
t
0
{\displaystyle t_{0}}
. Berechne
lim
h
↘
0
(
f
(
t
0
+
h
)
−
f
(
t
0
)
)
2
h
.
{\displaystyle \lim _{h\searrow 0}{\frac {(f(t_{0}+h)-f(t_{0}))^{2}}{h}}.}
b) Sei
(
W
t
)
t
∈
[
0
,
∞
)
{\displaystyle (W_{t})_{t\in [0,\infty )}}
ein Wiener-Prozess,
t
0
≥
0
{\displaystyle t_{0}\geq 0}
. Berechne
lim
h
↘
0
E
(
W
t
0
+
h
−
W
t
0
)
2
h
.
{\displaystyle \lim _{h\searrow 0}{\frac {\mathbb {E} (W_{t_{0}+h}-W_{t_{0}})^{2}}{h}}.}
c) Wie erklären Sie sich die unterschiedlichen Ergebnisse?
In Definition 3.8 wurde der Begriff eines adaptierten stochastischen Prozesses eingeführt. Ein stochastischer Prozess
Y
=
(
Y
t
)
t
∈
I
{\displaystyle {\mathcal {Y}}=(Y_{t})_{t\in I}}
ist adaptiert an die Filtration
(
F
t
)
t
∈
I
{\displaystyle ({\mathcal {F}}_{t})_{t\in I}}
, falls für alle
t
∈
I
{\displaystyle t\in I}
gilt
σ
(
Y
t
)
⊆
F
t
{\displaystyle \sigma (Y_{t})\subseteq {\mathcal {F}}_{t}}
, die
Y
t
{\displaystyle Y_{t}}
besitzen also nicht mehr Information als
F
t
{\displaystyle {\mathcal {F}}_{t}}
. Ist
I
=
N
∗
{\displaystyle I=\mathbb {N} ^{*}}
(
Y
{\displaystyle {\mathcal {Y}}}
ist zeitlich diskret), so heißt das speziell
σ
(
Y
n
)
⊆
F
n
{\displaystyle \sigma (Y_{n})\subseteq {\mathcal {F}}_{n}}
für alle
n
∈
N
∗
{\displaystyle n\in \mathbb {N} ^{*}}
.
Ein stochastischer Prozess
X
=
(
X
t
)
t
∈
[
0
,
∞
)
{\displaystyle {\mathcal {X}}=(X_{t})_{t\in [0,\infty )}}
heißt Martingal in stetiger Zeit bezüglich der Filtration
(
F
t
)
t
∈
[
0
,
∞
)
{\displaystyle ({\mathcal {F}}_{t})_{t\in [0,\infty )}}
, falls folgendes gilt:
E
|
X
t
|
<
∞
{\displaystyle \mathbb {E} |X_{t}|<\infty }
für alle
t
∈
[
0
,
∞
)
{\displaystyle t\in [0,\infty )}
,
X
{\displaystyle {\mathcal {X}}}
adaptiert ist an
(
F
t
)
t
∈
[
0
,
∞
)
{\displaystyle ({\mathcal {F}}_{t})_{t\in [0,\infty )}}
sowie
(3.28)
E
(
X
t
|
F
s
)
=
X
s
{\displaystyle \mathbb {E} (X_{t}|{\mathcal {F}}_{s})=X_{s}}
für alle
0
≤
s
≤
t
{\displaystyle 0\leq s\leq t}
.
Ein stochastischer Prozess
X
=
(
X
n
)
n
∈
N
∗
{\displaystyle {\mathcal {X}}=(X_{n})_{n\in \mathbb {N} ^{*}}}
heißt Martingal in diskreter Zeit bezüglich der Filtration
(
F
n
)
n
∈
N
∗
{\displaystyle ({\mathcal {F}}_{n})_{n\in \mathbb {N} ^{*}}}
, falls folgendes gilt:
E
|
X
n
|
<
∞
{\displaystyle \mathbb {E} |X_{n}|<\infty }
für alle
n
∈
N
∗
{\displaystyle n\in \mathbb {N} ^{*}}
,
X
{\displaystyle {\mathcal {X}}}
adaptiert ist an
(
F
n
)
n
∈
N
∗
{\displaystyle ({\mathcal {F}}_{n})_{n\in N^{*}}}
sowie
(3.29)
E
(
X
n
+
1
|
F
n
)
=
X
n
{\displaystyle \mathbb {E} (X_{n+1}|{\mathcal {F}}_{n})=X_{n}}
für alle
n
∈
N
∗
{\displaystyle n\in \mathbb {N} ^{*}}
.
Sei
X
=
(
X
n
)
n
∈
N
∗
{\displaystyle {\mathcal {X}}=(X_{n})_{n\in \mathbb {N} ^{*}}}
ein Martingal in diskreter Zeit bezüglich der Filtration
(
F
n
)
n
∈
N
∗
{\displaystyle ({\mathcal {F}}_{n})_{n\in \mathbb {N} ^{*}}}
. Zeige, dass für alle
n
,
k
∈
N
∗
{\displaystyle n,k\in \mathbb {N} ^{*}}
gilt
(3.30)
E
(
X
n
+
k
|
F
n
)
=
X
n
.
{\displaystyle \mathbb {E} (X_{n+k}|{\mathcal {F}}_{n})=X_{n}.}
Sei
X
=
(
X
n
)
n
∈
N
∗
{\displaystyle {\mathcal {X}}=(X_{n})_{n\in \mathbb {N} ^{*}}}
ein Martingal in diskreter Zeit bezüglich der Filtration
(
F
n
)
n
∈
N
∗
{\displaystyle ({\mathcal {F}}_{n})_{n\in \mathbb {N} ^{*}}}
und
Y
=
(
Y
n
)
n
∈
N
{\displaystyle {\mathcal {Y}}=(Y_{n})_{n\in \mathbb {N} }}
die Folge der Martingaldifferenzen:
Y
n
+
1
:=
X
n
+
1
−
X
n
,
n
∈
N
∗
{\displaystyle Y_{n+1}:=X_{n+1}-X_{n},n\in \mathbb {N} ^{*}}
. Zeige, dass für alle
n
∈
N
∗
{\displaystyle n\in \mathbb {N} ^{*}}
gilt
E
(
Y
n
+
1
|
F
n
)
=
0
{\displaystyle \mathbb {E} (Y_{n+1}|{\mathcal {F}}_{n})=0}
.
Beweise, dass die Erwartungswertfunktion eines Martingals konstant ist, also dass für alle
s
,
t
∈
I
{\displaystyle s,t\in I}
gilt
E
X
t
=
E
X
s
{\displaystyle \mathbb {E} X_{t}=\mathbb {E} X_{s}}
.
Sei
(
W
t
)
t
∈
[
0
,
∞
)
{\displaystyle (W_{t})_{t\in [0,\infty )}}
ein Wiener Prozess mit der kanonischen Filtration
(
F
t
)
t
∈
[
0
,
∞
)
{\displaystyle ({\mathcal {F}}_{t})_{t\in [0,\infty )}}
. Zeige, dass
(
W
t
2
)
t
∈
[
0
,
∞
)
{\displaystyle (W_{t}^{2})_{t\in [0,\infty )}}
kein Martingal bezüglich der Filtration
(
F
t
)
t
∈
[
0
,
∞
)
{\displaystyle ({\mathcal {F}}_{t})_{t\in [0,\infty )}}
ist.
Sei
(
W
t
)
t
∈
[
0
,
∞
)
{\displaystyle (W_{t})_{t\in [0,\infty )}}
ein Wiener Prozess mit der kanonischen Filtration
(
F
t
)
t
∈
[
0
,
∞
)
{\displaystyle ({\mathcal {F}}_{t})_{t\in [0,\infty )}}
. Welche der folgenden stochastischen Prozesse sind bezüglich
(
F
t
)
t
∈
[
0
,
∞
)
{\displaystyle ({\mathcal {F}}_{t})_{t\in [0,\infty )}}
ein Martingal:
(3.31) a)
W
t
{\displaystyle W_{t}}
,
(3.32) b)
W
t
2
−
t
{\displaystyle W_{t}^{2}-t}
,
(3.33) c)
W
t
3
−
3
t
W
t
{\displaystyle W_{t}^{3}-3tW_{t}}
?
Sei
(
W
t
)
t
∈
[
0
,
∞
)
{\displaystyle (W_{t})_{t\in [0,\infty )}}
ein Wiener Prozess mit der kanonischen Filtration
(
F
t
)
t
∈
[
0
,
∞
)
{\displaystyle ({\mathcal {F}}_{t})_{t\in [0,\infty )}}
. Finde einen Prozess
(
X
t
)
{\displaystyle (X_{t})}
, so dass
(
W
t
4
+
X
t
)
t
∈
[
0
,
∞
)
{\displaystyle (W_{t}^{4}+X_{t})_{t\in [0,\infty )}}
bezüglich
(
F
t
)
t
∈
[
0
,
∞
)
{\displaystyle ({\mathcal {F}}_{t})_{t\in [0,\infty )}}
ein Martingal ist.
Sei
(
Z
n
)
n
∈
N
∗
{\displaystyle (Z_{n})_{n\in \mathbb {N} ^{*}}}
eine Folge von unabhängigen Zufallsgrößen über einem Wahrscheinlichkeitsraum
[
Ω
,
F
,
P
]
{\displaystyle [\Omega ,{\mathcal {F}},P]}
, und es gelte
E
Z
n
=
0
{\displaystyle \mathbb {E} Z_{n}=0}
für alle
n
{\displaystyle n}
sowie
Z
0
=
0
{\displaystyle Z_{0}=0}
. Wir setzen
R
n
=
Z
0
+
.
.
.
+
Z
n
(
n
∈
N
∗
)
.
{\displaystyle R_{n}=Z_{0}+...+Z_{n}\quad (n\in \mathbb {N} ^{*}).}
Weiter sei
(
F
n
)
{\displaystyle ({\mathcal {F}}_{n})}
die kanonische Filtration zu
(
R
n
)
{\displaystyle (R_{n})}
, also
F
n
=
σ
(
R
0
,
.
.
.
,
R
n
)
{\displaystyle {\mathcal {F}}_{n}=\sigma (R_{0},...,R_{n})}
.
a) Zeige, dass gilt
F
n
=
σ
(
Z
0
,
.
.
.
,
Z
n
)
{\displaystyle {\mathcal {F}}_{n}=\sigma (Z_{0},...,Z_{n})}
.
b) Beweise, dass
(
R
n
)
{\displaystyle (R_{n})}
bezüglich der kanonischen Filtration ein Martingal ist.
Sei
Z
{\displaystyle Z}
eine Zufallsgröße über einem Wahrscheinlichkeitsraum
[
Ω
,
F
,
P
]
{\displaystyle [\Omega ,{\mathcal {F}},P]}
mit
E
|
Z
|
<
∞
{\displaystyle \mathbb {E} |Z|<\infty }
und
(
F
t
)
t
∈
[
0
,
∞
)
{\displaystyle ({\mathcal {F}}_{t})_{t\in [0,\infty )}}
eine beliebige Filtration in
[
Ω
,
F
]
{\displaystyle [\Omega ,{\mathcal {F}}]}
. Beweise, dass
X
t
:=
E
(
Z
|
F
t
)
(
t
∈
[
0
,
∞
)
)
{\displaystyle X_{t}:=\mathbb {E} (Z|{\mathcal {F}}_{t})\quad (t\in [0,\infty ))}
bezüglich der Filtration
(
F
t
)
t
∈
[
0
,
∞
)
{\displaystyle ({\mathcal {F}}_{t})_{t\in [0,\infty )}}
ein Martingal ist.
Sei
Y
=
(
Y
n
)
n
∈
N
{\displaystyle {\mathcal {Y}}=(Y_{n})_{n\in \mathbb {N} }}
eine Folge von Martingaldifferenzen (s. Aufgabe 3.9) bezüglich einer Filtration
(
F
n
)
n
∈
N
∗
{\displaystyle ({\mathcal {F}}_{n})_{n\in \mathbb {N} ^{*}}}
und es sei
C
=
(
C
n
)
n
∈
N
{\displaystyle {\mathcal {C}}=(C_{n})_{n\in \mathbb {N} }}
ein stochastischer Prozess mit der Eigenschaft
(3.34)
σ
(
C
n
)
⊆
F
n
−
1
(
n
∈
N
)
.
{\displaystyle \sigma (C_{n})\subseteq {\mathcal {F}}_{n-1}\quad (n\in \mathbb {N} ).}
Ein solcher Prozess heißt vorhersagbar bezüglich der Filtration
(
F
n
)
n
∈
N
∗
{\displaystyle ({\mathcal {F}}_{n})_{n\in \mathbb {N} ^{*}}}
. Wir definieren einen neuen stochastischen Prozess
(
X
n
)
n
∈
N
∗
{\displaystyle (X_{n})_{n\in \mathbb {N} ^{*}}}
vermöge
(3.35)
X
0
=
0
,
X
n
=
∑
k
=
1
n
C
k
Y
k
(
n
∈
N
)
.
{\displaystyle X_{0}=0,\quad X_{n}=\sum _{k=1}^{n}C_{k}Y_{k}\quad (n\in \mathbb {N} ).}
Symbolisch schreiben wir
X
=
C
∙
Y
{\displaystyle {\mathcal {X}}={\mathcal {C}}\bullet {\mathcal {Y}}}
und nennen
X
{\displaystyle X}
die Martingaltransformierte von
Y
{\displaystyle {\mathcal {Y}}}
mit
C
{\displaystyle {\mathcal {C}}}
. Beweise, dass
X
{\displaystyle X}
ein Martingal und
(
X
n
−
X
n
−
1
)
n
∈
N
{\displaystyle (X_{n}-X_{n-1})_{n\in \mathbb {N} }}
eine Folge von Martingaldifferenzen bezüglich der Filtration
(
F
n
)
n
∈
N
∗
{\displaystyle ({\mathcal {F}}_{n})_{n\in \mathbb {N} ^{*}}}
ist.
Sei
(
W
t
)
t
∈
[
0
,
T
]
{\displaystyle (W_{t})_{t\in [0,T]}}
ein Wiener Prozess mit der kanonischen Filtration
(
F
t
)
t
∈
[
0
,
T
]
{\displaystyle ({\mathcal {F}}_{t})_{t\in [0,T]}}
und
τ
=
(
t
0
,
t
1
,
.
.
.
,
t
n
)
{\displaystyle \tau =(t_{0},t_{1},...,t_{n})}
eine Zerlegung von
[
0
,
T
]
{\displaystyle [0,T]}
,
0
=
t
0
<
t
1
<
.
.
.
<
t
n
=
T
.
{\displaystyle 0=t_{0}<t_{1}<...<t_{n}=T.}
a) Beweise, dass die Folge
Δ
W
=
(
Δ
k
W
)
k
=
1
n
{\displaystyle \Delta {\mathcal {W}}=(\Delta _{k}{\mathcal {W}})_{k=1}^{n}}
,
Δ
k
W
:=
W
t
k
−
W
t
k
−
1
(
k
∈
{
1
,
.
.
.
,
n
}
)
{\displaystyle \Delta _{k}{\mathcal {W}}:=W_{t_{k}}-W_{t_{k-1}}\quad (k\in \{1,...,n\})}
eine Folge von Martingaldifferenzen bezüglich der Filtration
(
F
k
)
k
=
0
n
{\displaystyle ({\mathcal {F}}_{k})_{k=0}^{n}}
mit
F
0
=
{
∅
,
Ω
}
,
F
k
=
σ
(
W
t
j
:
1
≤
j
≤
k
)
(
k
∈
N
)
{\displaystyle {\mathcal {F}}_{0}=\{\emptyset ,\Omega \},\quad {\mathcal {F}}_{k}=\sigma (W_{t_{j}}:1\leq j\leq k)\quad (k\in \mathbb {N} )}
darstellt.
b) Zeige, dass
C
=
(
W
t
k
−
1
)
k
=
1
n
{\displaystyle {\mathcal {C}}=(W_{t_{k-1}})_{k=1}^{n}}
vorhersagbar ist bezüglich
(
F
k
)
k
=
0
n
{\displaystyle ({\mathcal {F}}_{k})_{k=0}^{n}}
und dass die Martingaltransformierte
C
∙
Δ
W
{\displaystyle {\mathcal {C}}\bullet \Delta {\mathcal {W}}}
ein Martingal bezüglich der Filtration
(
F
k
)
k
=
0
n
{\displaystyle ({\mathcal {F}}_{k})_{k=0}^{n}}
ist, wobei gilt
(
C
∙
Δ
W
)
k
=
∑
j
=
1
k
W
t
j
−
1
(
W
t
j
−
W
t
j
−
1
)
(
k
∈
{
1
,
.
.
.
,
n
}
)
.
{\displaystyle ({\mathcal {C}}\bullet \Delta {\mathcal {W}})_{k}=\sum _{j=1}^{k}W_{t_{j-1}}(W_{t_{j}}-W_{t_{j-1}})\quad (k\in \{1,...,n\}).}