Eine Folge von Zufallsgrößen
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
über Fehler beim Parsen (Syntaxfehler): {\displaystyle (\Omega, \mathcal F, P)}
mit abzählbarem Zustandsraum
Fehler beim Parsen (Syntaxfehler): {\displaystyle I := \bigcup_{n\in\N} X_n(\Omega)}
(o. B. d. A. gelte
I
⊆
Z
{\displaystyle I\subseteq \mathbb {Z} }
) heißt Markov-Kette in diskreter Zeit, falls für alle
n
∈
N
0
{\displaystyle n\in \mathbb {N} _{0}}
,
i
0
,
…
,
i
n
+
1
∈
I
{\displaystyle i_{0},\ldots ,i_{n+1}\in I}
mit
P
(
X
n
=
i
n
,
…
,
X
0
=
i
0
)
>
0
{\displaystyle P(X_{n}=i_{n},\ldots ,X_{0}=i_{0})>0}
gilt:
P
(
X
n
+
1
=
i
n
+
1
|
X
n
=
i
n
,
…
,
X
0
=
i
0
)
=
P
(
X
n
+
1
=
i
n
+
1
|
X
n
=
i
n
)
=:
p
i
n
,
i
n
+
1
(
n
,
n
+
1
)
.
{\displaystyle P(X_{n+1}=i_{n+1}|X_{n}=i_{n},\ldots ,X_{0}=i_{0})=P(X_{n+1}=i_{n+1}|X_{n}=i_{n})=:p_{i_{n},i_{n+1}}^{(n,n+1)}.}
Die Markov-Kette heißt homogen, falls
p
i
,
j
:=
p
i
,
j
(
n
,
n
+
1
)
{\displaystyle p_{i,j}:=p_{i,j}^{(n,n+1)}}
unabhängig von
n
{\displaystyle n}
ist.
Die
p
i
,
j
(
n
,
n
+
1
)
{\displaystyle p_{i,j}^{(n,n+1)}}
heißen 1-Schritt-Übergangswahrscheinlichkeiten.
P
(
n
,
n
+
1
)
:=
(
p
i
,
j
(
n
,
n
+
1
)
)
i
,
j
∈
I
{\displaystyle P^{(n,n+1)}:=(p_{i,j}^{(n,n+1)})_{i,j\in I}}
heißt Matrix der 1-Schritt-Übergangswahrscheinlichkeiten.
(
p
i
,
j
)
i
,
j
∈
I
{\displaystyle (p_{i,j})_{i,j\in I}}
ist eine stochastische Matrix , d. h.:
p
i
,
j
≥
0
{\displaystyle p_{i,j}\geq 0}
für alle
i
,
j
∈
I
{\displaystyle i,j\in I}
und
∑
j
∈
I
p
i
,
j
=
1
{\displaystyle \sum _{j\in I}p_{i,j}=1}
für alle
i
∈
I
{\displaystyle i\in I}
.
Ein Spieler gewinnt 1 € mit Wk.
p
{\displaystyle p}
und verliert 1 € mit Wk.
q
=
1
−
p
{\displaystyle q=1-p}
. Er spielt, bis er entweder 0 oder
M
{\displaystyle M}
€ hat. Die Spiele seien unabhängig.
X
0
∈
{
0
,
…
,
M
}
{\displaystyle X_{0}\in \{0,\ldots ,M\}}
sei gegeben.
X
n
{\displaystyle X_{n}}
- zufälliges Vermögen nach
n
{\displaystyle n}
Spielen.
(
X
n
)
n
≥
0
{\displaystyle (X_{n})_{n\geq 0}}
ist eine homogene Markovkette mit folgender Matrix der 1-Schritt-Übergangswahrscheinlichkeiten:
P
=
(
p
0
,
0
p
0
,
1
…
p
0
,
M
p
1
,
0
p
1
,
1
⋱
⋮
⋮
⋱
⋱
p
M
−
1
,
M
p
M
,
0
…
p
M
,
M
−
1
p
M
,
M
)
=
(
1
0
0
0
…
0
q
0
p
0
…
0
0
q
0
p
⋱
⋮
0
0
⋱
⋱
⋱
0
⋮
⋮
⋱
q
0
p
0
0
…
0
0
1
)
.
{\displaystyle P={\begin{pmatrix}p_{0,0}&p_{0,1}&\ldots &p_{0,M}\\p_{1,0}&p_{1,1}&\ddots &\vdots \\\vdots &\ddots &\ddots &p_{M-1,M}\\p_{M,0}&\ldots &p_{M,M-1}&p_{M,M}\end{pmatrix}}={\begin{pmatrix}1&0&0&0&\ldots &0\\q&0&p&0&\ldots &0\\0&q&0&p&\ddots &\vdots \\0&0&\ddots &\ddots &\ddots &0\\\vdots &\vdots &\ddots &q&0&p\\0&0&\ldots &0&0&1\end{pmatrix}}.}
Sei
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
eine homogene Markov-Kette. Die Verteilung von
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
ist eindeutig festgelegt durch ihre Matrix
P
:=
(
p
i
,
j
)
i
,
j
∈
I
{\displaystyle P:=(p_{i,j})_{i,j\in I}}
der Übergangswahrscheinlichkeiten und die Anfangsverteilung von
X
0
{\displaystyle X_{0}}
. Mit
p
k
:=
P
(
X
0
=
k
)
{\displaystyle p_{k}:=P(X_{0}=k)}
gilt:
P
(
X
0
=
i
0
,
…
,
X
n
=
i
n
)
=
p
i
0
⋅
p
i
0
,
i
1
⋯
p
i
n
−
1
,
i
n
.
{\displaystyle P(X_{0}=i_{0},\ldots ,X_{n}=i_{n})=p_{i_{0}}\cdot p_{i_{0},i_{1}}\cdots p_{i_{n-1},i_{n}}.}
Sei
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
eine Markov-Kette,
i
,
j
∈
I
,
k
<
m
<
n
{\displaystyle i,j\in I,k<m<n}
. Dann gilt die Chapman-Kolmogoroff-Gleichung:
P
(
X
n
=
j
|
X
k
=
i
)
=
∑
l
∈
I
P
(
X
m
=
l
|
X
k
=
i
)
⋅
P
(
X
n
=
j
|
X
m
=
l
)
{\displaystyle P(X_{n}=j|X_{k}=i)=\sum _{l\in I}P(X_{m}=l|X_{k}=i)\cdot P(X_{n}=j|X_{m}=l)}
oder kurz:
p
i
,
j
k
,
n
=
∑
l
∈
I
p
i
,
l
k
,
m
p
l
,
j
m
,
n
.
{\displaystyle p_{i,j}^{k,n}=\sum _{l\in I}p_{i,l}^{k,m}p_{l,j}^{m,n}.}
Sei nun
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
eine homogene Markov-Kette. Es gilt also:
p
i
,
j
k
,
k
+
m
=
p
i
,
j
(
m
)
{\displaystyle p_{i,j}^{k,k+m}=p_{i,j}^{(m)}}
(die
m
{\displaystyle m}
-Schritt-Übergangswahrscheinlichkeiten sind unabhängig von
k
{\displaystyle k}
).
Mit
P
:=
(
p
i
,
j
)
i
,
j
∈
I
{\displaystyle P:=(p_{i,j})_{i,j\in I}}
gilt:
(
p
i
,
j
(
m
)
)
i
,
j
∈
I
=
P
m
{\displaystyle \left(p_{i,j}^{(m)}\right)_{i,j\in I}=P^{m}}
(
m
{\displaystyle m}
-faches Matrix-Produkt).
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
homogene Markov-Kette,
p
k
=
P
(
X
0
=
k
)
{\displaystyle p_{k}=P(X_{0}=k)}
. Dann gilt:
P
(
X
n
=
k
)
=
∑
l
∈
I
p
l
⋅
p
l
,
k
(
n
)
.
{\displaystyle P(X_{n}=k)=\sum _{l\in I}p_{l}\cdot p_{l,k}^{(n)}.}
Beispiel 1.2 (Summe unabhängiger Zufallsgrößen)
Bearbeiten
Seien
X
0
,
Y
1
,
Y
2
,
…
,
Y
n
{\displaystyle X_{0},Y_{1},Y_{2},\ldots ,Y_{n}}
unabhängige Zufallsgrößen auf
(
Ω
,
F
,
P
)
{\displaystyle (\Omega ,{\mathcal {F}},P)}
mit Werten in
Z
{\displaystyle \mathbb {Z} }
. Sei
X
n
:=
X
0
+
Y
1
+
…
+
Y
n
.
⇒
Y
k
=
X
k
−
X
k
−
1
.
{\displaystyle X_{n}:=X_{0}+Y_{1}+\ldots +Y_{n}.\Rightarrow Y_{k}=X_{k}-X_{k-1}.}
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
ist Markov-Kette, denn:
P
(
X
n
+
1
=
i
n
+
1
|
X
n
=
i
n
,
…
,
X
0
=
i
0
)
{\displaystyle P(X_{n+1}=i_{n+1}|X_{n}=i_{n},\ldots ,X_{0}=i_{0})}
(1.1)
=
P
(
X
n
+
1
=
i
n
+
1
,
…
,
X
0
=
i
0
)
P
(
X
n
=
i
n
,
…
,
X
0
=
i
0
)
{\displaystyle ={\frac {P(X_{n+1}=i_{n+1},\ldots ,X_{0}=i_{0})}{P(X_{n}=i_{n},\ldots ,X_{0}=i_{0})}}}
(1.2)
=
P
(
X
0
=
i
0
,
Y
1
=
i
1
−
i
0
,
Y
n
+
1
=
i
n
+
1
−
i
n
)
P
(
X
0
=
i
0
,
Y
1
=
i
1
−
i
0
,
Y
n
=
i
n
−
i
n
−
1
)
{\displaystyle ={\frac {P(X_{0}=i_{0},Y_{1}=i_{1}-i_{0},Y_{n+1}=i_{n+1}-i_{n})}{P(X_{0}=i_{0},Y_{1}=i_{1}-i_{0},Y_{n}=i_{n}-i_{n-1})}}}
(1.3)
=
P
(
Y
n
+
1
=
i
n
+
1
−
i
n
)
{\displaystyle =P(Y_{n+1}=i_{n+1}-i_{n})}
(1.4)
=
P
(
X
n
+
1
=
i
n
+
1
|
X
n
=
i
n
)
.
{\displaystyle =P(X_{n+1}=i_{n+1}|X_{n}=i_{n}).}
Die Markov-Kette ist homogen
⇔
(
Y
n
)
{\displaystyle \Leftrightarrow (Y_{n})}
i. i. d.
Spezialfall für Summe unabhängiger Zufallsgrößen mit
(
Y
n
)
{\displaystyle (Y_{n})}
i. i. d.,
P
(
Y
n
=
1
)
=
p
,
P
(
Y
n
=
−
1
)
=
q
=
1
−
p
,
X
0
∈
Z
{\displaystyle P(Y_{n}=1)=p,P(Y_{n}=-1)=q=1-p,X_{0}\in \mathbb {Z} }
. Dann gilt:
P
=
(
⋱
0
q
0
p
q
0
p
q
0
p
0
⋱
)
.
{\displaystyle P={\begin{pmatrix}\ddots &&&&&&0\\&q&0&p&&&\\&&q&0&p&&\\&&&q&0&p&\\0&&&&&&\ddots \end{pmatrix}}.}
Beispiel 1.4 (Irrfahrt mit absorbierenden Rändern)
Bearbeiten
X
0
∈
{
0
,
…
,
M
}
.
{\displaystyle X_{0}\in \{0,\ldots ,M\}.}
P
=
(
1
0
0
q
0
p
q
0
p
⋱
q
0
p
q
0
p
0
0
1
)
.
{\displaystyle P={\begin{pmatrix}1&0&&&&&0\\q&0&p&&&&\\&q&0&p&&&\\&&&\ddots &&&\\&&&q&0&p&\\&&&&q&0&p\\0&&&&&0&1\end{pmatrix}}.}
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
homogene Markov-Kette.
i
,
j
∈
I
{\displaystyle i,j\in I}
.
Ein Zustand
j
{\displaystyle j}
heißt aus
i
{\displaystyle i}
erreichbar
(
i
⇝
j
)
{\displaystyle (i\rightsquigarrow j)}
, falls
∃
n
∈
N
0
{\displaystyle \exists n\in \mathbb {N} _{0}}
mit
p
i
,
j
(
n
)
>
0
{\displaystyle p_{i,j}^{(n)}>0}
. Die Zustände
i
{\displaystyle i}
und
j
{\displaystyle j}
heißen verbunden
(
i
↭
j
)
{\displaystyle (i\leftrightsquigarrow j)}
, falls
i
⇝
j
{\displaystyle i\rightsquigarrow j}
und
j
⇝
i
{\displaystyle j\rightsquigarrow i}
.
"
↭
{\displaystyle \leftrightsquigarrow }
" ist eine Äquivalenzrelation. Mit
I
(
j
)
:=
{
i
∈
I
|
i
↭
j
}
{\displaystyle I(j):=\{i\in I|i\leftrightsquigarrow j\}}
gilt also:
I
(
i
)
=
I
(
j
)
⇔
i
↭
j
.
{\displaystyle I(i)=I(j)\Leftrightarrow i\leftrightsquigarrow j.}
d
(
i
)
:=
{
0
,
f
a
l
l
s
p
i
,
i
n
=
0
∀
n
∈
N
gcd
{
n
∈
N
|
p
i
,
i
n
>
0
}
,
s
o
n
s
t
{\displaystyle d(i):={\begin{cases}0,&falls\ p_{i,i}^{n}=0\forall n\in \mathbb {N} \\\gcd\{n\in \mathbb {N} |p_{i,i}^{n}>0\},&sonst\end{cases}}}
heißt die Periode von
i
{\displaystyle i}
. Die Markov-Kette heißt aperiodisch, falls
d
(
i
)
=
1
{\displaystyle d(i)=1}
für alle
i
∈
I
{\displaystyle i\in I}
.
Es gilt:
a)
i
↭
j
⇒
d
(
i
)
=
d
(
j
)
.
{\displaystyle i\leftrightsquigarrow j\Rightarrow d(i)=d(j).}
b) Für alle
i
∈
I
{\displaystyle i\in I}
existiert ein
n
i
∈
N
{\displaystyle n_{i}\in \mathbb {N} }
, so dass
p
i
,
i
n
d
(
i
)
>
0
{\displaystyle p_{i,i}^{nd(i)}>0}
für alle
n
≥
n
i
{\displaystyle n\geq n_{i}}
.
c) Sei
p
i
,
j
m
>
0
{\displaystyle p_{i,j}^{m}>0}
für ein
m
∈
N
{\displaystyle m\in \mathbb {N} }
. Dann gilt:
∃
n
j
∈
N
:
p
i
,
j
n
d
(
j
)
+
m
>
0
{\displaystyle \exists n_{j}\in \mathbb {N} :p_{i,j}^{nd(j)+m}>0}
für alle
n
≥
n
i
{\displaystyle n\geq n_{i}}
.
Ein Zustand
i
{\displaystyle i}
heißt absorbierend, falls
p
i
,
i
=
1
{\displaystyle p_{i,i}=1}
.
Beispiel 1.5 (Irrfahrt mit absorbierendem Rand)
Bearbeiten
d
(
0
)
=
d
(
M
)
=
1
{\displaystyle d(0)=d(M)=1}
und
d
(
1
)
=
…
=
d
(
M
−
1
)
=
2
{\displaystyle d(1)=\ldots =d(M-1)=2}
.
Bezeichne
τ
i
,
j
{\displaystyle \tau _{i,j}}
den Zeitpunkt des 1. Erreichens von
j
{\displaystyle j}
, startend in
i
{\displaystyle i}
. Also:
P
(
τ
i
,
j
=
n
)
:=
ρ
i
,
j
n
:=
P
(
X
n
=
j
,
X
n
−
1
≠
j
,
…
,
X
1
≠
j
|
X
0
=
i
)
{\displaystyle P(\tau _{i,j}=n):=\rho _{i,j}^{n}:=P(X_{n}=j,X_{n-1}\neq j,\ldots ,X_{1}\neq j|X_{0}=i)}
=
1
p
i
P
(
X
n
=
j
,
X
n
−
1
≠
j
,
…
,
X
1
≠
j
,
X
0
=
i
)
{\displaystyle ={\frac {1}{p_{i}}}P(X_{n}=j,X_{n-1}\neq j,\ldots ,X_{1}\neq j,X_{0}=i)}
=
1
p
i
∑
i
1
,
…
,
i
n
−
1
∈
I
∖
{
j
}
P
(
X
n
=
j
,
X
n
−
1
=
i
n
−
1
,
…
,
X
1
=
i
1
,
X
0
=
i
)
{\displaystyle ={\frac {1}{p_{i}}}\sum _{i_{1},\ldots ,i_{n-1}\in I\setminus \{j\}}P(X_{n}=j,X_{n-1}=i_{n-1},\ldots ,X_{1}=i_{1},X_{0}=i)}
=
1
p
i
∑
i
1
,
…
,
i
n
−
1
∈
I
∖
{
j
}
P
(
X
n
=
j
,
X
n
−
1
=
i
n
−
1
,
…
,
X
1
=
i
1
|
X
0
=
i
)
p
i
=
∑
i
1
,
…
,
i
n
−
1
∈
I
∖
{
j
}
p
i
,
i
1
p
i
1
,
i
2
⋯
p
i
n
−
1
,
j
.
{\displaystyle ={\frac {1}{p_{i}}}\sum _{i_{1},\ldots ,i_{n-1}\in I\setminus \{j\}}P(X_{n}=j,X_{n-1}=i_{n-1},\ldots ,X_{1}=i_{1}|X_{0}=i)p_{i}=\sum _{i_{1},\ldots ,i_{n-1}\in I\setminus \{j\}}p_{i,i_{1}}p_{i_{1},i_{2}}\cdots p_{i_{n-1},j}.}
Weiter sei
ρ
i
,
j
:=
P
(
τ
i
,
j
<
∞
)
=
∑
n
∈
N
ρ
i
,
j
n
{\displaystyle \rho _{i,j}:=P(\tau _{i,j}<\infty )=\sum _{n\in \mathbb {N} }\rho _{i,j}^{n}}
die Wahrscheinlichkeit, dass nach endlicher Zeit
j
{\displaystyle j}
erreicht wird, startend in
i
{\displaystyle i}
.
Ein Zustand
i
{\displaystyle i}
heißt rekurrent, falls
ρ
i
,
i
=
1
{\displaystyle \rho _{i,i}=1}
, transient, falls
ρ
i
,
i
<
1
{\displaystyle \rho _{i,i}<1}
. Ein rekurrenter Zustand
i
{\displaystyle i}
heißt positiv-rekurrent, falls
E
τ
i
,
i
=
∑
n
∈
N
n
ρ
i
,
i
n
<
∞
{\displaystyle \mathbb {E} \tau _{i,i}=\sum _{n\in \mathbb {N} }n\rho _{i,i}^{n}<\infty }
und null-rekurrent, falls
E
τ
i
,
i
=
∞
{\displaystyle \mathbb {E} \tau _{i,i}=\infty }
.
τ
i
,
i
{\displaystyle \tau _{i,i}}
- Zeitpunkt der 1. Rückkehr nach
i
{\displaystyle i}
i
{\displaystyle i}
rekurrent:
τ
i
,
i
<
∞
{\displaystyle \tau _{i,i}<\infty }
P
{\displaystyle P}
-fast sicher
i
{\displaystyle i}
positiv-rekurrent:
E
τ
i
,
i
<
∞
{\displaystyle \mathbb {E} \tau _{i,i}<\infty }
i
{\displaystyle i}
null-rekurrent:
E
τ
i
,
i
=
∞
{\displaystyle \mathbb {E} \tau _{i,i}=\infty }
i
{\displaystyle i}
transient:
P
(
τ
i
,
i
=
∞
)
>
0
{\displaystyle P(\tau _{i,i}=\infty )>0}
.
Es gilt:
(1.5)
p
i
,
j
n
=
∑
k
=
0
n
ρ
i
,
j
k
p
j
,
j
n
−
k
{\displaystyle p_{i,j}^{n}=\sum _{k=0}^{n}\rho _{i,j}^{k}p_{j,j}^{n-k}}
für alle
n
≥
0
,
i
≠
j
∈
I
{\displaystyle n\geq 0,i\neq j\in I}
,
(1.6)
p
i
,
i
n
=
∑
k
=
0
n
ρ
i
,
i
k
p
i
,
i
n
−
k
{\displaystyle p_{i,i}^{n}=\sum _{k=0}^{n}\rho _{i,i}^{k}p_{i,i}^{n-k}}
für alle
n
∈
N
,
i
∈
I
{\displaystyle n\in \mathbb {N} ,i\in I}
.
Ziel ist es nun, die Eigenschaft der Rekurrenz nur mit Hilfe der
p
i
,
j
n
{\displaystyle p_{i,j}^{n}}
zu charakterisieren.
Sei
(
a
n
)
n
∈
N
{\displaystyle (a_{n})_{n\in \mathbb {N} }}
Zahlenfolge in
R
{\displaystyle \mathbb {R} }
. Die Funktion
a
:
(
−
1
,
1
)
→
R
{\displaystyle a:(-1,1)\to \mathbb {R} }
mit
a
(
s
)
:=
∑
n
=
0
∞
a
n
s
n
{\displaystyle a(s):=\sum _{n=0}^{\infty }a_{n}s^{n}}
für alle
s
∈
(
−
1
,
1
)
{\displaystyle s\in (-1,1)}
heißt die erzeugende Funktion von
(
a
n
)
n
∈
N
{\displaystyle (a_{n})_{n\in \mathbb {N} }}
.
Dementsprechend seien also
ρ
i
,
j
(
s
)
:=
∑
n
=
0
∞
ρ
i
,
j
n
s
n
,
p
i
,
j
(
s
)
:=
∑
n
=
0
∞
p
i
,
j
n
s
n
{\displaystyle \rho _{i,j}(s):=\sum _{n=0}^{\infty }\rho _{i,j}^{n}s^{n},\quad p_{i,j}(s):=\sum _{n=0}^{\infty }p_{i,j}^{n}s^{n}}
die erzeugenden Funktionen von
(
ρ
i
,
j
n
)
n
∈
N
{\displaystyle (\rho _{i,j}^{n})_{n\in \mathbb {N} }}
und
(
p
i
,
j
n
)
n
∈
N
{\displaystyle (p_{i,j}^{n})_{n\in \mathbb {N} }}
.
Für alle
|
s
|
<
1
{\displaystyle |s|<1}
gilt:
(1.7)
ρ
i
,
i
(
s
)
p
i
,
i
(
s
)
=
p
i
,
i
(
s
)
−
1
{\displaystyle \rho _{i,i}(s)p_{i,i}(s)=p_{i,i}(s)-1}
für alle
i
∈
I
{\displaystyle i\in I}
,
(1.8)
ρ
i
,
j
(
s
)
p
i
,
j
(
s
)
=
p
i
,
j
(
s
)
{\displaystyle \rho _{i,j}(s)p_{i,j}(s)=p_{i,j}(s)}
für alle
i
≠
j
∈
I
{\displaystyle i\neq j\in I}
.
Sei
(
a
n
)
n
∈
N
0
⊆
R
{\displaystyle (a_{n})_{n\in \mathbb {N} _{0}}\subseteq \mathbb {R} }
. Dann gilt:
a)
∑
n
=
0
∞
a
n
<
∞
⇒
lim
s
↑
1
∑
n
=
0
∞
a
n
s
n
=
∑
n
=
0
∞
a
n
.
{\displaystyle \sum _{n=0}^{\infty }a_{n}<\infty \quad \Rightarrow \quad \lim _{s\uparrow 1}\sum _{n=0}^{\infty }a_{n}s^{n}=\sum _{n=0}^{\infty }a_{n}.}
b)
a
n
≥
0
,
lim
s
↑
1
∑
n
=
0
∞
a
n
s
n
=:
a
≤
∞
⇒
∑
n
=
0
∞
a
n
=
a
.
{\displaystyle a_{n}\geq 0,\lim _{s\uparrow 1}\sum _{n=0}^{\infty }a_{n}s^{n}=:a\leq \infty \quad \Rightarrow \quad \sum _{n=0}^{\infty }a_{n}=a.}
Es gilt:
a)
i
{\displaystyle i}
rekurrent
⇔
∑
n
=
0
∞
p
i
,
i
n
=
∞
{\displaystyle \quad \Leftrightarrow \quad \sum _{n=0}^{\infty }p_{i,i}^{n}=\infty }
.
b)
i
↭
j
{\displaystyle i\leftrightsquigarrow j}
,
i
{\displaystyle i}
rekurrent
⇒
j
{\displaystyle \quad \Rightarrow \quad j}
rekurrent.
Sei
Q
i
,
j
:=
P
(
Kette kommt unendlich oft nach
j
, startend in
i
)
{\displaystyle Q_{i,j}:=P({\text{Kette kommt unendlich oft nach }}j{\text{, startend in }}i)}
.
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
homogene Markov-Kette. Dann gilt:
Q
i
,
i
=
{
1
,
f
a
l
l
s
i
r
e
k
u
r
r
e
n
t
0
,
f
a
l
l
s
i
t
r
a
n
s
i
e
n
t
.
{\displaystyle Q_{i,i}={\begin{cases}1,&falls\ i\ rekurrent\\0,&falls\ i\ transient.\end{cases}}}
Falls
i
{\displaystyle i}
rekurrent und
i
↭
j
⇒
ρ
i
,
j
=
1
{\displaystyle i\leftrightsquigarrow j\quad \Rightarrow \quad \rho _{i,j}=1}
und
Q
i
,
j
=
1
{\displaystyle Q_{i,j}=1}
.
Eine homogene Markov-Kette heißt
a) aperiodisch, falls
d
(
i
)
=
1
{\displaystyle d(i)=1}
für alle
i
∈
I
{\displaystyle i\in I}
,
b) irreduzibel, falls
i
↭
j
{\displaystyle i\leftrightsquigarrow j}
für alle
i
,
j
∈
I
{\displaystyle i,j\in I}
und
c) rekurrent, falls
i
{\displaystyle i}
rekurrent für alle
i
∈
I
{\displaystyle i\in I}
.
i
{\displaystyle i}
rekurrent,
i
↭
j
⇒
ρ
i
,
j
=
ρ
j
,
i
=
1
{\displaystyle i\leftrightsquigarrow j\quad \Rightarrow \quad \rho _{i,j}=\rho _{j,i}=1}
.
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
homogene Markov-Kette. Dann gilt:
a) verbundene Zustände sind entweder alle rekurrent oder alle transient.
b) verbundene rekurrente Zustände sind entweder alle positiv-rekurrent oder alle null-rekurrent.
Eine Verteilung
(
π
i
)
i
∈
I
{\displaystyle (\pi _{i})_{i\in I}}
, also
π
i
≥
0
{\displaystyle \pi _{i}\geq 0}
und
∑
i
∈
I
π
i
=
1
,
{\displaystyle \sum _{i\in I}\pi _{i}=1,}
heißt stationäre Verteilung einer Markov-Kette mit Matrix
(
p
i
,
j
)
i
,
j
∈
I
{\displaystyle (p_{i,j})_{i,j\in I}}
, falls:
π
i
=
∑
k
∈
I
π
k
p
k
,
i
{\displaystyle \pi _{i}=\sum _{k\in I}\pi _{k}p_{k,i}}
für alle
i
∈
I
{\displaystyle i\in I}
.
Falls
(
π
i
)
i
∈
I
{\displaystyle (\pi _{i})_{i\in I}}
Anfangsverteilung, dann sind
X
0
,
X
1
,
X
2
,
…
{\displaystyle X_{0},X_{1},X2,\ldots }
alle identisch verteilt gemäß
(
π
i
)
i
∈
I
{\displaystyle (\pi _{i})_{i\in I}}
.
Sei
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
eine irreduzible, homogene Markov-Kette mit Übergangsmatrix
(
p
i
,
j
)
i
,
j
∈
I
{\displaystyle (p_{i,j})_{i,j\in I}}
. Dann besitzt die Kette genau dann eine stationäre Verteilung, wenn alle Zustände positiv-rekurrent sind. In dem Fall ist die Verteilung eindeutig bestimmt durch:
π
i
=
1
E
τ
i
,
i
.
{\displaystyle \pi _{i}={\frac {1}{\mathbb {E} \tau _{i,i}}}.}
Eine Äquivalenzklasse
J
⊆
I
{\displaystyle J\subseteq I}
ist genau dann aperiodisch, d. h.
d
(
j
)
=
1
{\displaystyle d(j)=1}
für alle
j
∈
J
{\displaystyle j\in J}
, wenn für alle
i
,
j
∈
J
{\displaystyle i,j\in J}
ein
n
0
∈
N
{\displaystyle n_{0}\in \mathbb {N} }
existiert, so dass
p
i
,
j
n
>
0
{\displaystyle p_{i,j}^{n}>0}
für alle
n
≥
n
0
{\displaystyle n\geq n_{0}}
.
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }}
sei eine homogene, irreduzible, aperiodische und positiv-rekurrente Markov-Kette.
(
π
i
)
i
∈
I
{\displaystyle (\pi _{i})_{i\in I}}
sei die dazugehörige stationäre Verteilung.
X
0
{\displaystyle X_{0}}
habe eine beliebige Verteilung. Dann gilt:
lim
n
→
∞
|
P
(
X
n
=
i
)
−
π
i
|
=
0
{\displaystyle \lim _{n\to \infty }|P(X_{n}=i)-\pi _{i}|=0}
für alle
i
∈
I
{\displaystyle i\in I}
.
Es gilt
lim
n
→
∞
p
i
,
j
n
=
π
j
{\displaystyle \lim _{n\to \infty }p_{i,j}^{n}=\pi _{j}}
für alle
i
,
j
∈
I
{\displaystyle i,j\in I}
.
Ziel: Modellierung (physikalischer) Angleichungsprozesse
Betrachtet werden zwei Kammern A und B mit durchlässiger Trennwand. In jedem Schritt wandert genau ein Molekül entweder von A nach B oder von B nach A - mit Tendenz zum Ausgleich.
Sei also
m
{\displaystyle m}
die Gesamtzahl der Moleküle und
X
n
{\displaystyle X_{n}}
die Anzahl der Moleküle in Kammer A zur Zeit
n
{\displaystyle n}
(also
m
−
X
n
{\displaystyle m-X_{n}}
in Kammer B).
Die "Tendenz zum Ausgleich" wird wie folgt modelliert:
p
i
,
j
:=
{
1
−
i
m
,
wenn
j
=
i
+
1
,
i
∈
{
0
,
…
,
m
−
1
}
i
m
,
wenn
j
=
i
−
1
,
i
∈
{
1
,
…
,
m
}
0
sonst.
{\displaystyle p_{i,j}:={\begin{cases}1-{\frac {i}{m}},&{\text{wenn }}j=i+1,i\in \{0,\ldots ,m-1\}\\{\frac {i}{m}},&{\text{wenn }}j=i-1,i\in \{1,\ldots ,m\}\\0&{\text{sonst.}}\end{cases}}}
Also:
P
=
(
0
1
0
1
m
0
1
−
1
m
2
m
0
1
−
2
m
⋱
1
−
2
m
0
2
m
1
−
1
m
0
1
m
0
1
0
)
.
{\displaystyle P={\begin{pmatrix}0&1&&&&&0\\{\frac {1}{m}}&0&1-{\frac {1}{m}}&&&&\\&{\frac {2}{m}}&0&1-{\frac {2}{m}}&&&\\&&&\ddots &&&\\&&&1-{\frac {2}{m}}&0&{\frac {2}{m}}&\\&&&&1-{\frac {1}{m}}&0&{\frac {1}{m}}\\0&&&&&1&0\end{pmatrix}}.}
Die stationäre Verteilung
(
π
k
)
k
=
0
∞
{\displaystyle (\pi _{k})_{k=0}^{\infty }}
ist gegeben durch:
π
k
:=
(
m
k
)
(
1
2
)
k
(
1
2
)
m
−
k
=
2
−
m
(
m
k
)
{\displaystyle \pi _{k}:={\binom {m}{k}}\left({\frac {1}{2}}\right)^{k}\left({\frac {1}{2}}\right)^{m-k}=2^{-m}{\binom {m}{k}}}
, also
(
π
k
)
k
=
0
∞
=
B
(
m
,
1
/
2
)
{\displaystyle (\pi _{k})_{k=0}^{\infty }=B(m,1/2)}
.
Es gilt:
lim
n
→
∞
p
i
,
j
2
n
=
2
π
j
,
p
i
,
j
2
n
+
1
=
0
,
falls
(
i
−
j
)
gerade
{\displaystyle {\begin{matrix}\lim _{n\to \infty }p_{i,j}^{2n}=2\pi _{j},&p_{i,j}^{2n+1}=0,&{\text{falls }}(i-j){\text{ gerade}}\end{matrix}}}
und
lim
n
→
∞
p
i
,
j
2
n
+
1
=
2
π
j
,
p
i
,
j
2
n
=
0
,
falls
(
i
−
j
)
ungerade
{\displaystyle {\begin{matrix}\lim _{n\to \infty }p_{i,j}^{2n+1}=2\pi _{j},&p_{i,j}^{2n}=0,&{\text{falls }}(i-j){\text{ ungerade}}\end{matrix}}}
Speziell sei jetzt
m
=
10
6
{\displaystyle m=10^{6}}
und die Anfangsverteilung
X
0
∼
B
(
m
,
1
/
2
)
{\displaystyle X_{0}\sim B(m,1/2)}
, also auch
X
n
∼
B
(
m
,
1
/
2
)
{\displaystyle X_{n}\sim B(m,1/2)}
für alle
n
∈
N
{\displaystyle n\in \mathbb {N} }
. Dann gilt
E
X
n
=
1
2
10
6
{\displaystyle \mathbb {E} X_{n}={\frac {1}{2}}10^{6}}
und
P
(
|
X
n
−
E
X
n
|
≤
1
%
E
X
n
)
=
P
(
495
000
≤
X
n
≤
505
000
)
≈
1
−
10
23
.
{\displaystyle P(|X_{n}-\mathbb {E} X_{n}|\leq 1\%\mathbb {E} X_{n})=P(495\,000\leq X_{n}\leq 505\,000)\approx 1-10^{23}.}
Die Wahrscheinlichkeit, eine Abweichung größer als 1% vom Erwartungswert (ausgeglichener Zustand) zu beobachten, ist praktisch nicht von 0 zu unterscheiden. Außerdem gilt:
E
τ
k
,
k
=
1
π
k
=
2
m
(
m
k
)
{\displaystyle \mathbb {E} \tau _{k,k}={\frac {1}{\pi _{k}}}={\frac {2^{m}}{\binom {m}{k}}}}
, speziell
E
τ
0
,
0
=
2
m
{\displaystyle \mathbb {E} \tau _{0,0}=2^{m}}
,
also die mittlere Wartezeit, erneut 0 Moleküle in Kammer A zu beobachten, wenn gerade 0 Moleküle darin sind.
Zu
t
∈
N
0
{\displaystyle t\in \mathbb {N} _{0}}
gehen
ξ
n
{\displaystyle \xi _{n}}
Bestellungen ein
(
ξ
n
(
Ω
)
=
N
0
)
{\displaystyle (\xi _{n}(\Omega )=\mathbb {N} _{0})}
. Je Zeiteinheit wird eine Bestellung bearbeitet. Wir bezeichnen mit
X
n
{\displaystyle X_{n}}
die Anzahl der Kunden zum Zeitpunkt
n
{\displaystyle n}
.
X
0
:=
ξ
0
,
X
n
+
1
:=
(
X
n
−
1
)
+
+
ξ
n
+
1
{\displaystyle X_{0}:=\xi _{0},\quad X_{n+1}:=(X_{n}-1)^{+}+\xi _{n+1}}
für
n
>
0
{\displaystyle n>0}
, wobei
a
+
:=
max
(
a
,
0
)
{\displaystyle a^{+}:=\max(a,0)}
.