Erzeugende Funktionen nützen bei der Berechnung von
Momenten ,
Faltung,
Grenzwerten von Wahrscheinlichkeiten
Ist
X
{\displaystyle X}
eine Zufallsvariable auf
(
Ω
,
P
)
{\displaystyle (\Omega ,P)}
mit Werten in
Z
+
{\displaystyle \mathbb {Z} _{+}}
, so heißt
G
X
(
s
)
=
G
P
X
(
s
)
=
∑
k
=
0
∞
s
k
P
X
{
k
}
,
0
≤
s
≤
1
{\displaystyle G_{X}(s)=G_{P_{X}}(s)=\sum _{k=0}^{\infty }s^{k}P_{X}\lbrace k\rbrace ,0\leq s\leq 1}
die erzeugende Funktion von
X
{\displaystyle X}
(von
P
X
{\displaystyle P_{X}}
).
Wegen
∑
k
=
0
∞
P
{
k
}
=
1
{\displaystyle \sum _{k=0}^{\infty }P\lbrace k\rbrace =1}
stellt
G
X
{\displaystyle G_{X}}
eine Potenzreihe dar mit Konvergenzradius
≥
1
{\displaystyle \geq 1}
. Somit ist
G
X
{\displaystyle G_{X}}
wohldefiniert und beliebig oft differenzierbar in
[
0
,
1
]
∖
{
1
}
{\displaystyle [0,1]\setminus \lbrace 1\rbrace }
.
1. Wegen
d
n
d
s
n
G
X
|
s
=
0
=
n
!
P
X
{
n
}
,
n
∈
Z
+
{\displaystyle {\frac {d^{n}}{ds^{n}}}G_{X}|_{s=0}=n!P_{X}\lbrace n\rbrace ,n\in \mathbb {Z} _{+}}
so dass die Zuordnung
P
X
→
G
X
(
s
)
{\displaystyle P_{X}\to G_{X}(s)}
injektiv ist.
2. Man beachte auch die folgende Schreibweise:
G
X
(
s
)
=
E
X
2
{\displaystyle G_{X}(s)=EX^{2}}
.
3. Für unabhängige Zufallsvariablen
X
1
,
.
.
.
,
X
n
{\displaystyle X_{1},...,X_{n}}
mit Werten in
Z
+
{\displaystyle \mathbb {Z} _{+}}
gilt:
G
X
1
,
.
.
.
,
X
n
(
s
)
=
E
s
X
1
⋅
.
.
.
⋅
s
X
n
=
E
s
X
1
⋅
.
.
.
⋅
E
s
X
n
=
G
X
1
(
s
)
⋅
.
.
.
⋅
G
X
n
(
s
)
{\displaystyle G_{X_{1},...,X_{n}}(s)=Es^{X_{1}}\cdot ...\cdot s^{X_{n}}=Es^{X_{1}}\cdot ...\cdot Es^{X_{n}}=G_{X_{1}}(s)\cdot ...\cdot G_{X_{n}}(s)}
Sei
X
{\displaystyle X}
eine Zufallsvariable mit Werten in
Z
+
{\displaystyle \mathbb {Z} _{+}}
.
a) Der (linksseitige) Grenzwert
G
X
′
(
1
−
)
=
l
i
m
s
↑
1
G
′
(
s
)
{\displaystyle G'_{X}(1-)={lim}_{s\uparrow 1}G'(s)}
existiert genau dann, wenn
E
(
X
)
{\displaystyle E(X)}
existiert. In diesem Fall ist
E
(
X
)
=
G
′
(
1
−
)
{\displaystyle E(X)=G'(1-)}
.
b) Es existiere
E
(
X
)
{\displaystyle E(X)}
.
G
″
(
1
−
)
{\displaystyle G''(1-)}
existiert genau dann, wenn
E
(
X
2
)
{\displaystyle E(X^{2})}
existiert. In diesem Fall ist
V
a
r
(
X
)
=
G
″
X
(
1
−
)
+
G
X
′
(
1
−
)
−
(
G
X
′
(
1
−
)
)
2
{\displaystyle Var(X)={G''}_{X}(1-)+G'_{X}(1-)-(G'_{X}(1-))^{2}}
.
a) Zunächst gilt für
s
∈
[
0
,
1
]
∖
{
1
}
{\displaystyle s\in [0,1]\setminus \lbrace 1\rbrace }
:
G
X
′
(
s
)
=
∑
k
=
1
∞
k
s
k
−
1
P
X
{
k
}
{\displaystyle G'_{X}(s)=\sum _{k=1}^{\infty }ks^{k-1}P_{X}\lbrace k\rbrace }
i) Sei
E
(
X
)
<
∞
{\displaystyle E(X)<\infty }
.
G
X
′
(
s
)
≤
∑
k
=
1
∞
k
P
x
{
k
}
=
E
(
X
)
<
∞
{\displaystyle G'_{X}(s)\leq \sum _{k=1}^{\infty }kP_{x}\lbrace k\rbrace =E(X)<\infty }
Also auch
l
i
m
s
↑
1
G
X
′
(
s
)
≡
G
X
′
(
1
−
)
≤
E
(
X
)
.
{\displaystyle {lim}_{s\uparrow 1}G'_{X}(s)\equiv G'_{X}(1-)\leq E(X).}
ii) Sei
G
X
′
(
1
−
)
<
∞
{\displaystyle G'_{X}(1-)<\infty }
. Für
s
∈
[
0
,
1
]
∖
{
1
}
{\displaystyle s\in [0,1]\setminus \lbrace 1\rbrace }
gilt:
∑
k
=
1
∞
k
s
k
−
1
P
X
{
k
}
≤
G
X
′
(
s
)
≤
l
i
m
n
↑
1
G
X
′
(
n
)
=
G
X
′
(
1
−
)
<
∞
{\displaystyle \sum _{k=1}^{\infty }ks^{k-1}P_{X}\lbrace k\rbrace \leq G'_{X}(s)\leq {lim}_{n\uparrow 1}G_{X}'(n)=G'_{X}(1-)<\infty }
Also auch beliebige
s
↑
1
{\displaystyle s\uparrow 1}
:
∑
k
=
1
∞
k
s
k
−
1
P
X
{
k
}
≤
G
X
′
(
1
−
)
{\displaystyle \sum _{k=1}^{\infty }ks^{k-1}P_{X}\lbrace k\rbrace \leq G'_{X}(1-)}
und bei
n
↑
∞
{\displaystyle n\uparrow \infty }
:
E
(
X
)
≤
G
X
′
(
1
−
)
<
∞
{\displaystyle E(X)\leq G'_{X}(1-)<\infty }
Aus i) und ii) ferner:
G
X
′
(
1
−
)
≤
E
(
X
)
≤
G
X
′
(
1
−
)
{\displaystyle G'_{X}(1-)\leq E(X)\leq G'_{X}(1-)}
b) Vorbemerkung:
E
(
X
2
)
<
∞
{\displaystyle E(X^{2})<\infty }
genau dann, wenn
E
(
X
(
X
−
1
)
)
<
∞
.
{\displaystyle E(X(X-1))<\infty .}
Ausgehend von
G
X
″
(
s
)
=
∑
k
=
2
∞
k
(
k
−
1
)
s
k
−
2
P
X
{
k
}
,
s
∈
[
0
,
1
]
∖
{
1
}
{\displaystyle G''_{X}(s)=\sum _{k=2}^{\infty }k(k-1)s^{k-2}P_{X}\lbrace k\rbrace ,s\in [0,1]\setminus \lbrace 1\rbrace }
, zeigt man wie in a) die gleichzeitige Existenz von
E
(
X
(
X
−
1
)
)
{\displaystyle E(X(X-1))}
und
G
X
″
(
1
−
)
{\displaystyle G''_{X}(1-)}
. In welchem Fall dann
E
(
X
(
X
−
1
)
)
=
G
X
″
(
s
)
{\displaystyle E(X(X-1))=G''_{X}(s)}
ist. Die Verschiebungsformel schließlich liefert
V
a
r
(
X
)
=
E
(
X
(
X
−
1
)
)
+
E
(
X
)
−
E
(
X
2
)
{\displaystyle Var(X)=E(X(X-1))+E(X)-E(X^{2})}
.
Sei
X
{\displaystyle X}
B
(
n
,
p
)
{\displaystyle B(n,p)}
-verteilt, so rechnet man mit
q
=
1
−
p
{\displaystyle q=1-p}
.
G
X
(
s
)
=
∑
k
=
0
n
(
n
k
)
(
p
⋅
s
)
k
q
n
−
k
=
(
q
+
p
s
)
n
,
{\displaystyle G_{X}(s)=\sum _{k=0}^{n}{\binom {n}{k}}(p\cdot s)^{k}q^{n-k}=(q+ps)^{n},}
s
∈
R
{\displaystyle s\in \mathbb {R} }
Ableitung an der Stelle 1 liefert:
G
X
′
(
1
)
=
n
(
q
+
p
s
)
n
−
1
⋅
p
|
s
=
1
=
n
p
=
E
(
X
)
{\displaystyle G'_{X}(1)=n(q+ps)^{n-1}\cdot p|_{s=1}=np=E(X)}
G
X
″
(
1
)
=
n
(
n
−
1
)
(
q
+
p
s
)
n
−
2
⋅
p
2
|
s
=
1
=
n
(
n
−
1
)
p
2
{\displaystyle G''_{X}(1)=n(n-1)(q+ps)^{n-2}\cdot p^{2}|_{s=1}=n(n-1)p^{2}}
→
V
a
r
(
X
)
=
n
(
n
−
1
)
p
2
+
n
p
−
(
n
p
)
2
=
n
p
(
1
−
p
)
{\displaystyle \to Var(X)=n(n-1)p^{2}+np-(np)^{2}=np(1-p)}
Seien
X
1
,
X
2
{\displaystyle X_{1},X_{2}}
unabhängige
B
(
n
1
,
p
)
{\displaystyle B(n_{1},p)}
beziehungsweise
B
(
n
2
,
p
)
{\displaystyle B(n_{2},p)}
-verteilte Zufallsvariablen. Aus Bemerkung 3 folgt:
G
X
1
+
X
2
(
s
)
=
G
X
1
(
s
)
⋅
G
X
2
(
s
)
=
(
q
+
p
s
)
n
1
+
n
2
{\displaystyle G_{X_{1}+X_{2}}(s)=G_{X_{1}}(s)\cdot G_{X_{2}}(s)=(q+ps)^{n_{1}+n_{2}}}
d.h.
P
X
1
+
X
2
{\displaystyle P_{X_{1}+X_{2}}}
ist die
B
(
n
2
+
n
2
,
p
)
{\displaystyle B(n_{2}+n_{2},p)}
-Verteilung (mit Bemerkung 1), kurz:
B
(
n
1
,
p
)
∗
B
(
n
2
,
p
)
=
B
(
n
1
+
n
2
,
p
)
{\displaystyle B(n_{1},p)\ast B(n_{2},p)=B(n_{1}+n_{2},p)}
Ist
X
{\displaystyle X}
P
(
λ
)
{\displaystyle P(\lambda )}
-verteilt, so ist
G
X
(
s
)
=
∑
k
=
0
∞
(
λ
s
)
k
k
!
⋅
e
−
λ
=
e
λ
s
e
−
λ
=
e
λ
(
s
−
1
)
,
e
∈
R
.
{\displaystyle G_{X}(s)=\sum _{k=0}^{\infty }{\frac {(\lambda s)^{k}}{k!}}\cdot e^{-\lambda }=e^{\lambda s}e^{-\lambda }=e^{\lambda (s-1)},e\in \mathbb {R} .}
Ableitung an der Stelle 1:
G
X
′
(
1
)
=
λ
e
λ
(
s
−
1
)
|
s
=
1
=
λ
{\displaystyle G'_{X}(1)=\lambda e^{\lambda (s-1)}|_{s=1}=\lambda }
G
X
″
(
1
)
=
λ
2
e
λ
(
s
−
1
)
|
s
=
1
=
λ
2
{\displaystyle G''_{X}(1)=\lambda ^{2}e^{\lambda (s-1)}|_{s=1}=\lambda ^{2}}
V
a
r
(
X
)
=
λ
2
+
λ
−
λ
2
=
λ
{\displaystyle Var(X)=\lambda ^{2}+\lambda -\lambda ^{2}=\lambda }
(Erwartungswert und Varianz jeweils gleich
λ
{\displaystyle \lambda }
).
Sind
X
1
{\displaystyle X_{1}}
und
X
2
{\displaystyle X_{2}}
unabhängige,
P
(
λ
1
)
{\displaystyle P(\lambda _{1})}
- beziehungsweise
P
(
λ
2
)
{\displaystyle P(\lambda _{2})}
-verteilte Zufallsvariablen, so gilt:
G
X
1
+
X
2
(
s
)
=
e
(
λ
+
λ
2
)
(
s
−
1
)
{\displaystyle G_{X_{1}+X_{2}}(s)=e^{(\lambda _{+}\lambda _{2})(s-1)}}
d.h.
P
(
λ
1
)
∗
P
(
λ
2
)
=
P
(
λ
1
+
λ
2
)
{\displaystyle P(\lambda _{1})\ast P(\lambda _{2})=P(\lambda _{1}+\lambda _{2})}
, mit Bemerkung 1.
Negative Binominalverteilung (Definition) (1)
Bearbeiten
(
(
N
B
(
n
,
p
)
)
,
n
∈
N
,
0
≤
p
≤
1
{\displaystyle (NB(n,p)),n\in \mathbb {N} ,0\leq p\leq 1}
, setze
q
=
1
−
p
{\displaystyle q=1-p}
)
Eine Wahrscheinlichkeitsverteilung auf
Z
{\displaystyle \mathbb {Z} }
mit der Wahrscheinlichkeitsfunktion
p
k
=
(
n
+
k
−
1
k
)
⋅
p
n
⋅
q
k
,
k
=
0
,
1
,
.
.
.
{\displaystyle p_{k}={\binom {n+k-1}{k}}\cdot p^{n}\cdot q^{k},k=0,1,...}
heißt negative Binominalverteilung. Man kann auch schreiben
p
k
=
(
−
n
k
)
(
−
1
)
k
p
n
q
k
,
{\displaystyle p_{k}={\binom {-n}{k}}(-1)^{k}p^{n}q^{k},}
wobei
(
r
k
)
=
(
r
)
k
k
!
,
r
∈
R
.
{\displaystyle {\binom {r}{k}}={\frac {(r)_{k}}{k!}},r\in \mathbb {R} .}
Negative Binominalverteilung (Definition) (2)
Bearbeiten
Im Spezialfall
n
=
1
{\displaystyle n=1}
spricht man von einer geometrischen Verteilung:
P
k
=
q
⋅
p
k
,
k
=
0
,
1
,
.
.
.
{\displaystyle P_{k}=q\cdot p^{k},k=0,1,...}
.
Zählt
X
{\displaystyle X}
die Anzahl der 'Misserfolge' 0 bis zum Auftreten des n-ten 'Erfolges' 1 (unabhängige Wiederholungen), so ist
X
{\displaystyle X}
N
B
(
n
,
p
)
{\displaystyle NB(n,p)}
-verteilt,
p
=
P
{
1
}
>
0
{\displaystyle p=P\lbrace 1\rbrace >0}
.
Negative Binominalverteilung (Definition) (3)
Bearbeiten
Man rechnet
G
X
(
s
)
=
(
p
1
−
p
s
)
n
,
0
≤
s
≤
1
q
{\displaystyle G_{X}(s)=({\frac {p}{1-ps}})^{n},0\leq s\leq {\frac {1}{q}}}
(Binomische Reihe)
E
(
X
)
=
n
q
p
=
μ
,
V
a
r
(
X
)
=
n
q
p
2
σ
2
.
{\displaystyle E(X)=n{\frac {q}{p}}=\mu ,Var(X)=n{\frac {q}{p^{2}}}\sigma ^{2}.}
(
σ
2
=
μ
p
>
μ
{\displaystyle \sigma ^{2}={\frac {\mu }{p}}>\mu }
, 'overdispension')
Es gilt:
N
B
(
1
,
p
)
∗
.
.
.
∗
N
B
(
1
,
p
)
=
N
B
(
n
,
p
)
{\displaystyle NB(1,p)\ast ...\ast NB(1,p)=NB(n,p)}
(n-mal verknüpft)
Grenzen von Wahrscheinlichkeitsverteilungen
Bearbeiten
Notation: Ist
(
p
0
,
p
1
,
.
.
.
)
{\displaystyle (p_{0},p_{1},...)}
eine Wahrscheinlichkeitsfunktion auf
Z
+
{\displaystyle \mathbb {Z} _{+}}
, (
p
k
>
0
,
∑
k
=
0
∞
p
k
=
1
{\displaystyle p_{k}>0,\sum _{k=0}^{\infty }p_{k}=1}
), so bezeichnet
G
(
s
)
=
∑
k
=
0
∞
s
k
p
k
,
0
≤
s
≤
1
{\displaystyle G(s)=\sum _{k=0}^{\infty }s_{k}p_{k},0\leq s\leq 1}
, ihre erzeugende Funktion. Liegt eine Folge
(
p
0
(
n
)
,
p
1
(
n
)
,
.
.
.
)
,
n
≥
1
{\displaystyle (p_{0}^{(n)},p_{1}^{(n)},...),n\geq 1}
von Wahrscheinlichkeitsfunktionen auf
Z
+
{\displaystyle \mathbb {Z} _{+}}
vor, so konvergieren die Wahrscheinlichkeiten
p
k
(
n
)
{\displaystyle p_{k}^{(n)}}
bei
n
→
∞
{\displaystyle n\to \infty }
genau dann, wenn die Folge der zugehörigen erzeugenden Funktionen
G
(
n
)
(
s
)
=
∑
k
=
0
∞
s
k
p
k
(
n
)
,
0
≤
s
≤
1
,
n
≥
1
{\displaystyle G^{(n)}(s)=\sum _{k=0}^{\infty }s^{k}p_{k}^{(n)},0\leq s\leq 1,n\geq 1}
konvergiert. Genauer:
Gegeben sei eine Folge von Wahrscheinlichkeitsfunktionen aus
Z
+
{\displaystyle \mathbb {Z} _{+}}
, mit der Folge
G
(
n
)
{\displaystyle G^{(n)}}
der zugehörenden erzeugenden Funktionen. Dann existieren die Limiten
a
k
=
l
i
m
n
→
∞
p
k
(
n
)
{\displaystyle a_{k}=lim_{n\to \infty }p_{k}^{(n)}}
für alle
k
=
0
,
1
,
.
.
.
{\displaystyle k=0,1,...}
genau dann, wenn der Limes
A
(
s
)
=
l
i
m
n
→
∞
G
(
n
)
(
s
)
{\displaystyle A(s)=lim_{n\to \infty }G^{(n)}(s)}
für alle
s
∈
(
0
,
1
)
{\displaystyle s\in (0,1)}
existiert. In diesem Fall ist
A
(
s
)
=
∑
k
=
0
∞
s
k
a
k
.
{\displaystyle A(s)=\sum _{k=0}^{\infty }s^{k}a_{k}.}
Aus der ersten Formel folgt mit
a
k
>
0
{\displaystyle a_{k}>0}
und
∑
k
=
0
∞
a
k
≤
1
{\displaystyle \sum _{k=0}^{\infty }a_{k}\leq 1}
. (
a
0
,
a
1
,
.
.
.
{\displaystyle a_{0},a_{1},...}
bilden nicht notwendigerweise eine Wahrscheinlichkeitsfunktion).
i) Wir nehmen
a
k
=
l
i
m
n
→
∞
p
k
(
n
)
{\displaystyle a_{k}=lim_{n\to \infty }p_{k}^{(n)}}
an und definieren
A
(
s
)
{\displaystyle A(s)}
durch
A
(
s
)
=
∑
k
=
0
∞
s
k
a
k
{\displaystyle A(s)=\sum _{k=0}^{\infty }s^{k}a_{k}}
. Wegen
|
p
k
(
n
)
−
G
k
|
≤
1
{\displaystyle |p_{k}^{(n)}-G_{k}|\leq 1}
gilt für
s
∈
(
0
,
1
)
{\displaystyle s\in (0,1)}
:
|
G
(
n
)
(
s
)
−
A
(
s
)
|
≤
∑
k
=
0
r
|
p
k
(
n
)
−
a
k
|
s
k
+
∑
k
=
r
+
1
∞
s
k
{\displaystyle |G^{(n)}(s)-A(s)|\leq \sum _{k=0}^{r}|p_{k}^{(n)}-a_{k}|s^{k}+\sum _{k=r+1}^{\infty }s^{k}}
Zu
ϵ
>
0
{\displaystyle \epsilon >0}
wähle
r
{\displaystyle r}
so groß, dass
s
r
1
−
s
<
ϵ
{\displaystyle {\frac {s^{r}}{1-s}}<\epsilon }
. Dann
l
i
m
n
→
∞
|
G
(
n
)
(
s
)
−
A
(
s
)
|
≤
ϵ
{\displaystyle lim_{n\to \infty }|G^{(n)}(s)-A(s)|\leq \epsilon }
.
ii) Gelte nun die zweite Gleichung. Wir zeigen die erste sukzessive für
k
=
0
,
1
,
.
.
.
{\displaystyle k=0,1,...}
.
Zunächst
k
=
0
{\displaystyle k=0}
:
p
0
(
n
)
≤
G
(
n
)
(
s
)
≤
p
0
(
n
)
+
∑
k
=
1
∞
1
s
k
=
p
0
(
n
)
+
s
1
−
s
,
s
∈
(
0
,
1
)
{\displaystyle p_{0}^{(n)}\leq G^{(n)}(s)\leq p_{0}^{(n)}+\sum _{k=1}^{\infty }1s^{k}=p_{0}^{(n)}+{\frac {s}{1-s}},s\in (0,1)}
Für jeden Häufungspunkt
p
¯
0
{\displaystyle {\bar {p}}_{0}}
der beschränkten Folge
p
0
(
n
)
,
n
≥
1
{\displaystyle p_{0}^{(n)},n\geq 1}
, gilt demnach:
A
(
s
)
−
s
1
−
s
≤
p
¯
0
≤
A
(
s
)
,
{\displaystyle A(s)-{\frac {s}{1-s}}\leq {\bar {p}}_{0}\leq A(s),}
für alle
s
∈
(
0
,
1
)
{\displaystyle s\in (0,1)}
Wegen der Monotonie von
A
(
s
)
{\displaystyle A(s)}
existiert also
A
(
0
)
=
l
i
m
s
→
0
A
(
s
)
,
{\displaystyle A(0)=lim_{s\to 0}A(s),}
so dass die obige Gleichung bei
s
↓
0
{\displaystyle s\downarrow 0}
liefert:
(*)
p
¯
0
=
A
(
0
)
=
l
i
m
n
p
0
(
n
)
{\displaystyle {\bar {p}}_{0}=A(0)=lim_{n}p_{0}^{(n)}}
.
Zu
k
=
1
{\displaystyle k=1}
:
Aus der zweiten Gleichung folgt:
G
(
n
)
(
s
)
−
p
0
(
n
)
s
⇒
n
→
∞
A
(
s
)
−
A
(
0
)
s
{\displaystyle {\frac {G^{(n)}(s)-p_{0}^{(n)}}{s}}\Rightarrow ^{n\to \infty }{\frac {A(s)-A(0)}{s}}}
links: Potenzreihe mit
p
1
(
n
)
{\displaystyle p_{1}^{(n)}}
als Anfangsglied, rechts: Differenzenquotient, der gegen
A
′
(
0
)
{\displaystyle A'(0)}
bei
s
↓
0
{\displaystyle s\downarrow 0}
konvergiert.
Analog zu
k
=
0
{\displaystyle k=0}
:
p
1
=
A
′
(
0
)
=
l
i
m
n
p
1
(
n
)
{\displaystyle p_{1}=A'(0)=lim_{n}p_{1}^{(n)}}
(Poissonverteilung als Grenzwert der negativen Binominalverteilung)
Nach der Definition lautet die erzeugende Funktion der
N
B
(
n
,
p
)
{\displaystyle NB(n,p)}
gleich
(
1
−
q
1
−
s
q
)
n
{\displaystyle ({\frac {1-q}{1-sq}})^{n}}
. Nun gehe
n
→
∞
{\displaystyle n\to \infty }
, aber so, dass
p
=
p
n
→
1
{\displaystyle p=p_{n}\to 1}
, genauer:
Es gibt ein
λ
>
0
{\displaystyle \lambda >0}
mit (*)
n
q
n
→
λ
,
(
q
n
=
1
−
p
n
)
{\displaystyle nq_{n}\to \lambda ,(q_{n}=1-p_{n})}
. Die Erzeugende Funktion der
N
B
(
n
,
p
)
{\displaystyle NB(n,p)}
lautet dann mit
λ
n
=
n
⋅
q
n
→
λ
{\displaystyle \lambda _{n}=n\cdot q_{n}\to \lambda }
:
G
s
(
n
)
=
(
1
−
λ
n
n
1
−
λ
n
s
n
)
n
→
e
−
λ
e
λ
s
=
e
λ
(
s
−
1
)
≡
G
(
s
)
,
s
∈
R
{\displaystyle G_{s}^{(n)}=({\frac {1-{\frac {\lambda _{n}}{n}}}{1-{\frac {\lambda _{n}s}{n}}}})^{n}\to {\frac {e^{-\lambda }}{e^{\lambda s}}}=e^{\lambda (s-1)}\equiv G(s),s\in \mathbb {R} }
G
(
s
)
{\displaystyle G(s)}
ist erzeugende Funktion der
P
(
λ
)
{\displaystyle P(\lambda )}
-Verteilung. Also folgt aus dem Stetigkeitssatz:
(
n
+
k
−
1
k
)
p
n
n
q
n
k
→
e
−
λ
λ
n
k
!
,
{\displaystyle {\binom {n+k-1}{k}}p_{n}^{n}q_{n}^{k}\to e^{-\lambda }{\frac {\lambda _{n}}{k!}},}
unter (*),
k
=
0
,
1
,
.
.
.
{\displaystyle k=0,1,...}
.
Für große
n
{\displaystyle n}
ist
k
{\displaystyle k}
die Anzahl der auftretenden Ereignisse
E
{\displaystyle E}
('Misserfolge') in einer langen Beobachtungsperiode, wobei
E
{\displaystyle E}
eine sehr kleine Auftrittswahrscheinlichkeit
q
=
λ
n
{\displaystyle q={\frac {\lambda }{n}}}
hat.
Die Anwendung des Stetigkeitssatzes ist auf alle Fälle beschränkt, in denen die 'Grenzverteilung' die diskrete Wahrscheinlichkeitsverteilung ist. Der wichtigste Fall ist dabei gerade der mit einer 'stetigen Grenzverteilung' (später), so dass wir dort einen anderen Stetigketissatz benötigen werden.