Für große
n
{\displaystyle n}
sind Wahrscheinlichkeiten, die nicht mit der
B
(
n
,
p
)
{\displaystyle B(n,p)}
-Verteilung verknüpft sind, größenordnungsmäßig schlecht zu erfassen und umständlich zu berechnen. In diesem Abschnitt soll die Binomialverteilung einerseits durch die Standardnormalverteilung approximiert werden und andererseits bei konvergentem
lim
n
→
∞
n
⋅
p
n
=
λ
{\displaystyle \lim _{n\to \infty }n\cdot p_{n}=\lambda }
die Approximation durch die Poissonverteilung untersucht werden.
Es gilt:
∫
−
∞
∞
ϕ
(
x
)
d
x
=
1
{\displaystyle \int _{-\infty }^{\infty }\phi (x)dx=1}
mit der Standard-Normalenverteilung
ϕ
{\displaystyle \phi }
.
(
∫
−
∞
∞
e
−
t
2
2
d
t
)
2
=
∫
−
∞
∞
∫
−
∞
∞
e
−
x
2
2
e
−
y
2
2
d
x
d
y
=
∫
−
∞
∞
∫
−
∞
∞
e
−
(
x
2
+
y
2
)
2
d
x
d
y
{\displaystyle (\int _{-\infty }^{\infty }e^{\frac {-t^{2}}{2}}dt)^{2}=\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }e^{\frac {-x^{2}}{2}}e^{\frac {-y^{2}}{2}}dxdy=\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }e^{\frac {-(x^{2}+y^{2})}{2}}dxdy}
=
∫
−
∞
2
π
∫
−
∞
∞
e
−
r
2
2
r
d
r
d
θ
=
2
π
∫
0
∞
e
−
r
2
2
r
d
r
=
2
π
{\displaystyle =\int _{-\infty }^{2\pi }\int _{-\infty }^{\infty }e^{\frac {-r^{2}}{2}}rdrd\theta =2\pi \int _{0}^{\infty }e^{\frac {-r^{2}}{2}}rdr=2\pi }
Ferner definieren wir die sogenannte Verteilungsfunktion
Φ
{\displaystyle \Phi }
der Standardnormalenverteilung:
Φ
(
x
)
=
∫
∞
x
ϕ
(
t
)
d
t
,
x
∈
R
{\displaystyle \Phi (x)=\int _{\infty }^{x}\phi (t)dt,x\in \mathbb {R} }
x
=
r
⋅
c
o
s
θ
,
y
=
r
⋅
s
i
n
θ
,
y
2
+
x
2
=
r
2
{\displaystyle x=r\cdot cos\theta ,y=r\cdot sin\theta ,y^{2}+x^{2}=r^{2}}
|
d
e
t
(
c
o
s
θ
−
r
⋅
s
i
n
θ
s
i
n
θ
r
⋅
c
o
s
θ
)
|
=
r
(
s
i
n
2
θ
+
c
o
s
2
θ
)
=
r
{\displaystyle |det{\begin{pmatrix}cos\theta &-r\cdot sin\theta \\sin\theta &r\cdot cos\theta \end{pmatrix}}|=r(sin^{2}\theta +cos^{2}\theta )=r}
Ist
X
(
n
)
{\displaystyle X^{(n)}}
B
(
n
,
p
)
{\displaystyle B(n,p)}
-verteilt,
0
<
p
<
1
{\displaystyle 0<p<1}
, so gilt mit der Standardisierten
X
n
k
=
X
(
n
)
−
n
p
n
p
(
1
−
p
)
{\displaystyle X_{n}^{k}={\frac {X^{(n)}-np}{\sqrt {np(1-p)}}}}
P
(
a
≤
X
n
∗
≤
b
)
→
n
→
∞
∫
a
b
ϕ
(
x
)
d
x
=
Φ
(
b
)
−
Φ
(
a
)
.
{\displaystyle P(a\leq X_{n}^{*}\leq b)\to ^{n\to \infty }\int _{a}^{b}\phi (x)dx=\Phi (b)-\Phi (a).}
Sei
X
(
n
)
{\displaystyle X^{(n)}}
B
(
n
,
p
)
{\displaystyle B(n,p)}
-verteilt,
0
<
p
<
1
{\displaystyle 0<p<1}
. Wegen
E
X
(
n
)
=
n
p
{\displaystyle EX^{(n)}=np}
und
V
a
r
(
X
(
n
)
)
=
n
p
(
1
−
p
)
{\displaystyle Var(X^{(n)})=np(1-p)}
läuft die Verteilung für wachsendes
n
{\displaystyle n}
einerseits nach rechts, anderseits 'verläuft' sie auch in die Breite. Wir bilden deshalb die Standardisierte von
X
(
n
)
{\displaystyle X^{(n)}}
, d.h.
X
n
=
X
(
n
)
−
n
p
n
p
(
1
−
p
)
{\displaystyle X_{n}={\frac {X^{(n)}-np}{\sqrt {np(1-p)}}}}
.
Die Verteilung von
X
n
{\displaystyle X_{n}}
liegt 'glockenförmig' um 0, allerdings in 'diskreter Form'. Um die ideale 'Glockenforn' analytisch zu beschreiben, führen wir die Funktion
ϕ
(
X
)
{\displaystyle \phi (X)}
ein:
ϕ
(
x
)
=
1
2
π
e
−
1
2
x
2
,
x
∈
R
{\displaystyle \phi (x)={\frac {1}{\sqrt {2\pi }}}e^{-{\frac {1}{2}}x^{2}},x\in \mathbb {R} }
Der Satz ist ein Spezialfall des sogenannten zentralen Grenzwertsatzes (später).
1. Insbesondere gilt:
P
(
X
n
∗
≤
b
)
→
n
→
∞
Φ
(
b
)
,
P
(
X
n
∗
≥
a
)
→
n
→
∞
1
−
Φ
(
b
)
=
Φ
(
−
a
)
{\displaystyle P(X_{n}^{*}\leq b){\stackrel {n\to \infty }{\to }}\Phi (b),P(X_{n}^{*}\geq a){\stackrel {n\to \infty }{\to }}1-\Phi (b)=\Phi (-a)}
2. Zur approximativen Berechnung der Wahrscheinlichkeit von
k
≤
X
(
n
)
≤
l
{\displaystyle k\leq X^{(n)}\leq l}
geht man wie folgt vor:
Bilde
a
=
k
−
n
p
n
p
(
1
−
p
)
,
b
=
l
−
n
p
n
p
(
1
−
p
)
;
(
a
≡
a
n
,
b
≡
b
n
)
{\displaystyle a={\frac {k-np}{\sqrt {np(1-p)}}},b={\frac {l-np}{\sqrt {np(1-p)}}};(a\equiv a_{n},b\equiv b_{n})}
, dann
P
(
E
1
)
=
P
(
k
≤
X
(
n
)
≤
l
)
=
P
(
a
≤
X
n
∗
≤
b
)
=
P
(
E
2
)
≈
Φ
(
b
)
−
Φ
(
a
)
{\displaystyle P(E_{1})=P(k\leq X^{(n)}\leq l)=P(a\leq X_{n}^{*}\leq b)=P(E_{2})\approx \Phi (b)-\Phi (a)}
mit
E
1
,
E
2
{\displaystyle E_{1},E_{2}}
gleiche Ereignisse, und wenn
n
{\displaystyle n}
groß genug ist. (Faustregel:
n
p
(
1
−
p
)
≥
10
{\displaystyle np(1-p)\geq 10}
)
3. Für kleine
n
{\displaystyle n}
ist noch eine sogenannte Stetigkeitskorrektur nützlich:
a
=
k
−
n
p
−
1
2
n
p
(
1
−
p
)
,
b
=
l
−
n
p
+
1
2
n
p
(
1
−
p
)
{\displaystyle a={\frac {k-np-{\frac {1}{2}}}{\sqrt {np(1-p)}}},b={\frac {l-np+{\frac {1}{2}}}{\sqrt {np(1-p)}}}}
Ein Medikament heilt einen Patienten mit der Wahrscheinlichkeit
p
=
0
,
8
{\displaystyle p=0,8}
. Wie groß ist die Wahrscheinlichkeit, dass unter
n
=
1000
{\displaystyle n=1000}
Patienten (denen das Medikament verabreicht wird) mindestens
k
=
780
{\displaystyle k=780}
Patienten geheilt werden?
Ist
p
n
,
n
≤
1
{\displaystyle p_{n},n\leq 1}
, eine Folge
∈
(
0
,
1
)
{\displaystyle \in (0,1)}
mit
(*)
l
i
m
n
→
∞
n
p
n
=
λ
>
0
,
{\displaystyle lim_{n\to \infty }np_{n}=\lambda >0,}
so gilt
l
i
m
n
→
∞
b
(
k
;
n
,
p
n
)
=
λ
k
k
!
e
−
λ
,
k
∈
Z
.
{\displaystyle lim_{n\to \infty }b(k;n,p_{n})={\frac {\lambda ^{k}}{k!}}e^{-\lambda },k\in \mathbb {Z} .}
2
%
{\displaystyle 2\%}
der Bevölkerung haben eine bestimmte Krankheit. Wie groß ist die Wahrscheinlichkeit, dass unter
100
{\displaystyle 100}
Personen (zufällig herausgegriffen) mindestens
3
{\displaystyle 3}
diese Krankheit haben?
a)
X
{\displaystyle X}
binominalverteilt,
B
(
100
,
0
,
02
)
{\displaystyle B(100,0,02)}
-Verteilung
b)
X
{\displaystyle X}
poissonverteilt,
P
(
2
)
{\displaystyle P(2)}
-Verteilung