Wir betrachten eine (diskrete) ZV
X
{\textstyle X}
, mit ihrer Wahrscheinlichkeitsverteilung:
mögl. Wert
x
1
x
2
…
x
m
gesamt
Wahrsch.
P
(
X
=
x
1
)
=
w
1
P
(
X
=
x
2
)
=
w
2
…
P
(
X
=
x
m
)
=
w
m
w
1
+
w
2
+
…
+
w
m
=
1
{\displaystyle {\begin{array}{|c|c|c|c|c|c|}\hline {\text{mögl. Wert}}&x_{1}&x_{2}&\ldots &x_{m}&{\text{gesamt}}\\\hline {\text{Wahrsch.}}&P(X=x_{1})=w_{1}&P(X=x_{2})=w_{2}&\ldots &P(X=x_{m})=w_{m}&w_{1}+w_{2}+\ldots +w_{m}=1\\\hline \end{array}}}
Der Erwartungswert der ZV
X
{\textstyle X}
ergibt sich dann als:
E
(
X
)
=
x
1
⋅
w
1
+
x
2
⋅
w
2
+
…
+
x
m
⋅
w
m
{\displaystyle E(X)=x_{1}\cdot w_{1}+x_{2}\cdot w_{2}+\ldots +x_{m}\cdot w_{m}}
Durchführung des zugehörigen Zufallsexperiments und Mittelwert
Bearbeiten
Führt man das zugehörige ZE
n
{\textstyle n}
-mal durch, so erhält man eine Stichprobe mit absoluten und relativen Häufigkeiten:
Wert
x
1
x
2
…
x
m
gesamt
abs. Häuf.
h
(
x
1
)
=
h
1
h
(
x
2
)
=
h
2
…
h
(
x
m
)
=
h
m
h
1
+
h
2
+
…
+
h
m
=
n
rel. Häuf.
r
(
x
1
)
=
h
1
n
r
(
x
2
)
=
h
2
n
…
r
(
x
m
)
=
h
m
n
r
1
+
r
2
+
…
+
r
m
=
1
{\displaystyle {\begin{array}{|c|c|c|c|c|c|}\hline {\text{Wert}}&x_{1}&x_{2}&\ldots &x_{m}&{\text{gesamt}}\\\hline {\text{abs. Häuf.}}&h(x_{1})=h_{1}&h(x_{2})=h_{2}&\ldots &h(x_{m})=h_{m}&h_{1}+h_{2}+\ldots +h_{m}=n\\\hline {\text{rel. Häuf.}}&r(x_{1})={\frac {h_{1}}{n}}&r(x_{2})={\frac {h_{2}}{n}}&\ldots &r(x_{m})={\frac {h_{m}}{n}}&r_{1}+r_{2}+\ldots +r_{m}=1\\\hline \end{array}}}
Der arithmetischen Mittelwert des Merkmals
X
{\textstyle X}
ergibt sich dann als:
X
¯
=
x
1
⋅
r
1
+
x
2
⋅
r
2
+
…
+
x
m
⋅
r
m
{\displaystyle {\overline {X}}=x_{1}\cdot r_{1}+x_{2}\cdot r_{2}+\ldots +x_{m}\cdot r_{m}}
Vergleich Erwartungswert und Arithmetisches Mittel
Bearbeiten
Allerdings stimmen die relativen Häufigkeiten
r
k
{\textstyle r_{k}}
(normalerweise) nicht exakt mit den Wahrscheinlichkeiten
w
k
{\textstyle w_{k}}
überein und folglich ist (normalerweise)
X
¯
≠
E
(
X
)
{\textstyle {\overline {X}}\not =E(X)}
.
Folgendes ist erkennbar:
Die relative Häufigkeit
h
(
a
k
)
n
{\textstyle {\frac {h(a_{k})}{n}}}
ist eine Schätzung für die Wahrscheinlichkeit
P
(
X
=
a
k
)
{\textstyle P(X=a_{k})}
.
Der arithmetische Mittelwert
x
¯
{\textstyle {\overline {x}}}
ist eine Schätzung für den EW
E
(
X
)
{\textstyle E(X)}
der ZV.
Die empirische Varianz
s
x
2
{\textstyle {s_{x}}^{2}}
ist eine Schätzung für die Varianz
V
(
X
)
{\textstyle V(X)}
der ZV.
Es ist wichtig, eine Unterscheidung zwischen
P
(
X
=
a
k
)
{\textstyle P(X=a_{k})}
und
r
(
a
k
)
{\textstyle r(a_{k})}
bzw. zwischen
E
(
X
)
{\textstyle E(X)}
und
x
¯
{\textstyle {\overline {x}}}
bzw. zwischen
V
(
X
)
{\textstyle V(X)}
und
s
x
2
{\textstyle {s_{x}}^{2}}
vorzunehmen. Zu beachten ist dabei:
P
(
X
=
a
k
)
,
E
(
X
)
{\textstyle P(X=a_{k}),\ E(X)}
und
σ
X
{\textstyle \sigma _{X}}
sind der ZV
X
{\textstyle X}
zugeordnet. Sie sind durch das Zufallsexperiment eindeutig festgelegt und hängen nicht von der Stichprobe ab. Leider sind sie in vielen in der Praxis relevanten Situationen nicht bekannt.
h
(
a
k
)
,
x
¯
{\textstyle h(a_{k}),\ {\overline {x}}}
und
s
x
{\textstyle s_{x}}
sind der Stichprobe zugeordnet. Sie können aus ihr leicht berechnet werden und sind somit bekannt. Allerdings hängen Sie (wie auch die Stichprobe) vom Zufall ab. Erhebt man eine neue Stichprobe, so erhält man andere Werte für
h
(
a
k
)
,
x
¯
{\textstyle h(a_{k}),\ {\overline {x}}}
und
s
x
{\textstyle s_{x}}
.
Zwei unterschiedliche Betrachtungsweisen
Bearbeiten
Es gibt nun zwei typische Situationen, die völlig unterschiedliche Blickwinkel bieten:
Betrachtungsweise 1: Mögliche Werte und Wahrscheinlichkeiten sind bekannt
Bearbeiten
Die möglichen Werte und die zugehörigen Wahrscheinlichkeiten sind bekannt. Man kann dann einfach
E
(
X
)
{\textstyle E(X)}
berechnen, die Erhebung einer Stichprobe und die Bestimmung des arithmetischen Mittelwerts
X
¯
{\textstyle {\overline {X}}}
sind zwar möglich, bringen aber nichts ein.
Beim Würfelwurf sind die Werte
1
,
…
,
6
{\textstyle 1,\ldots ,6}
möglich (alle mit Wahrscheinlichkeit
1
6
{\textstyle {\frac {1}{6}}}
) und daraus bestimmt man
E
(
X
)
=
3.5
{\textstyle E(X)=3.5}
. Man könnte nun mehrmals werfen und erhält (zum Beispiel) die folgenden Häufigkeiten:
k
1
2
3
4
5
6
gesamt
h
k
h
(
1
)
=
5
h
(
2
)
=
1
h
(
3
)
=
4
h
(
4
)
=
4
h
(
5
)
=
2
h
(
6
)
=
4
n
=
20
r
k
r
(
1
)
=
0.25
r
(
2
)
=
0.05
r
(
3
)
=
0.2
r
(
4
)
=
0.2
r
(
5
)
=
0.1
r
(
6
)
=
0.2
1
{\displaystyle {\begin{array}{|c|c|c|c|c|c|}\hline k&1&2&3&4&5&6&{\text{gesamt}}\\\hline h_{k}&h(1)=5&h(2)=1&h(3)=4&h(4)=4&h(5)=2&h(6)=4&n=20\\\hline r_{k}&r(1)=0.25&r(2)=0.05&r(3)=0.2&r(4)=0.2&r(5)=0.1&r(6)=0.2&1\\\hline \end{array}}}
Daraus lässt sich
X
¯
=
0.25
⋅
1
+
0.05
⋅
2
+
0.2
⋅
3
+
0.2
⋅
4
+
0.1
⋅
5
+
0.2
⋅
6
=
3.45
{\displaystyle {\overline {X}}=0.25\cdot 1+0.05\cdot 2+0.2\cdot 3+0.2\cdot 4+0.1\cdot 5+0.2\cdot 6=3.45}
bestimmen. Dabei liegt
X
¯
{\textstyle {\overline {X}}}
nahe bei
E
(
X
)
{\textstyle E(X)}
. Dies ist wahrscheinlich, muss aber nicht so sein (im Extremfall wäre auch
X
¯
=
1
{\textstyle {\overline {X}}=1}
oder
X
¯
=
6
{\textstyle {\overline {X}}=6}
möglich gewesen).
Betrachtungsweise 2: Mögliche Werte und Wahrscheinlichkeiten sind unbekannt
Bearbeiten
Man kennt die möglichen Werte und die zugehörigen Wahrscheinlichkeiten nicht, möchte aber gerne etwas über
E
(
X
)
{\textstyle E(X)}
wissen. Daher erhebt man eine Stichprobe. Dann kann man
X
¯
{\textstyle {\overline {X}}}
als Schätzwert für
E
(
X
)
{\textstyle E(X)}
nehmen. Man weiß dann aber im konkreten Fall nicht, wie gut diese Schätzung ist. In der schließenden Statistik (siehe Vorlesung ’Statistik für Anwender II’) untersucht man Methoden zur Beurteilung solcher Schätzungen.
In einer Lostrommel befinden sich viele Kugeln mit Zahlen darauf. Sie wissen nicht, welche Zahlen daraufstehen und mit welcher Häufigkeit sie vertreten sind. Bei
50
{\textstyle 50}
-maligem Ziehen erhalten Sie die folgenden absoluten Häufigkeiten:
k
0
1
2
3
4
7
11
gesamt
h
k
17
15
9
5
2
1
1
n
=
50
r
k
0.34
0.3
0.18
0.1
0.04
0.02
0.02
1
{\displaystyle {\begin{array}{|c|c|c|c|c|c|}\hline k&0&1&2&3&4&7&11&{\text{gesamt}}\\\hline h_{k}&17&15&9&5&2&1&1&n=50\\\hline r_{k}&0.34&0.3&0.18&0.1&0.04&0.02&0.02&1\\\hline \end{array}}}
Daraus berechnen Sie
X
¯
=
1.48
{\displaystyle {\overline {X}}=1.48}
und können dies als Schätzwert für
E
(
X
)
{\textstyle E(X)}
nehmen.
Man interessiert sich für den Erwartungswert der Zufallsvariable
Z
{\textstyle Z}
, die die Anzahl der Jungtiere in einem Wurf einer Katze. Da man die Wahrscheinlichkeiten für die einzelnen Anzahlen nicht kennt, kann man diesen Erwatungswert nicht ausrechnen. Man hat daher nur die Möglichkeit, ihn mit Hilfe des Erwartungswerts einer Stichprobe zu schätzen.
Beispielsweise erhebt man die folgende Stichprobe:
k
1
2
3
4
5
6
7
8
9
10
11
12
…
gesamt
h
k
8
17
31
26
6
4
3
2
1
1
0
1
0
100
r
k
0.08
0.17
0.31
0.26
0.06
0.04
0.03
0.02
0.01
0.01
0
0.01
0
1
{\displaystyle {\begin{array}{|c||c|c|c|c|c|c|c|c|c|c|c|c|c|c|}\hline k&1&2&3&4&5&6&7&8&9&10&11&12&\ldots &{\text{gesamt}}\\\hline h_{k}&8&17&31&26&6&4&3&2&1&1&0&1&0&100\\\hline r_{k}&0.08&0.17&0.31&0.26&0.06&0.04&0.03&0.02&0.01&0.01&0&0.01&0&1\\\hline \end{array}}}
Anmerkung: Wahrscheinlichkeiten sind unbekannt, können durch relative Häufigkeit geschätzt werden.
Daraus ergibt sich der artithmetische Mittelwert der Stichprobe:
X
¯
=
3.61
{\displaystyle {\begin{aligned}{\overline {X}}=3.61\end{aligned}}}
Der Erwartungswert
E
(
X
)
{\textstyle E(X)}
ist aber unbekannt, kann aber durch
X
¯
{\textstyle {\overline {X}}}
geschätzt werden.
Erwartungstreue, Varianzbetrachtung und Konsistenz obiger Schätzungen
Bearbeiten
Sei
X
{\textstyle X}
eine endliche ZV, die die Werte
a
1
,
…
,
a
m
{\textstyle a_{1},\ldots ,a_{m}}
mit den Wahrscheinlichkeiten
p
k
=
P
(
X
=
a
k
)
(
k
=
1
,
…
,
m
)
{\textstyle p_{k}=P(X=a_{k})\ (k=1,\ldots ,m)}
annehmen kann und EW
E
(
X
)
{\textstyle E(X)}
und Varianz
V
(
X
)
{\textstyle V(X)}
hat.
Weiterhin seien
X
1
,
…
,
X
m
{\textstyle X_{1},\ldots ,X_{m}}
unabhängige ZV, die identisch wie
X
{\textstyle X}
verteilt sind (d.h. sie haben alle diesselbe W-Funktion wie
X
{\textstyle X}
). Wir betrachten außerdem die ZV:
H
n
k
=
#
{
j
∈
{
1
,
…
,
n
}
;
X
j
=
a
k
}
(
k
=
1
,
…
,
m
)
M
n
=
1
n
⋅
∑
j
=
1
n
X
j
V
n
=
1
n
−
1
⋅
∑
j
=
1
n
(
X
j
−
M
n
)
2
{\displaystyle {\begin{array}{rcl}H_{n}^{k}&=&\#\{j\in \{1,\ldots ,n\};\ X_{j}=a_{k}\}\quad (k=1,\ldots ,m)\\M_{n}&=&{\frac {1}{n}}\cdot \sum \limits _{j=1}^{n}X_{j}\\V_{n}&=&{\frac {1}{n-1}}\cdot \sum \limits _{j=1}^{n}\left(X_{j}-M_{n}\right)^{2}\end{array}}}
Die Schätzung von
p
k
=
P
(
X
=
a
k
)
{\textstyle p_{k}=P(X=a_{k})}
durch
H
n
k
n
{\textstyle {\frac {H_{n}^{k}}{n}}}
ist erwartungstreu, das heißt, es gilt:
E
(
H
n
k
n
)
=
p
k
{\textstyle \quad E\left({\frac {H_{n}^{k}}{n}}\right)=p_{k}}
hat eine gegen
0
{\textstyle 0}
konvergierende Varianz, also:
V
(
H
n
k
n
)
⟶
n
→
∞
0
{\textstyle \quad V\left({\frac {H_{n}^{k}}{n}}\right){\stackrel {n\to \infty }{\longrightarrow }}0}
ist konsistent, d.h. für alle
c
>
0
{\textstyle c>0}
ist:
P
(
|
H
n
k
n
−
p
k
|
<
c
)
⟶
n
→
∞
1
{\textstyle \quad P\left(\left|{\frac {H_{n}^{k}}{n}}-p_{k}\right|<c\right){\stackrel {n\to \infty }{\longrightarrow }}1}
Die Schätzung von
E
(
X
)
{\textstyle E(X)}
durch
M
n
{\textstyle M_{n}}
ist erwartungstreu, das heißt, es gilt:
E
(
M
n
)
=
E
(
X
)
{\textstyle \quad E(M_{n})=E(X)}
hat eine gegen
0
{\textstyle 0}
konvergierende Varianz, also:
V
(
M
n
)
⟶
n
→
∞
0
{\textstyle \quad V(M_{n}){\stackrel {n\to \infty }{\longrightarrow }}0}
ist konsistent, d.h. für alle
c
>
0
{\textstyle c>0}
ist:
P
(
|
M
n
−
E
(
X
)
|
<
c
)
⟶
n
→
∞
1
{\textstyle \quad P\left(\left|M_{n}-E(X)\right|<c\right){\stackrel {n\to \infty }{\longrightarrow }}1}
Die Schätzung von
V
(
X
)
{\textstyle V(X)}
durch
V
n
{\textstyle V_{n}}
ist erwartungstreu, das heißt, es gilt:
E
(
V
n
)
=
V
(
X
)
{\textstyle \quad E(V_{n})=V(X)}
hat eine gegen
0
{\textstyle 0}
konvergierende Varianz, also:
V
(
V
n
)
⟶
n
→
∞
0
{\textstyle \quad V(V_{n}){\stackrel {n\to \infty }{\longrightarrow }}0}
ist konsistent, d.h. für alle
c
>
0
{\textstyle c>0}
ist:
P
(
|
V
n
−
V
(
X
)
|
<
c
)
⟶
n
→
∞
1
{\textstyle \quad P\left(\left|V_{n}-V(X)\right|<c\right){\stackrel {n\to \infty }{\longrightarrow }}1}
Wir betrachten eine ZV
X
{\textstyle X}
mit den folgenden möglichen Werten
0
,
3
,
9
,
12
{\textstyle 0,3,9,12}
und den folgenden dazugeörenden Wahrscheinlichkeiten:
P
(
X
=
0
)
=
0.1
P
(
X
=
3
)
=
0.2
P
(
X
=
9
)
=
0.3
P
(
X
=
12
)
=
0.4
{\displaystyle P(X=0)=0.1\quad P(X=3)=0.2\quad P(X=9)=0.3\quad P(X=12)=0.4}
Daraus berechnet man EW und Varianz von
X
{\textstyle X}
durch:
E
(
X
)
=
8.1
und
{\displaystyle E(X)=8.1\quad {\text{und}}}
V
(
X
)
=
18.09
{\displaystyle V(X)=18.09}
Eine Person, die die oben angegebenen Wahrscheinlichkeiten nicht kennt, will Schätzungen für
E
(
X
)
{\textstyle E(X)}
und
V
(
X
)
{\textstyle V(X)}
vornehmen. Dazu führt sie eine Stichprobe der Länge
n
=
3
{\textstyle n=3}
durch und berechnet daraus
x
¯
{\textstyle {\overline {x}}}
und
s
x
2
{\textstyle {s_{x}}^{2}}
. Für die Stichprobe
x
1
,
x
2
,
x
3
{\textstyle x_{1},x_{2},x_{3}}
gibt es
64
{\textstyle 64}
Möglichkeiten. Diese haben bestimmte Wahrscheinlichkeiten und führen zu verschiedenen Werten für
x
¯
{\textstyle {\overline {x}}}
und
s
x
2
{\textstyle {s_{x}}^{2}}
.
mögliche Stichprobe
Wahrscheinlichkeit
ergibt
ergibt
(
x
1
,
x
2
,
X
x
3
)
zusammen
x
¯
=
s
x
2
=
(
0
,
0
,
0
)
0.001
0
0
(
3
,
3
,
3
)
0.008
3
0
(
9
,
9
,
9
)
0.027
9
0
(
12
,
12
,
12
)
0.064
12
0
(
0
,
0
,
3
)
,
(
0
,
3
,
0
)
,
(
3
,
0
,
0
)
0.006
1
3
(
0
,
0
,
9
)
,
(
0
,
9
,
0
)
,
(
9
,
0
,
0
)
0.009
3
27
(
0
,
0
,
12
)
,
(
0
,
12
,
0
)
,
(
12
,
0
,
0
)
0.012
4
48
(
3
,
3
,
0
)
,
(
3
,
0
,
3
)
,
(
0
,
3
,
3
)
0.012
2
3
(
3
,
3
,
9
)
,
(
3
,
9
,
3
)
,
(
9
,
3
,
3
)
0.036
5
12
(
3
,
3
,
12
)
,
(
3
,
12
,
3
)
,
(
12
,
3
,
3
)
0.048
6
27
(
9
,
9
,
0
)
,
(
9
,
0
,
9
)
,
(
0
,
9
,
9
)
0.027
6
27
{\displaystyle {\begin{array}{|c|c|c|c|}\hline {\text{mögliche Stichprobe}}&{\text{Wahrscheinlichkeit}}&{\text{ergibt}}&{\text{ergibt}}\\(x_{1},x_{2},Xx_{3})&{\text{zusammen}}&{\overline {x}}=&{s_{x}}^{2}=\\\hline (0,0,0)&0.001&0&0\\\hline (3,3,3)&0.008&3&0\\\hline (9,9,9)&0.027&9&0\\\hline (12,12,12)&0.064&12&0\\\hline (0,0,3),(0,3,0),(3,0,0)&0.006&1&3\\\hline (0,0,9),(0,9,0),(9,0,0)&0.009&3&27\\\hline (0,0,12),(0,12,0),(12,0,0)&0.012&4&48\\\hline (3,3,0),(3,0,3),(0,3,3)&0.012&2&3\\\hline (3,3,9),(3,9,3),(9,3,3)&0.036&5&12\\\hline (3,3,12),(3,12,3),(12,3,3)&0.048&6&27\\\hline (9,9,0),(9,0,9),(0,9,9)&0.027&6&27\\\hline \end{array}}}
mögliche Stichprobe
Wahrscheinlichkeit
ergibt
ergibt
(
x
1
,
x
2
,
X
x
3
)
zusammen
x
¯
=
s
x
2
=
(
9
,
9
,
3
)
,
(
9
,
3
,
9
)
,
(
3
,
9
,
9
)
0.054
7
12
(
9
,
9
,
12
)
,
(
9
,
12
,
9
)
,
(
12
,
9
,
9
)
0.108
10
3
(
12
,
12
,
0
)
,
(
12
,
0
,
12
)
,
(
0
,
12
,
12
)
0.048
8
48
(
12
,
12
,
3
)
,
(
12
,
3
,
12
)
,
(
3
,
12
,
12
)
0.096
9
27
(
12
,
12
,
9
)
,
(
12
,
9
,
12
)
,
(
9
,
12
,
12
)
0.144
11
3
(
0
,
3
,
9
)
,
(
0
,
9
,
3
)
,
(
3
,
0
,
9
)
,
(
3
,
9
,
0
)
,
(
9
,
0
,
3
)
,
(
9
,
3
,
0
)
0.036
4
21
(
0
,
3
,
12
)
,
(
0
,
12
,
3
)
,
(
3
,
0
,
12
)
,
(
3
,
12
,
0
)
,
(
12
,
0
,
3
)
,
(
12
,
3
,
0
)
0.048
5
39
(
0
,
9
,
12
)
,
(
0
,
12
,
9
)
,
(
9
,
0
,
12
)
,
(
9
,
12
,
0
)
,
(
12
,
0
,
9
)
,
(
12
,
9
,
0
)
0.072
7
39
(
3
,
9
,
12
)
,
(
3
,
12
,
9
)
,
(
9
,
3
,
12
)
,
(
9
,
12
,
3
)
,
(
12
,
3
,
9
)
,
(
12
,
9
,
3
)
0.144
8
21
{\displaystyle {\begin{array}{|c|c|c|c|}\hline {\text{mögliche Stichprobe}}&{\text{Wahrscheinlichkeit}}&{\text{ergibt}}&{\text{ergibt}}\\(x_{1},x_{2},Xx_{3})&{\text{zusammen}}&{\overline {x}}=&{s_{x}}^{2}=\\\hline (9,9,3),(9,3,9),(3,9,9)&0.054&7&12\\\hline (9,9,12),(9,12,9),(12,9,9)&0.108&10&3\\\hline (12,12,0),(12,0,12),(0,12,12)&0.048&8&48\\\hline (12,12,3),(12,3,12),(3,12,12)&0.096&9&27\\\hline (12,12,9),(12,9,12),(9,12,12)&0.144&11&3\\\hline (0,3,9),(0,9,3),(3,0,9),(3,9,0),(9,0,3),(9,3,0)&0.036&4&21\\\hline (0,3,12),(0,12,3),(3,0,12),(3,12,0),(12,0,3),(12,3,0)&0.048&5&39\\\hline (0,9,12),(0,12,9),(9,0,12),(9,12,0),(12,0,9),(12,9,0)&0.072&7&39\\\hline (3,9,12),(3,12,9),(9,3,12),(9,12,3),(12,3,9),(12,9,3)&0.144&8&21\\\hline \end{array}}}
Fasst man
x
¯
=
^
M
n
{\textstyle {\overline {x}}\;{\hat {=}}\;M_{n}}
als ZV auf, so kann diese also die folgenden Werte mit den angegebenen Wahrscheinlichkeiten annehmen:
a
0
1
2
3
4
5
6
7
8
9
10
11
12
P
(
M
n
=
A
)
0.001
0.006
0.012
0.017
0.048
0.084
0.075
0.126
0.192
0.123
0.108
0.144
0.064
{\displaystyle {\begin{array}{|c||c|c|c|c|c|c|c|c|c|c|c|c|c|}\hline a&0&1&2&3&4&5&6&7&8&9&10&11&12\\\hline P\left(M_{n}=A\right)&0.001&0.006&0.012&0.017&0.048&0.084&0.075&0.126&0.192&0.123&0.108&0.144&0.064\\\hline \end{array}}}
Daraus ergibt sich
E
(
M
n
)
=
8.1
=
E
(
X
)
{\displaystyle {\begin{aligned}E(M_{n})&=&8.1\quad =E(X)\end{aligned}}}
Fasst man
s
x
2
=
^
V
n
{\textstyle s_{x}^{2}\;{\hat {=}}\;V_{n}}
als ZV auf, so kann diese also die folgenden Werte mit den angegebenen Wahrscheinlichkeiten annehmen:
a
0
3
12
21
27
39
48
P
(
V
n
=
a
)
0.100
0.270
0.090
0.180
0.180
0.120
0.060
{\displaystyle {\begin{array}{|c||c|c|c|c|c|c|c|}\hline a&0&3&12&21&27&39&48\\\hline P\left(V_{n}=a\right)&0.100&0.270&0.090&0.180&0.180&0.120&0.060\\\hline \end{array}}}
Daraus ergibt sich
E
(
V
n
)
=
18.08
=
V
(
X
)
{\displaystyle {\begin{aligned}E(V_{n})&=&18.08\quad =V(X)\end{aligned}}}
Damit haben wir die Erwartungstreue der beiden Schätzungen für diese spezielle ZV
X
{\textstyle X}
nachgerechnet.