Bei Einstichprobentests werden Hypothesen über die Parameter einer normalverteilten ZV mit Hilfe einer Stichprobe (der Länge
n
{\textstyle n}
) getestet.
Situation: Es sei bekannt, dass eine ZV
X
{\textstyle X}
normalverteilt ist. Allerdings sind
μ
{\textstyle \mu }
und
σ
{\textstyle \sigma }
nicht bekannt. Es liegt eine Stichprobe
x
1
,
…
,
x
n
{\textstyle x_{1},\ldots ,x_{n}}
der Länge
n
{\textstyle n}
von
X
{\textstyle X}
vor.
Daraus kann man zunächst den arithmetischen Mittelwert und die empirische Standardabweichung berechnen, also:
x
¯
=
1
n
⋅
∑
i
=
1
n
x
i
und
s
=
s
x
=
1
n
−
1
⋅
∑
i
=
1
n
(
x
i
−
x
¯
)
2
{\textstyle \quad {\overline {x}}={\frac {1}{n}}\cdot \sum \limits _{i=1}^{n}x_{i}\ {\text{und}}\ s=s_{x}={\sqrt {{\frac {1}{n-1}}\cdot \sum \limits _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}}}}
Bei einem Hypothesentest ist wie folgt vorzugehen: Zunächst stellt man eine Nullhypothese auf (hier eine Aussage, die
μ
{\textstyle \mu }
oder
σ
{\textstyle \sigma }
betrifft) und legt das Signifikanzniveau
α
{\textstyle \alpha }
sowie die Methode zur Berechnung des p-Werts fest. Dann erst sichtet man die Daten der Stichprobe und kommt anhand dieser Daten mit dem zuvor festgelegten Verfahren zu einer Entscheidung:
ZV mit unbekannten Parametern
μ
,
σ
⟶
zufällig
Daten
x
1
,
…
,
x
n
⟶
methodisch
Entscheidung bzgl.
H
0
{\textstyle {\text{ZV mit unbekannten Parametern }}\mu ,\sigma {\stackrel {\text{zufällig}}{\longrightarrow }}{\text{Daten }}x_{1},\ldots ,x_{n}{\stackrel {\text{methodisch}}{\longrightarrow }}{\text{Entscheidung bzgl. }}H_{0}}
Somit hängt auch die Entscheidung bzgl.
H
0
{\textstyle H_{0}}
vom Zufall ab und es kann daher zu Fehlern kommen. Wie bei allen Hypothesentests ist aber immer garantiert:
Falls
H
0
gilt
⇒
P
(
Ablehnung von
H
0
)
≤
α
{\displaystyle \quad {\text{Falls }}H_{0}{\text{ gilt}}\quad \Rightarrow \quad P\left({\text{Ablehnung von }}H_{0}\right)\leq \alpha }
(Wir werden dies nicht immer wieder begründen. Bei allen Verfahren ist dies aber stets garantiert.)
Voraussetzung:
X
{\textstyle X}
normalverteilt mit EW
μ
=
?
{\textstyle \mu =?}
und Standardabweichung
σ
=
?
{\textstyle \sigma =?}
Hypothesenpaar:
H
0
:
μ
≥
μ
0
{\textstyle H_{0}:\mu \geq \mu _{0}}
und
H
1
:
μ
<
μ
0
{\textstyle H_{1}:\mu <\mu _{0}}
(Dabei ist
μ
0
∈
R
{\textstyle \mu _{0}\in \mathbb {R} }
vorgegeben.)
Vorliegende Daten: Stichprobe
x
1
,
…
,
x
n
{\textstyle x_{1},\ldots ,x_{n}}
Teststatistik:
T
∗
=
n
⋅
x
¯
−
μ
0
s
x
{\textstyle \quad T^{\ast }={\sqrt {n}}\cdot {\frac {{\overline {x}}-\mu _{0}}{s_{x}}}}
(niedrige Werte von
T
∗
{\textstyle T^{\ast }}
sprechen gegen
H
0
{\textstyle H_{0}}
)
p
{\textstyle p}
-Wert zu konkreter Teststatistik
T
∗
{\textstyle T^{\ast }}
:
p
∗
=
T
n
−
1
(
T
∗
)
=
p
t
(
T
∗
,
n
−
1
)
{\textstyle \quad {\mathfrak {p}}^{\ast }=T_{n-1}\left(T^{\ast }\right)=\color {blue}{pt(T^{\ast },n-1)}}
Dabei bezeichnet
T
n
−
1
{\textstyle T_{n-1}}
die Verteilungsfunktion einer
t
{\textstyle t}
-Verteilung mit
n
−
1
{\textstyle n-1}
FG.
Durchführung mit R:
t
.
t
e
s
t
(
x
,
y
=
NULL
,
a
l
t
=
{\textstyle \quad \color {blue}{t.test(x,y={\text{NULL}},alt=}}
" less ",
μ
0
{\displaystyle \color {blue}{\mu _{0}}}
)
(Dabei muss
x
{\textstyle x}
ein Vektor mit den Daten
x
1
,
…
,
x
n
{\textstyle x_{1},\ldots ,x_{n}}
sein.)
Beim Testen der Nullhypothese
H
0
:
μ
≥
16
{\textstyle H_{0}:\mu \geq 16}
zu einer (normalverteilten) ZV
X
{\textstyle X}
erhält man die folgende Stichprobe
x
1
,
…
,
x
20
{\textstyle x_{1},\ldots ,x_{20}}
:
17.49
,
14.22
,
13.56
,
14.48
,
13.14
,
16.44
,
11.66
,
17.02
,
13.39
,
14.66
,
14.79
,
15.99
,
15.50
,
16.66
,
14.02
,
15.60
,
13.62
,
14.42
,
16.10
,
18.48
{\displaystyle {\begin{array}{c}17.49,\ 14.22,\ 13.56,\ 14.48,\ 13.14,\ 16.44,\ 11.66,\ 17.02,\ 13.39,\ 14.66,\\14.79,\ 15.99,\ 15.50,\ 16.66,\ 14.02,\ 15.60,\ 13.62,\ 14.42,\ 16.10,\ 18.48\end{array}}}
Daraus dann
p
∗
=
0.0108
{\textstyle \quad {\mathfrak {p}}^{\ast }=0.0108}
Voraussetzung:
X
{\textstyle X}
normalverteilt mit EW
μ
=
?
{\textstyle \mu =?}
und Standardabweichung
σ
=
?
{\textstyle \sigma =?}
Hypothesenpaar:
H
0
:
μ
≤
μ
0
{\textstyle H_{0}:\mu \leq \mu _{0}}
und
H
1
:
μ
>
μ
0
{\textstyle H_{1}:\mu >\mu _{0}}
(Dabei ist
μ
0
∈
R
{\textstyle \mu _{0}\in \mathbb {R} }
vorgegeben.)
Vorliegende Daten: Stichprobe
x
1
,
…
,
x
n
{\textstyle x_{1},\ldots ,x_{n}}
Teststatistik:
T
∗
=
n
⋅
x
¯
−
μ
0
s
x
{\textstyle \quad T^{\ast }={\sqrt {n}}\cdot {\frac {{\overline {x}}-\mu _{0}}{s_{x}}}}
(hohe Werte von
T
∗
{\textstyle T^{\ast }}
sprechen gegen
H
0
{\textstyle H_{0}}
)
p
{\textstyle p}
-Wert zu konkreter Teststatistik
T
∗
{\textstyle T^{\ast }}
:
p
∗
=
1
−
T
n
−
1
(
T
∗
)
=
1
−
p
t
(
T
∗
,
n
−
1
)
{\displaystyle \quad {\mathfrak {p}}^{\ast }=1-T_{n-1}\left(T^{\ast }\right)=\color {blue}{1-{pt}(T^{\ast },n-1)}}
Dabei bezeichnet
T
n
−
1
{\textstyle T_{n-1}}
die Verteilungsfunktion einer
t
{\textstyle t}
-Verteilung mit
n
−
1
{\textstyle n-1}
FG.
Durchführung mit R :
t
.
t
e
s
t
(
x
,
y
=
NULL
,
a
l
t
=
{\textstyle \quad \color {blue}{t.test(x,y={\text{NULL}},alt=}}
" greater ",
μ
0
{\displaystyle \color {blue}{\mu _{0}}}
)
(Dabei muss
x
{\textstyle x}
ein Vektor mit den Daten
x
1
,
…
,
x
n
{\textstyle x_{1},\ldots ,x_{n}}
sein.)
Beim Testen der Nullhypothese
H
0
:
μ
≤
170
{\textstyle H_{0}:\mu \leq 170}
zu einer (normalverteilten) ZV
X
{\textstyle X}
erhält man die folgende Stichprobe
x
1
,
…
,
x
10
{\textstyle x_{1},\ldots ,x_{10}}
:
160.0
,
154.7
,
182.8
,
181.4
,
165.3
,
181.0
,
176.5
,
182.9
,
187.1
,
168.4
{\displaystyle 160.0,\ 154.7,\ 182.8,\ 181.4,\ 165.3,\ 181.0,\ 176.5,\ 182.9,\ 187.1,\ 168.4}
Daraus ergibt sich
p
∗
=
0.1418
{\textstyle \quad {\mathfrak {p}}^{\ast }=0.1418}
Voraussetzung:
X
{\textstyle X}
normalverteilt mit EW
μ
=
?
{\textstyle \mu =?}
und Standardabweichung
σ
=
?
{\textstyle \sigma =?}
Hypothesenpaar:
H
0
:
μ
=
μ
0
{\textstyle H_{0}:\mu =\mu _{0}}
und
H
1
:
μ
≠
μ
0
{\textstyle H_{1}:\mu \not =\mu _{0}}
(Dabei ist
μ
0
∈
R
{\textstyle \mu _{0}\in \mathbb {R} }
vorgegeben.)
Vorliegende Daten: Stichprobe
x
1
,
…
,
x
n
{\textstyle x_{1},\ldots ,x_{n}}
Teststatistik:
T
∗
=
n
⋅
|
x
¯
−
μ
0
|
s
x
{\textstyle \quad T^{\ast }={\sqrt {n}}\cdot {\frac {\left|{\overline {x}}-\mu _{0}\right|}{s_{x}}}}
(hohe Werte von
T
∗
{\textstyle T^{\ast }}
sprechen gegen
H
0
{\textstyle H_{0}}
)
p
{\textstyle p}
-Wert zu konkreter Teststatistik
T
∗
{\textstyle T^{\ast }}
:
p
∗
=
2
⋅
(
1
−
T
n
−
1
(
T
∗
)
)
=
2
∗
(
1
−
pt
(
T
∗
,
n
−
1
)
)
{\displaystyle \quad {\mathfrak {p}}^{\ast }=2\cdot \left(1-T_{n-1}\left(T^{\ast }\right)\right)=\color {blue}{2\ast (1-{\text{pt}}(T^{\ast },n-1))}}
Dabei bezeichnet
T
n
−
1
{\textstyle T_{n-1}}
die Verteilungsfunktion einer
t
{\textstyle t}
-Verteilung mit
n
−
1
{\textstyle n-1}
FG.
Durchführung mit R:
t
.
t
e
s
t
(
x
,
y
=
NULL
,
a
l
t
=
{\textstyle \quad \color {blue}{t.test(x,y={\text{NULL}},alt=}}
" two.sided ",
μ
0
{\displaystyle \color {blue}{\mu _{0}}}
)
(Dabei muss
x
{\textstyle x}
ein Vektor mit den Daten
x
1
,
…
,
x
n
{\textstyle x_{1},\ldots ,x_{n}}
sein.)
Beim Testen der Nullhypothese
H
0
:
μ
=
66
{\textstyle H_{0}:\mu =66\;}
zu einer (normalverteilten) ZV
X
{\textstyle X}
erhält man die folgende Stichprobe
x
1
,
…
,
x
15
{\textstyle x_{1},\ldots ,x_{15}}
:
68.6
,
72.8
,
66.6
,
67.7
,
62.1
,
75.9
,
74.4
,
69.8
,
76.1
,
70.1
,
68.4
,
{\displaystyle 68.6,\ 72.8,\ 66.6,\ 67.7,\ 62.1,\ 75.9,\ 74.4,\ 69.8,\ 76.1,\ 70.1,\ 68.4,}
65.2
,
72.1
,
68.7
,
69.4
{\displaystyle \ 65.2,\ 72.1,\ 68.7,\ 69.4}
Daraus ergibt sich
p
∗
=
0.001805
{\textstyle \quad {\mathfrak {p}}^{\ast }=0.001805}
Linksseitiger Test zur Standardabweichung
Bearbeiten
Voraussetzung:
X
{\textstyle X}
normalverteilt mit EW
μ
=
?
{\textstyle \mu =?}
und Standardabweichung
σ
=
?
{\textstyle \sigma =?}
Hypothesenpaar:
H
0
:
σ
≥
σ
0
{\textstyle H_{0}:\sigma \geq \sigma _{0}}
und
H
1
:
σ
<
σ
0
{\textstyle H_{1}:\sigma <\sigma _{0}}
(Dabei ist
σ
0
>
0
{\textstyle \sigma _{0}>0}
vorgegeben.)
Vorliegende Daten: Stichprobe
x
1
,
…
,
x
n
{\textstyle x_{1},\ldots ,x_{n}}
Teststatistik:
T
∗
=
(
n
−
1
)
⋅
s
x
2
σ
0
2
{\textstyle \quad T^{\ast }={\frac {(n-1)\cdot {s_{x}}^{2}}{{\sigma _{0}}^{2}}}}
(niedrige Werte von
T
∗
{\textstyle T^{\ast }}
sprechen gegen
H
0
{\textstyle H_{0}}
)
p
{\textstyle p}
-Wert zu konkreter Teststatistik
T
∗
{\textstyle T^{\ast }}
:
p
∗
=
S
n
−
1
(
T
∗
)
=
pchisq
(
T
∗
,
n
−
1
)
{\textstyle \quad {\mathfrak {p}}^{\ast }=S_{n-1}\left(T^{\ast }\right)=\color {blue}{{\text{pchisq}}(T^{\ast },n-1)}}
Dabei bezeichnet
S
n
−
1
{\textstyle S_{n-1}}
die Verteilungsfunktion einer
χ
2
{\textstyle \chi ^{2}}
-Verteilung mit
n
−
1
{\textstyle n-1}
FG.
Beispiel: Linksseitiger Test zur Standardabweichung
Bearbeiten
Für eine (normalverteilte) ZV
X
{\textstyle X}
betrachtet man die Nullhypothese
H
0
:
σ
≥
12
{\textstyle H_{0}:\sigma \geq 12}
und testet diese mit Hilfe der folgenden Stichprobe
x
1
,
…
,
x
30
{\textstyle x_{1},\ldots ,x_{30}}
:
51.4
,
38.8
,
57.7
,
41.3
,
37.9
,
50.6
,
32.4
,
53.9
,
54.6
,
56.9
,
52.8
,
64.6
,
42.2
,
60.3
,
42.0
,
69.4
,
44.4
,
55.1
,
68.8
,
39.4
,
36.6
,
44.9
,
48.7
,
56.9
,
57.1
,
44.6
,
54.7
,
54.2
,
50.3
,
59.6
{\displaystyle {\begin{array}{c}51.4,\ 38.8,\ 57.7,\ 41.3,\ 37.9,\ 50.6,\ 32.4,\ 53.9,\ 54.6,\ 56.9,\\52.8,\ 64.6,\ 42.2,\ 60.3,\ 42.0,\ 69.4,\ 44.4,\ 55.1,\ 68.8,\ 39.4,\\36.6,\ 44.9,\ 48.7,\ 56.9,\ 57.1,\ 44.6,\ 54.7,\ 54.2,\ 50.3,\ 59.6\end{array}}}
Daraus ergibt sich
p
∗
=
0.0575
{\displaystyle \quad {\mathfrak {p}}^{\ast }=0.0575}
Rechtsseitiger Test zur Standardabweichung
Bearbeiten
Voraussetzung:
X
{\textstyle X}
normalverteilt mit EW
μ
=
?
{\textstyle \mu =?}
und Standardabweichung
σ
=
?
{\textstyle \sigma =?}
Hypothesenpaar:
H
0
:
σ
≤
σ
0
{\textstyle H_{0}:\sigma \leq \sigma _{0}}
und
H
1
:
σ
>
σ
0
{\textstyle H_{1}:\sigma >\sigma _{0}}
(Dabei ist
σ
0
>
0
{\textstyle \sigma _{0}>0}
vorgegeben.)
Vorliegende Daten: Stichprobe
x
1
,
…
,
x
n
{\textstyle x_{1},\ldots ,x_{n}}
Teststatistik:
T
∗
=
(
n
−
1
)
⋅
s
x
2
σ
0
2
{\textstyle \quad T^{\ast }={\frac {(n-1)\cdot {s_{x}}^{2}}{{\sigma _{0}}^{2}}}}
(hohe Werte von
T
∗
{\textstyle T^{\ast }}
sprechen gegen
H
0
{\textstyle H_{0}}
)
p
{\textstyle p}
-Wert zu konkreter Teststatistik
T
∗
{\textstyle T^{\ast }}
:
p
∗
=
1
−
S
n
−
1
(
T
∗
)
=
1
−
pchisq
(
T
∗
,
n
−
1
)
{\displaystyle \quad {\mathfrak {p}}^{\ast }=1-S_{n-1}\left(T^{\ast }\right)=\color {blue}{1-{\text{pchisq}}(T^{\ast },n-1)}}
Dabei bezeichnet
S
n
−
1
{\textstyle S_{n-1}}
die Verteilungsfunktion einer
χ
2
{\textstyle \chi ^{2}}
-Verteilung mit
n
−
1
{\textstyle n-1}
FG.
Beispiel: Rechtsseitiger Test zur Standardabweichung
Bearbeiten
Für eine (normalverteilte) ZV
X
{\textstyle X}
betrachtet man die Nullhypothese
H
0
:
σ
≤
0.3
{\textstyle H_{0}:\sigma \leq 0.3}
und testet diese mit Hilfe der folgenden Stichprobe
x
1
,
…
,
x
22
{\textstyle x_{1},\ldots ,x_{22}}
:
8.888
,
8.620
,
8.843
,
7.890
,
8.354
,
8.048
,
8.225
,
7.957
,
7.701
,
8.690
,
8.133
,
8.246
,
8.519
,
8.616
,
8.521
,
8.150
,
8.682
,
8.733
,
8.449
,
8.024
,
8.685
,
8.198
{\displaystyle {\begin{array}{c}8.888,\ 8.620,\ 8.843,\ 7.890,\ 8.354,\ 8.048,\ 8.225,\ 7.957,\\7.701,\ 8.690,\ 8.133,\ 8.246,\ 8.519,\ 8.616,\ 8.521,\ 8.150,\\8.682,\ 8.733,\ 8.449,\ 8.024,\ 8.685,\ 8.198\end{array}}}
Daraus ergibt sich dann
p
∗
=
0.2066
{\textstyle \quad {\mathfrak {p}}^{\ast }=0.2066}
Zweiseitiger Test zur Standardabweichung
Bearbeiten
Voraussetzung:
X
{\textstyle X}
normalverteilt mit EW
μ
=
?
{\textstyle \mu =?}
und Standardabweichung
σ
=
?
{\textstyle \sigma =?}
Hypothesenpaar:
H
0
:
σ
=
σ
0
{\textstyle H_{0}:\sigma =\sigma _{0}}
und
H
0
:
σ
≠
σ
0
{\textstyle H_{0}:\sigma \not =\sigma _{0}}
(Dabei ist
σ
0
>
0
{\textstyle \sigma _{0}>0}
vorgegeben.)
Vorliegende Daten: Stichprobe
x
1
,
…
,
x
n
{\textstyle x_{1},\ldots ,x_{n}}
Teststatistik:
T
∗
=
(
n
−
1
)
⋅
s
x
2
σ
0
2
{\textstyle \quad T^{\ast }={\frac {(n-1)\cdot {s_{x}}^{2}}{{\sigma _{0}}^{2}}}}
(hohe Werte von
T
∗
{\textstyle T^{\ast }}
sprechen gegen
H
0
{\textstyle H_{0}}
)
p
{\textstyle p}
-Wert:
p
∗
=
2
⋅
min
(
S
n
−
1
(
T
∗
)
,
1
−
S
n
−
1
(
T
∗
)
)
=
2
⋅
min
(
pchisq
(
T
∗
,
n
−
1
)
,
1
−
pchisq
(
T
∗
,
n
−
1
)
)
{\displaystyle {\begin{array}{c}{\mathfrak {p}}^{\ast }&=&2\cdot \min \left(S_{n-1}\left(T^{\ast }\right),\ 1-S_{n-1}\left(T^{\ast }\right)\right)\\&=&\color {blue}{2\cdot \min({\text{pchisq}}(T^{\ast },n-1),1-{\text{pchisq}}(T^{\ast },n-1))}\end{array}}}
Dabei bezeichnet
S
n
−
1
{\textstyle S_{n-1}}
die Verteilungsfunktion einer
χ
2
{\textstyle \chi ^{2}}
-Verteilung mit
n
−
1
{\textstyle n-1}
FG.
Beispiel: Zweiseitiger Test zur Standardabweichung
Bearbeiten
Für eine (normalverteilte) ZV
X
{\textstyle X}
betrachtet man die Nullhypothese
H
0
:
σ
=
4.8
{\textstyle H_{0}:\sigma =4.8}
und testet diese mit Hilfe der folgenden Stichprobe
x
1
,
…
,
x
14
{\textstyle x_{1},\ldots ,x_{14}}
:
29.23
,
32.36
,
30.13
,
30.38
,
27.20
,
30.27
,
34.45
,
37.90
,
26.93
,
31.57
,
{\displaystyle 29.23,\ 32.36,\ 30.13,\ 30.38,\ 27.20,\ 30.27,\ 34.45,\ 37.90,\ 26.93,\ 31.57,}
32.58
,
30.54
,
29.62
,
32.50
{\displaystyle \ 32.58,\ 30.54,\ 29.62,\ 32.50}
Daraus ergibt sich
p
=
0.0314
{\textstyle \quad {\mathfrak {p}}=0.0314}
Würde man die Standardabweichung
σ
{\textstyle \sigma }
(aber nicht den EW
μ
{\textstyle \mu }
) der Normalverteilung kennen, so könnte man
s
x
{\textstyle s_{x}}
durch
σ
{\textstyle \sigma }
ersetzen und statt der
t
{\textstyle t}
-Verteilung
T
n
−
1
{\textstyle T_{n-1}}
die Standardnormverteilung
Φ
{\textstyle \Phi }
benutzen. Dies könnte man näherungsweise auch dann tun, wenn
n
{\textstyle n}
groß ist, da sich dann die
t
{\textstyle t}
-Verteilung der Standardnormalverteilung annähert. Benutzt man
Φ
{\textstyle \Phi }
statt
T
n
−
1
{\textstyle T_{n-1}}
, so spricht man von einem Gauß-Test .
Grundsätzlich sind bei einer ZV
X
{\textstyle X}
, die nicht normalverteilt ist, sondern eine beliebige (unbekannte) Verteilung hat, die in diesem Kapitel vorgestellten t-Tests (und auch die Tests zur Standardabweichung
σ
{\textstyle \sigma }
) mathematisch nicht exakt. Falls aber
n
{\textstyle n}
groß genug ist (eine Faustregel besagt
n
>
30
{\textstyle n>30}
, im allgemeinen hängt dies aber von der unbekannten Verteilung ab), so funktionieren die
t
{\textstyle t}
-Tests (wie auch die entsprechenden Gauß-Tests) näherungsweise immer noch und liefern gute Ergebnisse. Man sagt: Die Tests sind robust gegenüber Verletzungen der Normalverteilungsannahme.
Gegeben ist eine Stichprobe
x
1
,
…
,
x
n
{\textstyle x_{1},\ldots ,x_{n}}
(die Sie als Vektor daten
in der Datei datenUEB7.R auf GitHub finden) zu einer normalverteilten Größe
X
{\textstyle X}
mit unbekannten Parametern
μ
{\textstyle \mu }
und
σ
{\textstyle \sigma }
.
Bestimmen Sie anhand dieser Daten zu den folgenden Nullhypothesen jeweils den p-Wert:
H
0
:
μ
≥
315
{\textstyle \;H_{0}:\;\mu \geq 315}
;
H
0
:
μ
≤
308
{\textstyle \;H_{0}:\;\mu \leq 308}
;
H
0
:
μ
=
306
{\textstyle \;H_{0}:\;\mu =306}
;
H
0
:
σ
≤
16
{\textstyle \;H_{0}:\;\sigma \leq 16}
;
H
0
:
σ
≥
25
{\textstyle \;H_{0}:\;\sigma \geq 25}
;
H
0
:
σ
=
22
{\textstyle \;H_{0}:\;\sigma =22}
(Verwenden Sie die in der Vorlesung behandelten Tests).
Eine Firma füllt maschinell Saft in 1,5-Liter-Flaschen ab. Sie behauptet dabei die folgenden Standards einzuhalten:
Die durchschnittliche (zu erwartende) Füllmenge beträgt mindestens
1.51
{\textstyle 1.51}
Liter.
Die Standardabweichung der Füllmenge beträgt nicht mehr als
0.02
{\textstyle 0.02}
Liter.
Mindestens
80
%
{\textstyle 80\%}
aller Flaschen enthalten mindestens
1.51
{\textstyle 1.51}
Liter.
Verwenden Sie die Daten aus dem R-Skript datenUEB7.r unter GitHub .
Wie verändert sich bei den Nullhypothesen für den Erwartungswert
μ
{\textstyle \mu }
einer Normalverteilung
H
0
:
μ
≤
μ
0
{\textstyle \;H_{0}:\;\mu \leq \mu _{0}\quad }
H
0
:
μ
≥
μ
0
{\textstyle \;H_{0}:\;\mu \geq \mu _{0}\quad }
H
0
:
μ
=
μ
0
{\textstyle \;H_{0}:\;\mu =\mu _{0}\quad }
jeweils der p-Wert des entsprechenden t-Tests, wenn:
s
x
{\textstyle s_{x}}
und
n
{\textstyle n}
unverändert bleiben und
x
¯
{\textstyle {\overline {x}}}
größer wird?
x
¯
{\textstyle {\overline {x}}}
und
n
{\textstyle n}
unverändert bleiben und
s
x
{\textstyle s_{x}}
größer wird?
x
¯
{\textstyle {\overline {x}}}
und
s
x
{\textstyle s_{x}}
unverändert bleiben und
n
{\textstyle n}
größer wird?
Erklären Sie Ihre Antworten (kurz).
Wir untersuchen nun den Fall, dass zwei (normalverteilte) ZV
X
,
Y
{\textstyle X,Y}
vorliegen, deren Erwartungswerte
μ
X
,
μ
Y
{\textstyle \mu _{X},\mu _{Y}}
wir vergleichen wollen. Dazu werden zwei unabhängige Stichproben
x
1
,
…
,
x
n
{\textstyle x_{1},\ldots ,x_{n}}
und
y
1
,
…
,
y
m
{\textstyle y_{1},\ldots ,y_{m}}
erhoben, anhand derer man dann Hypothesentests durchführen kann.
Beispiel Anwendung Zweistichprobentest I
Bearbeiten
Das Gewicht von Afrikanischen (ZV
X
{\textstyle X}
) und Indischen Elefantenkühen (ZV
Y
{\textstyle Y}
) wird untersucht. Für die Erwartungswerte
μ
X
{\textstyle \mu _{X}}
bzw.
μ
Y
{\textstyle \mu _{Y}}
kann man (z.B.) folgende Hypothesen aufstellen:
H
0
:
μ
X
≤
μ
Y
,
H
0
:
μ
X
≥
μ
Y
,
H
0
:
μ
X
=
μ
Y
{\textstyle H_{0}:\mu _{X}\leq \mu _{Y},\quad H_{0}:\mu _{X}\geq \mu _{Y},\quad H_{0}:\mu _{X}=\mu _{Y}}
Es ergeben sich folgende Stichproben (Werte in kg):
Stichprobe für
X
(
n
=
18
)
{\displaystyle X\ (n=18)}
:
2835
,
3979
,
3012
,
2548
,
2213
,
3094
,
2225
,
2006
,
2554
,
2921
,
{\displaystyle 2835,\ 3979,\ 3012,\ 2548,\ 2213,\ 3094,\ 2225,\ 2006,\ 2554,\ 2921,}
2876
,
2855
,
3294
,
3481
,
3186
,
2280
,
3755
,
2432
{\displaystyle 2876,\ 2855,\ 3294,\ 3481,\ 3186,\ 2280,\ 3755,\ 2432}
Stichprobe für
Y
(
m
=
15
)
{\displaystyle Y\ (m=15)}
:
2567
,
2833
,
2425
,
2754
,
2499
,
2529
,
2438
,
2863
,
2850
,
2574
,
{\displaystyle 2567,\ 2833,\ 2425,\ 2754,\ 2499,\ 2529,\ 2438,\ 2863,\ 2850,\ 2574,}
2665
,
2771
,
2829
,
2161
,
2919
{\displaystyle 2665,\ 2771,\ 2829,\ 2161,\ 2919}
Beispiel Anwendung Zweistichprobentest II
Bearbeiten
Möchte man einen "empirischen Nachweis"
{\textstyle \;}
erbringen, dass Afrikanische Elefantenkühe (im erwarteten Durchschnitt) schwerer sind als Indische, so kann man die Nullhypothese
H
0
:
μ
X
≤
μ
Y
{\textstyle H_{0}:\mu _{X}\leq \mu _{Y}}
einem Test unterziehen. Bei einem signifikanten Ergebnis wird
H
0
{\textstyle H_{0}}
abgelehnt und folglich die Gegenhypothese
H
1
:
μ
X
>
μ
Y
{\textstyle H_{1}:\mu _{X}>\mu _{Y}}
bestätigt (
H
0
{\textstyle H_{0}}
könnte trotzdem gelten, allerdings hat eine Ablehnung dann maximal Wahrscheinlichkeit
α
{\textstyle \alpha }
).
Man spricht dabei von Zweistichprobentests , d.h. es werden Hypothesen über die Parameter zweier ZV mit Hilfe zweier (unabhängiger) Stichprobe (der Längen
n
{\textstyle n}
und
m
{\textstyle m}
) getestet.
Man bezeichnet diese Tests als Zweistichproben-t-Test bzw. Welch-Test .
Voraussetzung:
X
,
Y
{\textstyle X,Y}
normalverteilt mit EW
μ
X
=
?
{\textstyle \mu _{X}=?}
und
μ
Y
=
?
{\textstyle \mu _{Y}=?}
und Standardabweichungen
σ
X
=
?
{\textstyle \sigma _{X}=?}
und
σ
Y
=
?
{\textstyle \sigma _{Y}=?}
Beachte dazu: Für eine exakte Vorgehensweise muss vorausgesetzt werden, dass
X
{\textstyle X}
und
Y
{\textstyle Y}
normalverteilt sind. Allerdings erzielt man mit den hier vorgestellten
t
{\textstyle t}
-Tests (für genügend große Stichprobenumfänge, Faustregel:
n
,
m
>
30
{\textstyle n,m>30}
) auch dann gute Resultate, wenn
X
{\textstyle X}
und
Y
{\textstyle Y}
nicht normalverteilt sind.
H
0
:
μ
X
≤
μ
Y
+
d
{\textstyle H_{0}:\mu _{X}\leq \mu _{Y}+d}
und
H
1
:
μ
X
>
μ
Y
+
d
{\textstyle H_{1}:\mu _{X}>\mu _{Y}+d}
(
d
∈
R
{\textstyle d\in \mathbb {R} }
vorgegeben)
H
0
:
μ
X
≥
μ
Y
+
d
{\textstyle H_{0}:\mu _{X}\geq \mu _{Y}+d}
und
H
1
:
μ
X
<
μ
Y
+
d
{\textstyle H_{1}:\mu _{X}<\mu _{Y}+d}
(
d
∈
R
{\textstyle d\in \mathbb {R} }
vorgegeben)
H
0
:
μ
X
=
μ
Y
+
d
{\textstyle H_{0}:\mu _{X}=\mu _{Y}+d}
und
H
1
:
μ
X
≠
μ
Y
+
d
{\textstyle H_{1}:\mu _{X}\not =\mu _{Y}+d}
(
d
∈
R
{\textstyle d\in \mathbb {R} }
vorgegeben)
(Man beachte insbesondere den Fall
d
=
0
{\textstyle d=0}
.)
Vorliegende Daten: Unabhängige Stichproben:
x
1
,
…
,
x
n
für
X
und
y
1
,
…
,
y
m
für
Y
{\textstyle \quad x_{1},\ldots ,x_{n}\ {\text{für}}\ X\ {\text{und}}\ y_{1},\ldots ,y_{m}\ {\text{für}}\ Y}
T
∗
=
x
¯
−
y
¯
−
d
s
x
2
n
+
s
y
2
m
{\textstyle \quad T^{\ast }={\frac {{\overline {x}}-{\overline {y}}-d}{\sqrt {{\frac {{s_{x}}^{2}}{n}}+{\frac {{s_{y}}^{2}}{m}}}}}}
Je nach Variante gilt dabei:
Hohe Werte von
T
∗
{\textstyle T^{\ast }}
sprechen gegen
H
0
{\textstyle H_{0}}
.
Niedrige Werte von
T
∗
{\textstyle T^{\ast }}
sprechen gegen
H
0
{\textstyle H_{0}}
.
Hohe Werte von
|
T
∗
|
{\textstyle \left|T^{\ast }\right|}
sprechen gegen
H
0
{\textstyle H_{0}}
.
Zahl der Freiheitsgrade:
k
=
(
s
x
2
n
+
s
y
2
m
)
2
1
n
−
1
(
s
x
2
n
)
2
+
1
m
−
1
(
s
y
2
m
)
2
{\textstyle \quad k={\frac {\left({\frac {{s_{x}}^{2}}{n}}+{\frac {{s_{y}}^{2}}{m}}\right)^{2}}{{\frac {1}{n-1}}\left({\frac {{s_{x}}^{2}}{n}}\right)^{2}+{\frac {1}{m-1}}\left({\frac {{s_{y}}^{2}}{m}}\right)^{2}}}}
p
{\textstyle p}
-Wert zu konkreter Teststatistik: (je nach Variante)
p
∗
=
1
−
T
k
(
T
∗
)
{\textstyle {\mathfrak {p}}^{\ast }=1-T_{k}\left(T^{\ast }\right)}
p
∗
=
T
k
(
T
∗
)
{\textstyle {\mathfrak {p}}^{\ast }=T_{k}\left(T^{\ast }\right)}
p
∗
=
2
⋅
(
1
−
T
k
(
|
T
∗
|
)
)
{\textstyle {\mathfrak {p}}^{\ast }=2\cdot \left(1-T_{k}\left(\left|T^{\ast }\right|\right)\right)}
Dabei ist
T
k
{\textstyle T_{k}}
die
t
{\textstyle t}
-Verteilung mit
k
{\textstyle k}
Freiheitsgrade. (Man beachte, dass die
t
{\textstyle t}
-Verteilung auch für nicht-ganzzahlige Freiheitsgrade definiert werden kann.)
Beispiel Anwendung Zweistichprobentest III
Bearbeiten
In obigem Beispiel (Gewicht der Elefanten) testen wir die Nullhypothese
H
0
:
μ
X
≤
μ
Y
{\textstyle H_{0}:\mu _{X}\leq \mu _{Y}}
. Dies entspricht Fall (i) mit
d
=
0
{\textstyle d=0}
. Mit den oben angegebenen Daten berechnet man
p
-Wert
:
p
∗
=
0.0662
{\displaystyle p{\text{-Wert}}:\ {\mathfrak {p}}^{\ast }=0.0662}
Der kleine
p
{\textstyle p}
-Wert spricht gegen
H
0
{\textstyle H_{0}}
und damit für die Gegenhypothese
H
1
{\textstyle H_{1}}
, die besagt, dass Afrikanische Elefantenkühe im Schnitt schwerer sind als Indische. Ob man dies als (empirischen) Nachweis von
H
1
{\textstyle H_{1}}
akzeptiert, hängt von der Wahl des Signifikanzniveaus ab (für
α
=
0.1
{\textstyle \alpha =0.1}
kann
H
0
{\textstyle H_{0}}
abgelehnt werden, nicht jedoch für
α
=
0.05
{\textstyle \alpha =0.05}
).
Beispiel Anwendung Zweistichprobentest IV
Bearbeiten
Man könnte dies variieren, indem man (z.B.) die Nullhypothese
H
0
:
μ
X
≤
μ
Y
+
100
{\textstyle H_{0}:\mu _{X}\leq \mu _{Y}+100}
betrachtet, die besagt, dass Afrikanische Elefantenkühe im Schnitt nicht mehr als 100kg schwerer sind als Indische. Dies entspricht Fall (i) mit
d
=
100
{\textstyle d=100}
. Es ergeben sich die Teststatistik
T
∗
=
0.847
{\textstyle T^{\ast }=0.847}
mit dem Freiheitsgrad
k
=
22.826
{\textstyle k=22.826}
. Daraus resultiert der
p
{\textstyle p}
-Wert von
p
=
0.2030
{\textstyle {\mathfrak {p}}=0.2030}
. Damit kann
H
0
{\textstyle H_{0}}
also (zu üblichen Signifikanzniveaus) nicht abgelehnt werden.
Hypothesentests anhand verbundener Stichproben
Bearbeiten
Eine sogenannte verbundene Stichprobe für zwei ZV
X
{\textstyle X}
und
Y
{\textstyle Y}
erhält man, wenn man die einzelnen Werte der Stichproben für
X
{\textstyle X}
und
Y
{\textstyle Y}
einander eindeutig zuordnen kann. Dies ist meist dann der Fall, wenn man die Stichproben für
X
{\textstyle X}
und
Y
{\textstyle Y}
an den gleichen ’Untersuchungseinheiten’ erhebt.
Die Daten liegen dabei in Form von Paaren
(
x
1
,
y
1
)
,
(
x
2
,
y
2
)
,
…
,
(
x
n
,
y
n
)
{\textstyle (x_{1},y_{1}),(x_{2},y_{2}),\ldots ,(x_{n},y_{n})}
vor (dabei können
x
j
{\textstyle x_{j}}
und
y
j
{\textstyle y_{j}}
jeweils einander zugeordnet werden). Die beiden einzelnen Stichproben
x
1
,
…
,
x
n
{\textstyle x_{1},\ldots ,x_{n}}
und
y
1
,
…
,
y
n
{\textstyle y_{1},\ldots ,y_{n}}
haben die gleiche Länge
n
{\textstyle n}
und müssen nicht unabhängig voneinander sein.
Falls
X
{\textstyle X}
und
Y
{\textstyle Y}
außerdem ZV bezeichnen, die in derselben Einheit angegeben werden können, so kann man die Differenz
Z
=
X
−
Y
{\textstyle Z=X-Y}
bilden. Für
Z
{\textstyle Z}
liegt dann eine Stichprobe
z
1
,
…
,
z
n
{\textstyle z_{1},\ldots ,z_{n}}
vor, die sich wie folgt ergibt:
z
1
=
x
1
−
y
1
,
z
2
=
x
2
−
y
2
,
…
,
z
n
=
x
n
−
y
n
{\textstyle \quad z_{1}=x_{1}-y_{1},\ z_{2}=x_{2}-y_{2},\ \ldots ,\ z_{n}=x_{n}-y_{n}}
Schadstoffkonzentrationen an
n
{\textstyle n}
verschiedenen Orten zu zwei Zeitpunkten
Blutwerte von
n
{\textstyle n}
Personen vor und nach Einnahme eines Medikaments
Temperaturen an zwei Orten
X
{\textstyle X}
und
Y
{\textstyle Y}
zu
n
{\textstyle n}
verschiedenen Zeitpunkten
Leistung einer Gruppe von
n
{\textstyle n}
Schülern in Mathematik und Physik
Wir betrachten nun einige Hypothesenpaare, die sich auf Vergleiche der EW von
X
{\textstyle X}
und
Y
{\textstyle Y}
beziehen. Da diese auch mit dem EW von
Z
{\textstyle Z}
formuliert werden können, können hier die Einstichproben-t-Tests auf
Z
{\textstyle Z}
angewendet werden.
Die Idee dabei ist, dass EW und empirischer Mittelwert linear sind, also:
μ
Z
=
μ
X
−
μ
Y
und
z
¯
=
x
¯
−
y
¯
{\textstyle \quad \mu _{Z}=\mu _{X}-\mu _{Y}\ {\text{und}}\ {\overline {z}}={\overline {x}}-{\overline {y}}}
Z
=
X
−
Y
{\textstyle Z=X-Y}
normalverteilt mit
μ
Z
=
μ
X
−
μ
Y
=
?
{\textstyle \mu _{Z}=\mu _{X}-\mu _{Y}=?}
und
σ
Z
=
?
{\textstyle \sigma _{Z}=?}
Beachte dazu: Für eine exakte Vorgehensweise muss vorausgesetzt werden, dass
Z
{\textstyle Z}
normalverteilt ist. Allerdings erzielt man mit den hier vorgestellten
t
{\textstyle t}
-Tests (für genügend große Stichprobenumfänge, Faustregel:
n
>
30
{\textstyle n>30}
) auch dann gute Resultate, wenn
Z
{\textstyle Z}
nicht normalverteilt ist.
H
0
:
μ
X
≤
μ
Y
+
d
{\textstyle H_{0}:\mu _{X}\leq \mu _{Y}+d}
und
H
1
:
μ
X
>
μ
Y
+
d
{\textstyle H_{1}:\mu _{X}>\mu _{Y}+d}
(
d
∈
R
{\textstyle d\in \mathbb {R} }
vorgegeben)
Äquivalent ist:
H
0
:
μ
Z
≤
d
{\textstyle H_{0}:\mu _{Z}\leq d}
und
H
1
:
μ
Z
>
d
{\textstyle H_{1}:\mu _{Z}>d}
H
0
:
μ
X
≥
μ
Y
+
d
{\textstyle H_{0}:\mu _{X}\geq \mu _{Y}+d}
und
H
1
:
μ
X
<
μ
Y
+
d
{\textstyle H_{1}:\mu _{X}<\mu _{Y}+d}
(
d
∈
R
{\textstyle d\in \mathbb {R} }
vorgegeben)
Äquivalent ist:
H
0
:
μ
Z
≥
d
{\textstyle H_{0}:\mu _{Z}\geq d}
und
H
1
:
μ
Z
<
d
{\textstyle H_{1}:\mu _{Z}<d}
H
0
:
μ
X
=
μ
Y
+
d
{\textstyle H_{0}:\mu _{X}=\mu _{Y}+d}
und
H
1
:
μ
X
≠
μ
Y
+
d
{\textstyle H_{1}:\mu _{X}\not =\mu _{Y}+d}
(
d
∈
R
{\textstyle d\in \mathbb {R} }
vorgegeben)
Äquivalent ist:
H
0
:
μ
Z
=
d
{\textstyle H_{0}:\mu _{Z}=d}
und
H
1
:
μ
Z
≠
d
{\textstyle H_{1}:\mu _{Z}\not =d}
(Man beachte insbesondere den Fall
d
=
0
{\textstyle d=0}
.)
Vorliegende Daten: Verbundene Stichproben:
(
x
1
,
y
1
)
,
…
,
(
x
n
,
y
n
)
für
X
und
Y
{\textstyle \quad (x_{1},y_{1}),\ldots ,(x_{n},y_{n})\ {\text{für}}\ X\ {\text{und}}\ Y}
Daraus ergibt sich eine Stichprobe für
Z
{\textstyle Z}
:
z
1
=
x
1
−
y
1
,
z
2
=
x
2
−
y
2
,
…
,
z
n
=
x
n
−
y
n
{\textstyle \quad z_{1}=x_{1}-y_{1},\ z_{2}=x_{2}-y_{2},\ \ldots ,\ z_{n}=x_{n}-y_{n}}
p-Wert: (vgl. die Einstichproben-t-Tests,
angewendet auf
Z
{\textstyle Z}
)
p
∗
=
1
−
T
n
−
1
(
n
⋅
z
¯
−
d
s
z
)
{\textstyle {\mathfrak {p}}^{\ast }=1-T_{n-1}\left({\sqrt {n}}\cdot {\frac {{\overline {z}}-d}{s_{z}}}\right)}
p
∗
=
T
n
−
1
(
n
⋅
z
¯
−
d
s
z
)
{\textstyle {\mathfrak {p}}^{\ast }=T_{n-1}\left({\sqrt {n}}\cdot {\frac {{\overline {z}}-d}{s_{z}}}\right)}
p
∗
=
2
⋅
(
1
−
T
n
−
1
(
n
⋅
|
z
¯
−
d
|
s
z
)
)
{\textstyle {\mathfrak {p}}^{\ast }=2\cdot \left(1-T_{n-1}\left({\sqrt {n}}\cdot {\frac {\left|{\overline {z}}-d\right|}{s_{z}}}\right)\right)}
Es gilt
z
¯
=
x
¯
−
y
¯
{\textstyle {\overline {z}}={\overline {x}}-{\overline {y}}}
. Die empirische Standardabweichung
s
z
{\textstyle s_{z}}
kann aber im Allgemeinen nicht aus
s
x
{\textstyle s_{x}}
und
s
y
{\textstyle s_{y}}
bestimmt werden, wenn
X
{\textstyle X}
und
Y
{\textstyle Y}
nicht unabhängig sind.
Man bestimmt an 40 zufällig über mehrere Jahre verteilten Tagen die Tageshöchsttemperatur
X
{\textstyle X}
und
Y
{\textstyle Y}
an zwei Orten und erhält folgende Werte:
Tag
j
1
2
3
4
5
6
7
8
9
10
Temperatur
x
j
29.9
20.8
7.5
20.7
32.7
15.0
16.0
24.4
29.3
23.7
Temperatur
y
j
28.9
17.4
9.5
22.2
25.5
16.2
12.0
20.4
25.9
24.4
Differez
z
j
=
x
j
−
y
j
1.0
3.4
−
2.0
−
1.5
7.2
−
1.2
4.0
4.0
3.4
−
0.7
Tag
j
11
12
13
14
15
16
17
18
19
20
Temperatur
x
j
1.7
20.7
13.8
−
4.7
28.5
15.6
13.3
−
1.4
32.3
22.7
Temperatur
y
j
−
3.6
12.7
11.2
−
5.9
30.3
12.1
16.0
−
2.0
33.1
17.4
Differenz
z
j
=
x
j
−
y
j
5.3
8.0
2.6
1.2
−
1.8
3.5
−
2.7
0.6
−
0.8
5.3
Tag
j
21
22
23
24
25
26
27
28
29
30
Temperatur
x
j
4.9
12.8
14.7
−
1.1
4.1
2.0
10.8
12.9
−
5.2
7.9
Temperatur
y
j
2.2
12.8
10.7
−
4.7
−
2.7
−
1.9
7.7
13.8
−
7.5
0.0
Differenz
z
j
=
x
j
−
y
j
2.7
0.0
4.0
3.6
6.8
3.9
3.1
−
0.9
2.3
7.9
Tag
31
32
33
34
35
36
37
38
39
40
Temperatur
x
j
11.1
27.6
15.5
11.7
17.5
21.5
17.0
13.5
24.6
0.8
Temperatur
y
j
10.3
25.3
14.2
5.8
10.3
17.5
17.8
4.2
20.5
−
1.0
Differenz
z
j
=
x
j
−
y
j
0.8
2.3
1.3
5.9
7.2
4.0
−
0.8
9.3
4.1
1.8
{\displaystyle {\begin{array}{|c|c|c|c|}\hline {\text{Tag }}j&1&2&3&4&5&6&7&8&9&10\\\hline {\text{Temperatur }}x_{j}&29.9&20.8&7.5&20.7&32.7&15.0&16.0&24.4&29.3&23.7\\\hline {\text{Temperatur }}y_{j}&28.9&17.4&9.5&22.2&25.5&16.2&12.0&20.4&25.9&24.4\\\hline {\text{Differez }}z_{j}=x_{j}-y_{j}&1.0&3.4&-2.0&-1.5&7.2&-1.2&4.0&4.0&3.4&-0.7\\\hline {\text{Tag }}j&11&12&13&14&15&16&17&18&19&20\\\hline {\text{Temperatur }}x_{j}&1.7&20.7&13.8&-4.7&28.5&15.6&13.3&-1.4&32.3&22.7\\\hline {\text{Temperatur }}y_{j}&-3.6&12.7&11.2&-5.9&30.3&12.1&16.0&-2.0&33.1&17.4\\\hline {\text{Differenz }}z_{j}=x_{j}-y_{j}&5.3&8.0&2.6&1.2&-1.8&3.5&-2.7&0.6&-0.8&5.3\\\hline {\text{Tag }}j&21&22&23&24&25&26&27&28&29&30\\\hline {\text{Temperatur }}x_{j}&4.9&12.8&14.7&-1.1&4.1&2.0&10.8&12.9&-5.2&7.9\\\hline {\text{Temperatur }}y_{j}&2.2&12.8&10.7&-4.7&-2.7&-1.9&7.7&13.8&-7.5&0.0\\\hline {\text{Differenz }}z_{j}=x_{j}-y_{j}&2.7&0.0&4.0&3.6&6.8&3.9&3.1&-0.9&2.3&7.9\\\hline {\text{Tag }}&31&32&33&34&35&36&37&38&39&40\\\hline {\text{Temperatur }}x_{j}&11.1&27.6&15.5&11.7&17.5&21.5&17.0&13.5&24.6&0.8\\\hline {\text{Temperatur }}y_{j}&10.3&25.3&14.2&5.8&10.3&17.5&17.8&4.2&20.5&-1.0\\\hline {\text{Differenz }}z_{j}=x_{j}-y_{j}&0.8&2.3&1.3&5.9&7.2&4.0&-0.8&9.3&4.1&1.8\\\hline \end{array}}}
Zum Testen der Nullhypothese
H
0
:
μ
X
≥
μ
Y
+
4
{\textstyle H_{0}:\mu _{X}\geq \mu _{Y}+4}
("Die erwarteten Tageshöchsttemperaturen
X
{\textstyle X}
am ersten Ort sind um mindestens 4 Grad höher als die erwarteten Tageshöchsttemperaturen
Y
{\textstyle Y}
am zweiten Ort.") kann man nun einfach die Differenz
Z
=
X
−
Y
{\textstyle Z=X-Y}
betrachten und die äquivalente Nullhypothese
H
0
:
μ
Z
≥
+
4
{\textstyle H_{0}:\mu _{Z}\geq +4}
mit einem
t
{\textstyle t}
-Test untersuchen.
Dieses Vorgehen ist wegen
n
>
30
{\textstyle n>30}
näherunsgweise gerechtfertigt, für kleine
n
{\textstyle n}
müsste man zunächst prüfen, ob die Temperaturdifferenzen
Z
{\textstyle Z}
normalverteilt sind.
Mit dem arithmetischen Mittel und der Standardabweichung erhält man mit
p
∗
=
0.00555
{\textstyle {\mathfrak {p}}^{\ast }=0.00555}
einen sehr geringen
p
{\textstyle p}
-Wert und kann daher die Nullhypothese ablehnen. Also ist davon auszugehen, dass es am ersten Ort (im zu erwartenden Mittel) weniger als
4
{\textstyle 4}
Grad wärmer ist als am zweiten Ort.
Stellen Sie in den folgenden Situationen eine passende Nullhypothese auf, berechnen Sie mit einem geeigneten Test den p-Wert und interpretieren Sie das Ergebnis:
Ein Dünger soll getestet werden. Die Ernteerträge werden bei einer Reihe von ungedüngten (Test-)Feldern und einer Reihe gedüngter Felder bestimmt. Man erhält die Daten (in Tonnen/Hektar), die in den Vektoren ohne
(Erträge der Felder ohne Dünger) und mit
(Erträge der Felder mit Dünger) gespeichert sind (siehe Datei DatenUEB8.r auf GitHub ).
Kann dadurch (zum Signifikanzniveau
α
=
0.05
{\textstyle \alpha =0.05}
) empirisch belegt werden, dass
der Dünger eine Zunahme des (erwarteten) Ertrags bewirkt?
der Dünger eine Zunahme des (erwarteten) Ertrags um mindestens eine halbe Tonne pro Hektar bewirkt?
der Dünger dazu führt, dass die gedüngten Felder einen (erwarteten) Ertrag von mehr als 9.6t / h erzielen?
Die Mitglieder eines Sportvereins machen zusammen ein Ausdauertraining über mehrere Wochen. Vor und nach dem Training machen alle jeweils einen 1000m Testlauf. Die Zeiten werden festgehalten. Die Daten (in Sekunden) sind in den Vektoren vor
(vor dem Training) und nach
(nach dem Training) gespeichert. (Dabei sind gleiche Stellen der beiden Vektoren jeweils derselben Person zuzuordnen.)
Kann dadurch (zum Signifikanzniveau
α
=
0.05
{\textstyle \alpha =0.05}
) empirisch belegt werden, dass