Situation: Gegeben sind
m
{\textstyle m}
normalverteilte ZV
X
(
1
)
,
…
,
X
(
m
)
{\textstyle X^{(1)},\ldots ,X^{(m)}}
deren Standardabweichungen
σ
1
,
…
,
σ
m
{\textstyle \sigma _{1},\ldots ,\sigma _{m}}
(bzw. Varianzen) gleich sind.
Hypothesenpaar:
H
0
:
μ
1
=
μ
2
=
…
=
μ
m
H
1
:
μ
i
≠
μ
j
für mindestens eine Kombination
(
i
,
j
)
{\displaystyle H_{0}:\mu _{1}=\mu _{2}=\ldots =\mu _{m}\quad H_{1}:\mu _{i}\not =\mu _{j}\;{\text{für mindestens eine Kombination}}\ (i,j)}
Äquivalent dazu (unter obigen Voraussetzungen):
H
0
:
X
(
1
)
,
…
,
X
(
m
)
sind identisch verteilt.
{\displaystyle H_{0}:\ X^{(1)},\ldots ,X^{(m)}{\text{ sind identisch verteilt.}}\quad }
H
1
:
Mindestens zwei
X
(
i
)
,
X
(
j
)
sind nicht identisch verteilt.
{\displaystyle H_{1}:{\text{Mindestens zwei}}X^{(i)},X^{(j)}\;{\text{sind nicht identisch verteilt.}}}
m
{\textstyle m}
unabhängige Stichproben
x
1
(
1
)
,
x
2
(
1
)
,
…
,
x
(
n
1
)
(
1
)
von
X
(
1
)
(
Länge:
n
1
)
x
1
(
2
)
,
x
2
(
2
)
,
…
,
x
(
n
2
)
(
2
)
von
X
(
2
)
(
Länge:
n
2
)
⋮
⋮
⋮
x
1
(
m
)
,
x
2
(
m
)
,
…
,
x
(
n
m
)
(
m
)
von
X
(
m
)
(
Länge:
n
m
)
Gesamtstichprobenlänge:
n
=
∑
k
=
1
m
n
k
{\displaystyle {\begin{aligned}x_{1}^{(1)},\ x_{2}^{(1)},\ldots ,x_{(n_{1})}^{(1)}&{\text{von}}&X^{(1)}\quad \left({\text{Länge:}}\ n_{1}\right)\\&&\\x_{1}^{(2)},\ x_{2}^{(2)},\ldots ,x_{(n_{2})}^{(2)}&{\text{von}}&X^{(2)}\quad \left({\text{Länge:}}\ n_{2}\right)\\&&\\\vdots &\vdots &\vdots \\&&\\x_{1}^{(m)},\ x_{2}^{(m)},\ldots ,x_{(n_{m})}^{(m)}&{\text{von}}&X^{(m)}\quad \left({\text{Länge:}}\ n_{m}\right)\\\hline &&{\text{Gesamtstichprobenlänge:}}\ n=\sum \limits _{k=1}^{m}n_{k}\end{aligned}}}
Man berechnet aus den Stichproben:
die Gruppenmittelwerte (’mean of groups’) :
x
(
k
)
¯
=
1
n
k
⋅
∑
i
=
1
n
k
x
i
(
k
)
(
k
=
1
,
…
,
m
)
{\textstyle \quad {\overline {x^{(k)}}}={\frac {1}{n_{k}}}\cdot \sum \limits _{i=1}^{n_{k}}x_{i}^{(k)}\quad (k=1,\ldots ,m)}
den Gesamtmittelwert (’grand mean’) :
x
¯
=
1
n
⋅
∑
k
=
1
m
∑
i
=
1
n
k
x
i
(
k
)
{\textstyle \quad {\overline {x}}={\frac {1}{n}}\cdot \sum \limits _{k=1}^{m}\sum \limits _{i=1}^{n_{k}}x_{i}^{(k)}}
Beachte: Es gilt:
x
¯
=
1
n
⋅
∑
k
=
1
m
n
k
⋅
x
(
k
)
¯
{\textstyle \quad {\overline {x}}={\frac {1}{n}}\cdot \sum \limits _{k=1}^{m}n_{k}\cdot {\overline {x^{(k)}}}}
Die Summe der quadratischen Abweichungen aller Stichprobenwerte
x
i
(
k
)
{\textstyle x_{i}^{(k)}}
vom Gesamtmittelwert
x
¯
{\textstyle {\overline {x}}}
bezeichnet man mit:
SSG
=
∑
k
=
1
m
∑
i
=
1
n
k
(
x
i
(
k
)
−
x
¯
)
2
(
grand
sum
of
squares
)
{\displaystyle {\text{SSG}}=\sum \limits _{k=1}^{m}\sum \limits _{i=1}^{n_{k}}\left(x_{i}^{(k)}-{\overline {x}}\right)^{2}\quad \left({\textbf {grand}}\;{\textbf {sum}}\;{\textbf {of}}\;{\textbf {squares}}\right)}
Weiterhin bezeichnet man die Summe der quadratischen Abweichungen aller Stichprobenmittelwerte
x
(
k
)
¯
{\textstyle {\overline {x^{(k)}}}}
vom Gesamtmittelwert
x
¯
{\textstyle {\overline {x}}}
mit:
SST
=
∑
k
=
1
m
∑
i
=
1
n
k
(
x
(
k
)
¯
−
x
¯
)
2
=
∑
k
=
1
m
n
k
⋅
(
x
(
k
)
¯
−
x
¯
)
2
{\displaystyle {\text{SST}}=\sum \limits _{k=1}^{m}\sum \limits _{i=1}^{n_{k}}\left({\overline {x^{(k)}}}-{\overline {x}}\right)^{2}=\sum \limits _{k=1}^{m}n_{k}\cdot \left({\overline {x^{(k)}}}-{\overline {x}}\right)^{2}\quad }
(
sum
of
squares
of
treatments
)
{\displaystyle \left({\textbf {sum}}\;{\textbf {of}}\;{\textbf {squares}}\;{\textbf {of}}\;{\textbf {treatments}}\right)}
SST ist ein Maß für die Unterschiede zwischen den verschiedenen Stichproben.
Schließlich bezeichnet man die Summe der quadratischen Abweichungen aller Stichprobenwerte
x
i
(
k
)
{\textstyle x_{i}^{(k)}}
vom jeweiligen Stichprobenmittelwerte
x
(
k
)
¯
{\textstyle {\overline {x^{(k)}}}}
mit:
SSE
=
∑
k
=
1
m
∑
i
=
1
n
k
(
x
i
(
k
)
−
x
(
k
)
¯
)
2
(
sum
of
squares
of
errors
)
{\displaystyle {\text{SSE}}=\sum \limits _{k=1}^{m}\sum \limits _{i=1}^{n_{k}}\left(x_{i}^{(k)}-{\overline {x^{(k)}}}\right)^{2}\quad \left({\textbf {sum}}\;{\textbf {of}}\;{\textbf {squares}}\;{\text{of}}\;{\textbf {errors}}\right)}
SSE ist ein Maß für die Unterschiede innerhalb der einzelnen Stichproben.Man beachte, dass gilt:
SSG
=
SST
+
SSE
{\textstyle \quad {\text{SSG}}={\text{SST}}+{\text{SSE}}}
Man teilt nun SST und SSE durch die Zahl der jeweiligen Freiheitsgrade (falls
H
0
{\textstyle H_{0}}
gilt, sind
S
S
T
{\textstyle SST}
und
M
S
T
{\textstyle MST}
jeweils
χ
2
{\textstyle \chi ^{2}}
-verteilt mit
m
−
1
{\textstyle m-1}
bzw.
n
−
m
{\textstyle n-m}
FG) und erhält die sogenannten ’mittleren quadratischen Abweichungen’
MST
=
SST
m
−
1
:
('mean
square
of
treatments')
MSE
=
SSE
n
−
m
:
('mean
squared
error')
{\displaystyle {\begin{aligned}{\text{MST}}={\frac {\text{SST}}{m-1}}&:&{\textbf {('mean}}\;{\textbf {square}}\;{\textbf {of}}\;{\textbf {treatments')}}\\{\text{MSE}}={\frac {\text{SSE}}{n-m}}&:&{\textbf {('mean}}\;{\textbf {squared}}\;{\textbf {error')}}\end{aligned}}}
Aus SST und SSE berechnet man nun die Teststatistik wie folgt:
T
∗
=
MST
MSE
=
n
−
m
m
−
1
⋅
SST
SSE
(hohe Werte sprechen gegen
H
0
)
{\displaystyle T^{\ast }={\frac {\text{MST}}{\text{MSE}}}={\frac {n-m}{m-1}}\cdot {\frac {\text{SST}}{\text{SSE}}}\quad {\text{(hohe Werte sprechen gegen }}H_{0})}
Idee: MSE stellt eine Schätzung für die Streuung innerhalb der einzelnen Stichproben dar. Im Gegensatz dazu schätzt MST die Streuung der verschiedenen Stichprobenmittelwerte um den Gesamtmittelwert. Nimmt man an, dass
H
0
{\textstyle H_{0}}
gilt, sollte MST (im Vergleich zu MSE) klein sein, folglich ist
T
∗
=
MST
MSE
{\textstyle T^{\ast }={\frac {\text{MST}}{\text{MSE}}}}
eine Teststatistik, bei der man eher kleine Werte erwartet, falls
H
0
{\textstyle H_{0}}
gilt.
Zur Berechung wird die F-Verteilung (bzw. Fisher-Verteilung )
F
m
−
1
,
n
−
m
{\textstyle F_{m-1,n-m}}
mit den ’Freiheitsgraden’
m
−
1
{\textstyle m-1}
und
n
−
m
{\textstyle n-m}
benötigt. Es gilt:
p
∗
=
1
−
F
m
−
1
,
n
−
m
(
T
∗
)
{\textstyle \quad {\mathfrak {p}}^{\ast }=1-F_{m-1,n-m}(T^{\ast })}
(Dies geht in R mit
1
−
pf
(
T
∗
,
m
−
1
,
n
−
m
)
{\textstyle \color {blue}{1-{\text{pf}}(T^{\ast },m-1,n-m)}}
.)
Einlesen der Stichproben in einen gemeinsamen Vektor x zusammen mit einem Faktor g (gleicher Länge), der angibt, zu welcher Größe die jeweiligen Komponenten von x gehören. Dann:
{\textstyle \quad }
anova(lm
(
x
∼
g
)
)
{\textstyle \color {blue}{{\text{anova(lm}}(x\sim g))}}
Verschiedene Drahtsorten (
m
=
4
{\textstyle m=4}
) werden auf Zugfestigkeit untersucht. Dabei soll zu
α
=
0.05
{\textstyle \alpha =0.05}
geprüft werden, ob die verschiedenen Drahtsorten (oder einige der Sorten) im erwarteten Mittel unterschiedliche Zugfestigkeiten aufweisen. Dazu nimmt man an, dass die ZV
X
(
1
)
,
X
(
2
)
,
X
(
3
)
,
X
(
4
)
{\textstyle X^{(1)},\ X^{(2)},X^{(3)},\ X^{(4)}}
, die die Zugfestigkeiten der verschiedenen Sorten beschreiben, normalverteilt mit gleicher Varianz sind und formuliert die Nullhypothese:
H
0
:
μ
1
=
μ
2
=
μ
3
=
μ
4
{\displaystyle H_{0}:\mu _{1}=\mu _{2}=\mu _{3}=\mu _{4}}
Man erhält folgende Daten (in
N
m
m
2
{\textstyle {\tfrac {N}{mm^{2}}}}
):
Sorte
Stichprobe
1
x
1
(
1
)
,
…
,
x
n
1
(
1
)
:
13.78
11.27
11.04
10.64
9.07
11.02
2
x
1
(
2
)
,
…
,
x
n
2
(
2
)
:
3.43
10.54
5.12
7.42
7.94
11.46
13.11
14.91
3
x
1
(
3
)
,
…
,
x
n
3
(
3
)
:
12.50
11.88
8.71
9.81
15.66
1.70
11.80
14.13
4
x
1
(
4
)
,
…
,
x
n
4
(
4
)
:
13.81
10.82
11.71
11.53
5.51
{\displaystyle {\begin{array}{||c||lrrrrrrrr|c|c|}\hline \hline {\text{Sorte}}&{\text{Stichprobe}}\\\hline 1&x_{1}^{(1)},\ldots ,x_{n_{1}}^{(1)}:&13.78&11.27&11.04&10.64&9.07&11.02\\\hline 2&x_{1}^{(2)},\ldots ,x_{n_{2}}^{(2)}:&3.43&10.54&5.12&7.42&7.94&11.46&13.11&14.91\\\hline 3&x_{1}^{(3)},\ldots ,x_{n_{3}}^{(3)}:&12.50&11.88&8.71&9.81&15.66&1.70&11.80&14.13\\\hline 4&x_{1}^{(4)},\ldots ,x_{n_{4}}^{(4)}:&13.81&10.82&11.71&11.53&5.51\\\hline \hline \end{array}}}
Daraus berechnet sich:
SST
=
17.53
{\textstyle {\begin{aligned}{\text{SST}}&=&17.53\end{aligned}}}
und
p
∗
=
0.7076
{\textstyle {\mathfrak {p}}^{\ast }=0.7076}
Folglich zeigen die Daten keine siginifikanten Unterschiede zwischen den Zugfestigkeiten der verschiedenen Drahtsorten. Die Nullhypothese ist mit den Daten vereinbar.
Man kann obige Rechnungen auch in R durchführen lassen. Dies geht etwa mit
x
<
−
c(
13.78
,
11.27
,
…
,
5.51
)
sorte
<
−
c(rep(1,6,rep(2,8),rep(3,8),rep(4,5))
sorte
<
−
factor(sorte)
anova(lm(x
∼
sorte))
{\displaystyle {\begin{array}{l}\color {blue}{{\text{x}}<-{\text{c(}}13.78,11.27,\ldots ,5.51)}\\\color {blue}{{\text{sorte}}<-{\text{c(rep(1,6,rep(2,8),rep(3,8),rep(4,5))}}}\\\color {blue}{{\text{sorte}}<-{\text{factor(sorte)}}}\\\color {blue}{{\text{anova(lm(x}}\sim {\text{sorte))}}}\end{array}}}
Die oben genannten Voraussetzungen für die Varianzanalyse mit dem F-Test können (und sollten) mit Hilfe von Vortests empirisch geprüft werden. Die Normalverteilungsannahme kann mit Shapiro-Wilks-Tests für jede der ZV
X
(
1
)
,
…
,
X
(
m
)
{\textstyle X^{(1)},\ldots ,X^{(m)}}
getestet werden. Die Annahme der Varianzgleichheit kann man dann mit einem sogenannten Bartlett-Test prüfen. Liefert einer der Vortests ein signifikantes Ergebnis (bzw. einen kleinen
p
{\textstyle p}
-Wert), so kann der F-Test nicht verwendet werden. Man muss dann auf andere Testverfahren zurückgreifen. Beispielsweise kann dann der Test von Kruskal und Wallis verwendet werden.
Falls die Varianzanalyse ein signifikantes Ergebnis liefert, wird dadurch lediglich angezeigt, dass nicht alle
μ
i
{\textstyle \mu _{i}}
gleich sind. Zur Klärung der Frage,welche der
μ
1
,
…
,
μ
n
{\textstyle \mu _{1},\ldots ,\mu _{n}}
signifikant als verschieden angesehen werden können, stehen weitere Testverfahren zur Verfügung, bespielsweise der Scheffé-Test oder der Tukey-Test .
In einer Studie soll untersucht werden, wie sich die Wildschweinpopulationsdichte auf den Traubenertrag im Weinbau auswirkt. Für die Studie wurden 3 Gebiete identifiziert, in denen Weinbau betrieben wird, die jedoch unterschiedliche Populationsdichten an Wildschweinen aufweiß en. In jedem Gebiet befinden sich unterschiedlich viele Versuchsflächen, die jeweils gleich bewirtschaftet werden. Bei jeder Testfläche wurde am Ende der Traubensaison der Ertrag an Trauben in Tonnen pro Hektar ermittelt. Es ergeben sich folgende Daten:
Gebiet
Stichprobe
Länge
x
(
m
)
¯
s
m
2
Gebiet 1
8.73
,
9.27
,
8.94
9.36
8.46
n
1
=
5
x
(
1
)
¯
=
8.952
s
1
2
=
0.374
Gebiet 2
9.43
,
10.27
,
8.19
,
9.01
,
10.38
,
7.41
,
7.93
,
8.76
,
9.36
n
2
=
9
x
(
2
)
¯
=
8.971
s
2
2
=
1.026
Gebiet 3
10.27
,
11.38
,
8.34
,
9.84
n
3
=
4
x
(
3
)
¯
=
9.958
s
3
2
=
1.584
gesamt
n
=
18
x
¯
=
9.185
{\displaystyle {\begin{array}{|l|l|l|l|}\hline {\text{Gebiet}}&{\text{Stichprobe}}&{\text{Länge}}&{\overline {x^{(m)}}}&s_{m}^{2}\\\hline {\text{Gebiet 1}}&8.73,9.27,\;8.94\;\;9.36\;\;8.46&n_{1}=5&{\overline {x^{(1)}}}=8.952&s_{1}^{2}=0.374\\\hline {\text{Gebiet 2}}&9.43,\;10.27,\;8.19,\;\;9.01,\;\;10.38,\;\;7.41,\;\;7.93,\;\;8.76,\;\;9.36&n_{2}=9&{\overline {x^{(2)}}}=8.971&s_{2}^{2}=1.026\\\hline {\text{Gebiet 3}}&10.27,\;11.38,\;\;8.34,\;\;9.84&n_{3}=4&{\overline {x^{(3)}}}=9.958&s_{3}^{2}=1.584\\\hline {\text{gesamt}}&&n=18&{\overline {x}}=9.185&\\\hline \end{array}}}
Worauf sollte bei der Auswahl der Testgebiete geachtet werden? (Stichwort Randeffekte)
Überprüfen Sie mit dem Shapiro-Wilks- und dem Bartlett-Test (in R - keine Rechnung notwendig), ob die Voraussetzungen für die Einfaktorielle Varianzanalyse gegeben sind.
Der Tukey-Test (bzw. die Tukey-Methode)
Bearbeiten
Situation, Signifikanzniveau und Nullhypothese
Bearbeiten
Situation: Gegeben sind
m
{\textstyle m}
normalverteilte ZV
X
(
1
)
,
…
,
X
(
m
)
{\textstyle X^{(1)},\ldots ,X^{(m)}}
deren Standardabweichungen
σ
1
,
…
,
σ
m
{\textstyle \sigma _{1},\ldots ,\sigma _{m}}
(bzw. Varianzen) gleich sind.
Signifikanzniveau: Es muss ein Signifikanzniveau
α
{\textstyle \alpha }
festgelegt werden.
Nullhypothesen:
H
0
(
k
,
l
)
:
μ
k
=
μ
l
{\textstyle H_{0}^{(k,l)}:\mu _{k}=\mu _{l}}
für
k
,
l
=
1
,
…
,
m
{\textstyle k,l=1,\ldots ,m}
mit
k
≠
l
{\textstyle k\not =l}
Alle diese Nullhypothesen werden gemeinsam getestet. Das bedeutet: Falls alle
H
0
(
i
,
j
)
{\textstyle H_{0}^{(i,j)}}
wahr sind, erhält man höchstens mit Wahrscheinlichkeit
α
{\textstyle \alpha }
mindestens ein signifikantes Ergebnis.
benötigte Daten:
m
{\textstyle m}
unabhängige Stichproben gleicher Länge
n
0
{\textstyle n_{0}}
x
1
(
k
)
,
x
2
(
k
)
,
…
,
x
n
0
(
k
)
von
x
(
k
)
(
k
=
1
,
…
,
m
)
{\displaystyle {\begin{aligned}x_{1}^{(k)},\ x_{2}^{(k)},\ldots ,x_{n_{0}}^{(k)}\;\;{\text{von}}\;\;x^{(k)}\;\;\left(k=1,\ldots ,m\right)\end{aligned}}}
Die Gesamtlänge
n
{\textstyle n}
ergibt sich dann offenbar als
n
=
m
⋅
n
0
{\textstyle n=m\cdot n_{0}}
.
Teststatistik: Man berechnet zunächst paarweise die (betragsmäßigen) Differenzen der empirischen Mittelwerte, also
|
x
(
k
)
¯
−
x
(
l
)
¯
|
(
k
≠
l
)
{\textstyle \;\left|{\overline {x^{(k)}}}-{\overline {x^{(l)}}}\right|\quad (k\not =l)}
und die mittlere quadratische Abweichung der Fehler
MSE
=
1
n
−
m
∑
k
=
1
m
∑
i
=
1
n
0
(
x
i
(
k
)
−
x
(
k
)
¯
)
2
{\textstyle \quad {\text{MSE}}={\frac {1}{n-m}}\sum \limits _{k=1}^{m}\sum \limits _{i=1}^{n_{0}}\left(x_{i}^{(k)}-{\overline {x^{(k)}}}\right)^{2}}
Daraus berechnen sich die Teststatistiken als
T
(
k
,
l
)
∗
=
n
0
MSE
⋅
|
x
(
k
)
¯
−
x
(
l
)
¯
|
(
k
≠
l
)
{\displaystyle T_{(k,l)}^{\ast }={\sqrt {\frac {n_{0}}{\text{MSE}}}}\cdot \left|{\overline {x^{(k)}}}-{\overline {x^{(l)}}}\right|\quad (k\not =l)}
Offenbar sprechen hohe Werte dieser Statistik gegen
H
0
(
k
,
l
)
{\textstyle H_{0}^{(k,l)}}
.
p
{\textstyle p}
-Werte: Zur Berechung wird die studentisierte Spannweite
Q
m
,
n
−
m
{\textstyle Q_{m,n-m}}
mit den ’Freiheitsgraden’
m
{\textstyle m}
und
n
−
m
{\textstyle n-m}
benötigt. Zur Nullhypothese
H
0
(
k
,
l
)
{\textstyle H_{0}^{(k,l)}}
ist der
p
{\textstyle p}
-Wert gegeben durch:
p
(
k
,
l
)
∗
=
1
−
Q
m
,
n
−
m
(
T
(
k
,
l
)
∗
)
(
k
≠
l
)
{\textstyle \quad {\mathfrak {p}}_{(k,l)}^{\ast }=1-Q_{m,n-m}(T_{(k,l)}^{\ast })\ (k\not =l)}
(Dies geht in R mit ptukey(x,m,n-m) .)
Für die Paare
(
k
,
l
)
{\textstyle (k,l)}
, deren
p
{\textstyle p}
-Wert kleiner oder gleich
α
{\textstyle \alpha }
sind, kann also die entsprechende Nullhypothese
H
0
(
k
,
l
)
{\textstyle H_{0}^{(k,l)}}
verworfen werden. Man hat dann ein oder mehrere signifikante Ergebnisse zum gemeinsamen Niveau
α
{\textstyle \alpha }
, d.h. es wurde berücksichtigt, dass man mehrere Nullhypothesen getestet hat.
Einlesen der Stichproben in einen gemeinsamen Vektor x zusammen mit einem Faktor g (gleicher Länge), der angibt, zu welcher Größe die jeweiligen Komponenten von x gehören. Dann:
TukeyHSD(aov(lm(x
∼
g)),conf.level=
1
−
α
)
{\textstyle \color {blue}{{\text{TukeyHSD(aov(lm(x}}\sim {\text{g)),conf.level=}}1-\alpha )}}
Zur Ausgabe gehören neben den
p
{\textstyle p}
-Werten der einzelnen Nullhypothesen auch Konfidenzintervalle zum (gemeinsamen) Niveau
1
−
α
{\textstyle 1-\alpha }
für die Differenzen der wahren Erwartungswerte
μ
k
−
μ
l
{\textstyle \mu _{k}-\mu _{l}}
. Diese Intervalle lassen sich mit
plot(TukeyHSD(aov(lm(x
∼
g)),conf.level=
1
−
α
)
)
{\textstyle \color {blue}{{\text{plot(TukeyHSD(aov(lm(x}}\sim {\text{g)),conf.level=}}1-\alpha ))}}
auch graphisch darstellen.
Das bedeutet, dass (falls alle
H
0
(
k
,
l
)
{\textstyle H_{0}^{(k,l)}}
gelten) die Wahrscheinlichkeit, dass alle berechneten Konfidenzintervalle die entsprechende wahre Erwartungswertdifferenz enthalten, mindestens
1
−
α
{\textstyle 1-\alpha }
ist.
Für unterschiedliche Stichprobenlänge
n
1
,
…
,
n
m
{\textstyle n_{1},\ldots ,n_{m}}
von
X
(
1
)
,
…
,
X
(
m
)
{\textstyle X^{(1)},\ldots ,X^{(m)}}
berechnet man die Teststatistiken wie folgt (Tukey-Kramer-Methode) :
T
(
k
,
l
)
=
|
X
(
k
)
¯
−
X
(
l
)
¯
|
MSE
2
⋅
(
1
n
k
+
1
n
l
)
(
k
≠
l
)
{\displaystyle T^{(k,l)}={\frac {\left|{\overline {X^{(k)}}}-{\overline {X^{(l)}}}\right|}{\sqrt {{\frac {\text{MSE}}{2}}\cdot \left({\frac {1}{n_{k}}}+{\frac {1}{n_{l}}}\right)}}}\quad (k\not =l)}
Wir betrachten die folgenden Stichproben (
m
=
5
,
n
0
=
6
{\textstyle m=5,n_{0}=6}
) zum Signifikantsniveau
α
=
0.05
{\textstyle \alpha =0.05}
.
Sorte
Daten
x
(
1
)
x
1
(
1
)
=
89.4
x
2
(
1
)
=
110.9
x
3
(
1
)
=
95.0
x
4
(
1
)
=
120.8
x
5
(
1
)
=
94.2
x
6
(
1
)
=
91.8
x
(
2
)
x
1
(
2
)
=
129.0
x
2
(
2
)
=
115.3
x
3
(
2
)
=
54.9
x
4
(
2
)
=
131.6
x
5
(
2
)
=
119.9
x
6
(
2
)
=
76.3
x
(
3
)
x
1
(
3
)
=
127.4
x
2
(
3
)
=
138.9
x
3
(
3
)
=
116.7
x
4
(
3
)
=
133.4
x
5
(
3
)
=
145.0
x
6
(
3
)
=
112.5
x
(
4
)
x
1
(
4
)
=
117.5
x
2
(
4
)
=
90.8
x
3
(
4
)
=
121.2
x
4
(
4
)
=
115.9
x
5
(
4
)
=
145.3
x
6
(
4
)
=
147.0
x
(
5
)
x
1
(
5
)
=
168.2
x
2
(
5
)
=
143.8
x
3
(
5
)
=
113.7
x
4
(
5
)
=
159.3
x
5
(
5
)
=
146.3
x
6
(
5
)
=
115.1
{\displaystyle {\begin{array}{|c|c|c|c|c|c|}\hline {\text{Sorte}}&{\text{Daten}}&&&&&\\\hline x^{(1)}&x_{1}^{(1)}=89.4&x_{2}^{(1)}=110.9&x_{3}^{(1)}=95.0&x_{4}^{(1)}=120.8&x_{5}^{(1)}=94.2&x_{6}^{(1)}=91.8\\\hline x^{(2)}&x_{1}^{(2)}=129.0&x_{2}^{(2)}=115.3&x_{3}^{(2)}=54.9&x_{4}^{(2)}=131.6&x_{5}^{(2)}=119.9&x_{6}^{(2)}=76.3\\\hline x^{(3)}&x_{1}^{(3)}=127.4&x_{2}^{(3)}=138.9&x_{3}^{(3)}=116.7&x_{4}^{(3)}=133.4&x_{5}^{(3)}=145.0&x_{6}^{(3)}=112.5\\\hline x^{(4)}&x_{1}^{(4)}=117.5&x_{2}^{(4)}=90.8&x_{3}^{(4)}=121.2&x_{4}^{(4)}=115.9&x_{5}^{(4)}=145.3&x_{6}^{(4)}=147.0\\\hline x^{(5)}&x_{1}^{(5)}=168.2&x_{2}^{(5)}=143.8&x_{3}^{(5)}=113.7&x_{4}^{(5)}=159.3&x_{5}^{(5)}=146.3&x_{6}^{(5)}=115.1\\\hline \end{array}}}
Man berechnet
MSE
=
450.12
{\textstyle {\text{MSE}}=450.12}
und
MST
=
1737.98
{\textstyle {\text{MST}}=1737.98}
. Damit ergibt sich der
p
{\textstyle p}
-Wert einer Varianzanalyse mit einem
F
{\textstyle F}
-Tests zur Nullhypothese als
p
∗
=
0.01412
{\textstyle p^{*}=0.01412}
. Man kann also davon ausgehen, dass sich Erwartungswerte einiger der Größen unterscheiden.
Man möcht nun genauer wissen, welche der Erwartungswerte sich im einzelnen unterscheiden. Dazu führt man einen Tukey-Test durch. Insgesamt werden dabei 10 Vergleiche durchgeführt:
Nullhypothese
p
-Wert
Nullhypothese
p
-Wert
μ
1
=
μ
2
1
−
Q
5
,
25
(
T
(
1
,
2
)
∗
)
=
0.997
μ
2
=
μ
4
1
−
Q
5
,
25
(
T
(
2
,
4
)
∗
)
=
0.568
μ
1
=
μ
3
1
−
Q
5
,
25
(
T
(
1
,
3
)
∗
)
=
0.167
μ
2
=
μ
5
1
−
Q
5
,
25
(
T
(
2
,
5
)
∗
)
=
0.045
μ
1
=
μ
4
1
−
Q
5
,
25
(
T
(
1
,
4
)
∗
)
=
0.372
μ
3
=
μ
4
1
−
Q
5
,
25
(
T
(
3
,
4
)
∗
)
=
0.987
μ
1
=
μ
5
1
−
Q
5
,
25
(
T
(
1
,
5
)
∗
)
=
0.021
μ
3
=
μ
5
1
−
Q
5
,
25
(
T
(
3
,
5
)
∗
)
=
0.859
μ
2
=
μ
3
1
−
Q
5
,
25
(
T
(
2
,
3
)
∗
)
=
0.296
μ
4
=
μ
5
1
−
Q
5
,
25
(
T
(
4
,
5
)
∗
)
=
0.585
{\displaystyle {\begin{array}{|c|c||c|c|}\hline {\text{Nullhypothese}}&p{\text{-Wert}}&{\text{Nullhypothese}}&p{\text{-Wert}}\\\hline \mu _{1}=\mu _{2}&1-Q_{5,25}\left(T_{(1,2)}^{\ast }\right)=0.997&\mu _{2}=\mu _{4}&1-Q_{5,25}\left(T_{(2,4)}^{\ast }\right)=0.568\\\hline \mu _{1}=\mu _{3}&1-Q_{5,25}\left(T_{(1,3)}^{\ast }\right)=0.167&\mu _{2}=\mu _{5}&1-Q_{5,25}\left(T_{(2,5)}^{\ast }\right)=0.045\\\hline \mu _{1}=\mu _{4}&1-Q_{5,25}\left(T_{(1,4)}^{\ast }\right)=0.372&\mu _{3}=\mu _{4}&1-Q_{5,25}\left(T_{(3,4)}^{\ast }\right)=0.987\\\hline \mu _{1}=\mu _{5}&1-Q_{5,25}\left(T_{(1,5)}^{\ast }\right)=0.021&\mu _{3}=\mu _{5}&1-Q_{5,25}\left(T_{(3,5)}^{\ast }\right)=0.859\\\hline \mu _{2}=\mu _{3}&1-Q_{5,25}\left(T_{(2,3)}^{\ast }\right)=0.296&\mu _{4}=\mu _{5}&1-Q_{5,25}\left(T_{(4,5)}^{\ast }\right)=0.585\\\hline \end{array}}}
Damit wird also signifikant angezeigt, dass sich die Großen
X
(
1
)
{\textstyle X^{(1)}}
und
X
(
5
)
{\textstyle X^{(5)}}
und auch die Großen
X
(
2
)
{\textstyle X^{(2)}}
und
X
(
5
)
{\textstyle X^{(5)}}
hinsichtlich ihrer Erwartungswerte unterscheiden.
Legt man ein Signifikanzniveau
α
=
z.B
0.05
{\textstyle \alpha {\stackrel {\text{z.B}}{=}}0.05}
fest, so kann man mit TukeyHSD eine Graphik erzeugen, die Konfidenzintervalle zum gemeinsamen Niveau
1
−
α
=
0.95
{\textstyle 1-\alpha =0.95}
zeigt:
Nehmen Sie nun an, dass Sie in der vorherigen Aufgabe ein Signifikantes Ergebnis erhalten hätten. Berechnen Sie nun mithilfe der Tukey-Methode, zwischen welchen Gruppen signifikante Unterschiede existieren.
Es soll untersucht werden, ob eine ZV
X
{\textstyle X}
(Zielvariable) durch zwei vorliegende Faktoren
A
{\textstyle A}
und
B
{\textstyle B}
beeinflusst wird. Die Faktoren
A
{\textstyle A}
und
B
{\textstyle B}
nehmen dabei nur endlich viele Werte (bzw. Ausprägungen) an (
m
{\textstyle m}
Möglichkeiten für
A
{\textstyle A}
und
s
{\textstyle s}
Möglichkeiten für
B
{\textstyle B}
).
Man unterscheidet nun ZV
X
(
1
,
1
)
,
X
(
2
,
1
)
,
…
,
X
(
m
,
1
)
X
(
1
,
2
)
,
X
(
2
,
2
)
,
…
,
X
(
m
,
2
)
⋮
,
⋮
,
⋱
,
⋮
X
(
1
,
s
)
,
X
(
2
,
s
)
,
…
,
X
(
m
,
s
)
{\displaystyle {\begin{array}{ccccccc}X^{(1,1)}&,&X^{(2,1)}&,&\ldots &,&X^{(m,1)}\\X^{(1,2)}&,&X^{(2,2)}&,&\ldots &,&X^{(m,2)}\\\vdots &,&\vdots &,&\ddots &,&\vdots \\X^{(1,s)}&,&X^{(2,s)}&,&\ldots &,&X^{(m,s)}\end{array}}}
wobei
X
(
k
,
r
)
{\textstyle X^{(k,r)}}
die Größe
X
{\textstyle X}
für die
k
{\textstyle k}
-te Ausprägung von
A
{\textstyle A}
und die
r
{\textstyle r}
-te Ausprägung von
B
{\textstyle B}
ist
(
k
=
1
,
…
,
m
,
r
=
1
,
…
,
s
)
{\textstyle (k=1,\ldots ,m,\ r=1,\ldots ,s)}
.
Vorausgesetzt für den folgenden Test wird, dass alle
X
(
k
,
r
)
{\textstyle X^{(k,r)}}
normalverteilt mit gleicher Varianz sind.
Man untersucht dabei die Nullhypothesen
H
0
:
Faktor
A
hat keine Wirkung auf
X
{\displaystyle H_{0}:{\text{Faktor}}\;A\;{\text{hat keine Wirkung auf}}\;X\quad \quad }
H
0
:
Faktor
B
hat keine Wirkung auf
X
{\displaystyle H_{0}:{\text{Faktor}}\;B\;{\text{hat keine Wirkung auf }}X}
H
0
:
Es gibt keine Wechselwirkungen zwischen
A
und
B
im Hinblick auf
X
.
{\displaystyle H_{0}:{\text{Es gibt keine Wechselwirkungen zwischen}}\;A\;{\text{und}}\;B\;{\text{im Hinblick auf}}\;X.}
Zu jeder der
m
⋅
s
{\textstyle m\cdot s}
vielen Größen benötigt man nun eine Stichprobe
x
1
(
k
,
r
)
,
…
,
x
n
0
(
k
,
r
)
der Länge
n
0
{\displaystyle x_{1}^{(k,r)},\ldots ,x_{n_{0}}^{(k,r)}\quad {\text{der Länge}}\ n_{0}}
(Wir gehen der Einfachheit halber davon aus, dass alle Stichproben die gleiche Länge haben. Für ungleiche Stichprobenlängen wird es nochmals erheblich komplizierter.)
Daraus berechnet man nun die folgenden Mittelwerte und Stichprobenlängen:
Einzelne Stichprobe (
k
=
1
,
…
,
m
,
r
=
1
,
…
,
s
{\textstyle k=1,\ldots ,m,\ r=1,\ldots ,s}
fest):
Länge
:
n
0
Mittelwert
:
x
(
k
,
r
)
¯
=
1
n
0
⋅
∑
i
=
1
n
0
x
i
(
k
,
r
)
{\displaystyle {\begin{aligned}{\text{Länge}}&:&n_{0}\\{\text{Mittelwert}}&:&{\overline {x^{(k,r)}}}={\frac {1}{n_{0}}}\cdot \sum _{i=1}^{n_{0}}x_{i}^{(k,r)}\end{aligned}}}
Mit festem Wert für
B
{\textstyle B}
zusammengefasste Stichprobe (
r
=
1
,
…
,
s
{\textstyle r=1,\ldots ,s}
fest):
Länge
:
n
0
⋅
m
Mittelwert
:
x
(
∙
,
r
)
¯
=
1
n
0
⋅
m
⋅
∑
k
=
1
m
∑
i
=
1
n
0
x
i
(
k
,
r
)
=
1
m
⋅
∑
k
=
1
m
x
(
k
,
r
)
¯
{\displaystyle {\begin{aligned}{\text{Länge}}&:&n_{0}\cdot m\\{\text{Mittelwert}}&:&{\overline {x^{(\bullet ,r)}}}={\frac {1}{n_{0}\cdot m}}\cdot \sum \limits _{k=1}^{m}\sum \limits _{i=1}^{n_{0}}x_{i}^{(k,r)}={\frac {1}{m}}\cdot \sum \limits _{k=1}^{m}{\overline {x^{(k,r)}}}\end{aligned}}}
Mit festem Wert für
A
{\textstyle A}
zusammengefasste Stichprobe (
k
=
1
,
…
,
m
{\textstyle k=1,\ldots ,m}
fest):
Länge
:
n
0
⋅
s
Mittelwert
:
x
(
k
,
∙
)
¯
=
1
n
0
⋅
s
⋅
∑
r
=
1
s
∑
i
=
1
n
(
k
,
r
)
x
i
(
k
,
r
)
=
1
s
⋅
∑
r
=
1
s
x
(
k
,
r
)
¯
{\displaystyle {\begin{aligned}{\text{Länge}}&:&n_{0}\cdot s\\{\text{Mittelwert}}&:&{\overline {x^{(k,\bullet )}}}={\frac {1}{n_{0}\cdot s}}\cdot \sum \limits _{r=1}^{s}\sum \limits _{i=1}^{n^{(k,r)}}x_{i}^{(k,r)}={\frac {1}{s}}\cdot \sum \limits _{r=1}^{s}{\overline {x^{(k,r)}}}\end{aligned}}}
Gesamte Stichprobe:
Länge
:
n
0
⋅
m
⋅
s
Mittelwert
:
x
(
∙
,
∙
)
¯
=
1
n
0
⋅
m
⋅
s
⋅
∑
k
=
1
m
∑
r
=
1
s
∑
i
=
1
n
(
k
,
r
)
x
i
(
k
,
r
)
=
1
m
⋅
s
⋅
∑
k
=
1
m
∑
r
=
1
s
x
(
k
,
r
)
¯
=
1
m
⋅
∑
k
=
1
m
x
(
k
,
∙
)
¯
=
1
s
⋅
∑
r
=
1
s
x
(
∙
,
r
)
¯
{\displaystyle {\begin{aligned}{\text{Länge}}&:&n_{0}\cdot m\cdot s\\{\text{Mittelwert}}&:&{\overline {x^{(\bullet ,\bullet )}}}={\frac {1}{n_{0}\cdot m\cdot s}}\cdot \sum \limits _{k=1}^{m}\sum \limits _{r=1}^{s}\sum \limits _{i=1}^{n^{(k,r)}}x_{i}^{(k,r)}\\&&\quad \quad \quad ={\frac {1}{m\cdot s}}\cdot \sum \limits _{k=1}^{m}\sum \limits _{r=1}^{s}{\overline {x^{(k,r)}}}={\frac {1}{m}}\cdot \sum \limits _{k=1}^{m}{\overline {x^{(k,\bullet )}}}={\frac {1}{s}}\cdot \sum \limits _{r=1}^{s}{\overline {x^{(\bullet ,r)}}}\end{aligned}}}
Es gilt die folgende Quadratsummenzerlegung:
SSG
=
SSA
+
SSB
+
SS(AB)
+
SSE
{\displaystyle {\text{SSG}}={\text{SSA}}+{\text{SSB}}+{\text{SS(AB)}}+{\text{SSE}}}
Dabei ist:
Summe der
zurückzu-
FG
mittlere
quadratischen Abweichungen
führen auf
Abw.
SSA
=
n
0
⋅
s
⋅
∑
k
=
1
m
(
x
(
k
,
∙
)
¯
−
x
(
∙
,
∙
)
¯
)
2
Faktor
A
m
−
1
MSA
=
SSA
m
−
1
SSB
=
n
0
⋅
m
⋅
∑
r
=
1
s
(
x
(
∙
,
r
)
¯
−
x
(
∙
,
∙
)
¯
)
2
Faktor
B
s
−
1
MSB
=
SSB
s
−
1
SS(AB)
=
n
0
⋅
∑
k
=
1
m
∑
r
=
1
s
(
x
(
k
,
r
)
¯
−
x
(
k
,
∙
)
¯
−
x
(
∙
,
r
)
¯
+
x
(
∙
,
∙
)
¯
)
2
Wechsel-
(
m
−
1
)
⋅
(
s
−
1
)
MS(AB)
=
SS(AB)
(
m
−
1
)
⋅
(
s
−
1
)
wirkungen
SSE
=
∑
k
=
1
m
∑
r
=
1
s
∑
i
=
1
n
0
(
x
i
(
k
,
r
)
−
x
(
k
,
r
)
¯
)
2
zufällige
m
⋅
s
⋅
(
n
0
−
1
)
MSE
=
SSE
m
⋅
s
⋅
(
n
0
−
1
)
Fehler
SSG
=
∑
k
=
1
m
∑
r
=
1
s
∑
i
=
1
n
0
(
x
i
(
k
,
r
)
−
x
(
∙
,
∙
)
¯
)
2
gesamt
m
⋅
s
⋅
n
0
−
1
MSG
=
SSG
m
⋅
s
⋅
n
0
−
1
{\displaystyle {\begin{array}{|c|c|c|c|}\hline {\text{Summe der}}&{\text{zurückzu-}}&{\text{FG}}&{\text{mittlere}}\\{\text{quadratischen Abweichungen}}&{\text{führen auf}}&&{\text{Abw.}}\\\hline \hline {\text{SSA}}=n_{0}\cdot s\cdot \sum \limits _{k=1}^{m}\left({\overline {x^{(k,\bullet )}}}-{\overline {x^{(\bullet ,\bullet )}}}\right)^{2}&{\text{Faktor}}\ A&m-1&{\text{MSA}}={\frac {\text{SSA}}{m-1}}\\&&&\\\hline {\text{SSB}}=n_{0}\cdot m\cdot \sum \limits _{r=1}^{s}\left({\overline {x^{(\bullet ,r)}}}-{\overline {x^{(\bullet ,\bullet )}}}\right)^{2}&{\text{Faktor}}\ B&s-1&{\text{MSB}}={\frac {\text{SSB}}{s-1}}\\&&&\\\hline {\text{SS(AB)}}=n_{0}\cdot \sum \limits _{k=1}^{m}\sum \limits _{r=1}^{s}\left({\overline {x^{(k,r)}}}-{\overline {x^{(k,\bullet )}}}-{\overline {x^{(\bullet ,r)}}}+{\overline {x^{(\bullet ,\bullet )}}}\right)^{2}&{\text{Wechsel-}}&(m-1)\cdot (s-1)&{\text{MS(AB)}}={\frac {\text{SS(AB)}}{(m-1)\cdot (s-1)}}\\&{\text{wirkungen}}&&\\\hline {\text{SSE}}=\sum \limits _{k=1}^{m}\sum \limits _{r=1}^{s}\sum \limits _{i=1}^{n_{0}}\left(x_{i}^{(k,r)}-{\overline {x^{(k,r)}}}\right)^{2}&{\text{zufällige}}&m\cdot s\cdot (n_{0}-1)&{\text{MSE}}={\frac {\text{SSE}}{m\cdot s\cdot (n_{0}-1)}}\\&{\text{Fehler}}&&\\\hline \hline {\text{SSG}}=\sum \limits _{k=1}^{m}\sum \limits _{r=1}^{s}\sum \limits _{i=1}^{n_{0}}\left(x_{i}^{(k,r)}-{\overline {x^{(\bullet ,\bullet )}}}\right)^{2}&{\text{gesamt}}&m\cdot s\cdot n_{0}-1&{\text{MSG}}={\frac {\text{SSG}}{m\cdot s\cdot n_{0}-1}}\\&&&\\\hline \end{array}}}
Zu den oben angegebenen Nullhypothesen berechnet man nun Teststatistik und
p
{\textstyle p}
-Wert wie folgt:
Nullhypothese
Teststatistik
p
-Wert
X
von
A
unabhängig
T
A
=
MSA
MSE
1
−
F
m
−
1
,
m
⋅
s
⋅
(
n
0
−
1
)
(
T
A
)
X
von
B
unabhängig
T
B
=
MSB
MSE
1
−
F
s
−
1
,
m
⋅
s
⋅
(
n
0
−
1
)
(
T
B
)
keine Wechselwirkungen
T
(
A
B
)
=
MS(AB)
MSE
1
−
F
(
m
−
1
)
⋅
(
s
−
1
)
,
m
⋅
s
⋅
(
n
0
−
1
)
(
T
(
A
B
)
)
{\displaystyle {\begin{array}{|c|c|c|c|}\hline {\text{Nullhypothese}}&{\text{Teststatistik}}&p{\text{-Wert}}\\\hline X{\text{ von }}A{\text{ unabhängig}}&T_{A}={\frac {\text{MSA}}{\text{MSE}}}&1-F_{m-1,m\cdot s\cdot (n_{0}-1)}(T_{A})\\\hline X{\text{ von }}B{\text{ unabhängig}}&T_{B}={\frac {\text{MSB}}{\text{MSE}}}&1-F_{s-1,m\cdot s\cdot (n_{0}-1)}(T_{B})\\\hline {\text{ keine Wechselwirkungen }}&T_{(AB)}={\frac {\text{MS(AB)}}{\text{MSE}}}&1-F_{(m-1)\cdot (s-1),m\cdot s\cdot (n_{0}-1)}(T_{(AB)})\\\hline \end{array}}}
Man kann diese auch mit R durchführen. Man trägt dazu in einen Vektor x die Daten ein und in zwei Faktoren a und b (beide haben die gleiche Länge wie x ) die Information, zu welcher Ausprägung von
A
{\textstyle A}
bzw.
B
{\textstyle B}
die Daten gehören. Dann erhält man mit:
anova(lm(x
∼
a
∗
b)).
{\displaystyle \quad \color {blue}{{\text{anova(lm(x}}\sim {\text{a}}\ast {\text{b)).}}}}
die benötigten Werte (Freiheitsgrade, Quadratsummen, mittlere Quadratsummen, Teststatistiken,
p
{\textstyle p}
-Werte).
Gegeben seien die Faktoren
A
{\textstyle A}
und
B
{\textstyle B}
mit den Ausprägungen
A
1
,
A
2
,
A
3
,
A
4
{\textstyle A1,A2,A3,A4}
und
B
1
,
B
2
,
B
3
{\textstyle B1,B2,B3}
, dem Signifikanzniveau
α
=
0.05
{\textstyle \alpha =0.05}
und der folgenden Stichprobe:
A1
A2
A3
A4
B1
69
;
77
79
;
83
80
;
78
75
;
67
B2
61
;
67
62
;
64
74
;
76
70
;
62
B3
65
;
69
72
;
78
80
;
74
70
;
76
{\displaystyle {\begin{array}{|c||c|c|c|c|}\hline &{\text{A1}}&{\text{A2}}&{\text{A3}}&{\text{A4}}\\\hline {\text{B1}}&69;77&79;83&80;78&75;67\\\hline {\text{B2}}&61;67&62;64&74;76&70;62\\\hline {\text{B3}}&65;69&72;78&80;74&70;76\\\hline \end{array}}}
Es ergibt sich:
p
A
∗
=
1
−
F
m
−
1
,
m
⋅
s
⋅
(
n
0
−
1
)
(
T
A
)
=
1
−
F
3
,
12
(
5.8105
)
=
0.0108
{\displaystyle p_{A}^{\ast }=1-F_{m-1,m\cdot s\cdot (n_{0}-1)}(T_{A})=1-F_{3,12}(5.8105)=0.0108}
Somit kann die Nullhypothese, dass
X
{\textstyle X}
unabhängig von
A
{\textstyle A}
ist, verworfen werden.
Weiterhin ergibt sich:
p
B
∗
=
1
−
F
s
−
1
,
m
⋅
s
⋅
(
n
0
−
1
)
(
T
B
)
=
1
−
F
2
,
12
(
10.5105
)
=
0.0022
{\displaystyle p_{B}^{\ast }=1-F_{s-1,m\cdot s\cdot (n_{0}-1)}(T_{B})=1-F_{2,12}(10.5105)=0.0022}
Somit kann auch diese Nullhypothese, dass
X
{\textstyle X}
unabhängig von
B
{\textstyle B}
ist, verworfen werden.
Weiterhin ergibt sich:
p
(
A
B
)
∗
=
1
−
F
(
m
−
1
)
⋅
(
s
−
1
)
,
m
⋅
s
⋅
(
n
0
−
1
)
(
T
(
A
B
)
)
=
1
−
F
6
,
12
(
1.6
)
=
0.2298
{\displaystyle p_{(AB)}^{\ast }=1-F_{(m-1)\cdot (s-1),m\cdot s\cdot (n_{0}-1)}(T_{(AB)})=1-F_{6,12}(1.6)=0.2298}
Die Nullhypothese, dass es keine Wechselwirkung zwischen
A
{\textstyle A}
und
B
{\textstyle B}
im Hinblick auf
X
{\textstyle X}
gibt, kann nicht wiederlegt werden, somit ist es anzunehmen, dass es keine Wechselwirkung gibt.