Die abzählende Kombinatorik [1] ist ein Teilbereich der Kombinatorik . Sie beschäftigt sich mit der Bestimmung der Anzahl möglicher Anordnungen oder Auswahlen.
(Zurücklegen) „mit“ bzw. „ohne“ Zurücklegen der gezogenen Objekte sowie
(Reihenfolge) „mit“ bzw. „ohne“ Beachtung ihrer Reihenfolge (d. h. „geordnet“ bzw. „ungeordnet“).
In einer Urne befinden sich
n
{\displaystyle n}
Kugeln, aus der Elemente gezogen werden.
Allgemein bezeichnet
n
{\displaystyle n}
die Zahl der vorhandenen Elemente und
k
{\displaystyle k}
die Anzahl der Ziehungen bzw.
k
1
,
…
,
k
n
{\displaystyle k_{1},\ldots ,k_{n}}
die jeweiligen Anzahlen
k
i
∈
N
0
{\displaystyle k_{i}\in \mathbb {N} _{0}}
, wie oft mit Zurücklegen das Element
i
∈
{
1
,
…
,
n
}
{\displaystyle i\in \{1,\ldots ,n\}}
gezogen wurde.
MIT Beachtung der Reihenfolge - MIT Zurücklegen Bearbeiten
Es werden
k
{\displaystyle k}
-Tupel der Form
(
a
,
b
,
c
,
a
)
{\displaystyle (a,b,c,a)}
gebildet. Verwendet man Kugeln mit Nummern von
1
{\displaystyle 1}
bis
n
{\displaystyle n}
gilt:
Ω
1
:=
{
1
,
…
,
n
}
k
{\displaystyle \Omega _{1}:=\{1,\ldots ,n\}^{k}}
mit
|
Ω
1
|
=
n
k
{\displaystyle |\Omega _{1}|=n^{k}}
MIT Beachtung der Reihenfolge - OHNE Zurücklegen Bearbeiten
Es werden
k
{\displaystyle k}
-Tupel der Form
(
b
,
c
,
a
)
{\displaystyle (b,c,a)}
gebildet. Verwendet man Kugeln mit Nummern von
1
{\displaystyle 1}
bis
n
{\displaystyle n}
gilt:
Ω
2
:=
{
(
ω
1
,
…
,
ω
k
)
∈
{
1
,
…
,
n
}
k
|
∀
i
,
j
∈
{
1
,
…
,
n
}
,
i
≠
j
:
ω
i
≠
ω
j
}
{\displaystyle \Omega _{2}:=\{(\omega _{1},\ldots ,\omega _{k})\in \{1,\ldots ,n\}^{k}\,|\,\forall _{i,j\in \{1,\ldots ,n\},i\not =j}\,:\,\omega _{i}\not =\omega _{j}\}}
mit
|
Ω
2
|
:=
(
n
k
)
⋅
k
!
=
n
!
(
n
−
k
)
!
{\displaystyle |\Omega _{2}|:={n \choose k}\cdot {k!}={\frac {n!}{\left(n-k\right)!}}}
OHNE Beachtung der Reihenfolge - OHNE Zurücklegen Bearbeiten
Es werden
k
{\displaystyle k}
-elementige Teilmengen einer
n
{\displaystyle n}
-elementige Grundmenge gebildet der Form
{
a
,
c
,
d
}
{\displaystyle \{a,c,d\}}
gebildet. Verwendet man Kugeln mit Nummern von
1
{\displaystyle 1}
bis
n
{\displaystyle n}
gilt:
Ω
3
:=
{
A
⊂
{
1
,
…
,
n
}
k
|
|
A
|
=
k
}
{\displaystyle \Omega _{3}:=\{A\subset \{1,\ldots ,n\}^{k}\,|\,|A|=k\}}
mit
|
Ω
3
|
:=
(
n
k
)
=
n
!
k
!
(
n
−
k
)
!
{\displaystyle |\Omega _{3}|:={n \choose k}={\frac {n!}{k!\left(n-k\right)!}}}
OHNE Beachtung der Reihenfolge - MIT Zurücklegen Bearbeiten
Es wird mit den
k
1
,
…
,
k
n
{\displaystyle k_{1},\ldots ,k_{n}}
für jedes der
n
{\displaystyle n}
-elementigen Grundmenge gezählt, wie oft es gezogen wurde. Tupel
(
0
,
3
,
2
,
0
)
{\displaystyle (0,3,2,0)}
für eine Grundmenge der Form
{
a
,
b
,
c
,
d
}
{\displaystyle \{a,b,c,d\}}
besagt, dass
b
{\displaystyle b}
dreimal gezogen wurde,
c
{\displaystyle c}
viermal gezogen wurde und
a
,
d
{\displaystyle a,d}
überhaupt nicht gezogen wurde. Verwendet man Kugeln mit Nummern von
1
{\displaystyle 1}
bis
n
{\displaystyle n}
gilt:
Ω
4
:=
{
(
ω
1
,
…
,
ω
n
)
∈
N
0
n
|
∑
i
=
1
n
ω
i
=
k
}
{\displaystyle \Omega _{4}:=\left\{(\omega _{1},\ldots ,\omega _{n})\in \mathbb {N} _{0}^{n}\,\left|\,\sum _{i=1}^{n}\omega _{i}=k\right.\right\}}
mit
|
Ω
4
|
:=
(
n
−
1
+
k
n
−
1
)
=
(
n
−
1
+
k
)
!
k
!
(
n
−
1
)
!
{\displaystyle |\Omega _{4}|:={n-1+k \choose n-1}={\frac {(n-1+k)!}{k!\left(n-1\right)!}}}
Beispiel: Trennstellen ziehen Bearbeiten
Man betrachtet nun eine Grundmenge
M
:=
{
a
,
b
,
c
,
d
}
{\displaystyle M:=\{a,b,c,d\}}
mit
n
=
4
{\displaystyle n=4}
Elementen.
Da es nicht auf die Reihenfolge ankommt, werden die gezogenen Elemente mit gleichem Buchstaben zusammengefasst, z.B. mit
k
=
10
{\displaystyle k=10}
zu
(
a
,
a
,
a
,
a
,
b
,
d
,
d
,
d
,
d
,
d
)
{\displaystyle (a,a,a,a,b,d,d,d,d,d)}
.
Nun erweitert man das Tupel um
n
−
1
{\displaystyle n-1}
Trennstellen z.B.
(
a
,
a
,
a
,
a
,
Δ
,
b
,
Δ
,
Δ
,
d
,
d
,
d
,
d
,
d
)
{\displaystyle (a,a,a,a,\Delta ,b,\Delta ,\Delta ,d,d,d,d,d)}
.
Positionen der Trennstellen werden mit Nummer belegt und z.B. die Trennstellen
{
5
,
7
,
8
}
{\displaystyle \{5,7,8\}}
gezogen. Ersatzmodell: Trennstellen ziehen Bearbeiten
Bei
n
{\displaystyle n}
Elementen aus der Grundmenge benötigt man
n
−
1
{\displaystyle n-1}
Trennstellen. Mit
k
{\displaystyle k}
Ziehungen wird aus einer Grundmenge von
n
−
1
+
k
{\displaystyle n-1+k}
Trennstellenpositionen gezogen. Damit führt man die kombinatorischen Möglichkeiten auf ein bekanntes Modell OHNE Beachtung der Reihenfolge - OHNE Zurücklegen zurück.
(
n
−
1
+
k
n
−
1
)
=
(
n
+
k
−
1
k
)
=
(
n
+
k
−
1
)
!
(
n
−
1
)
!
⋅
k
!
{\displaystyle {n-1+k \choose n-1}={n+k-1 \choose k}={\frac {\left(n+k-1\right)!}{\left(n-1\right)!\cdot k!}}}
In der Literatur findet man oft den zweiten Binomialkoeffizient als Anzahl der Möglichkeiten. Für die Trennstellenherleitung wird der erste Binomalkoeffizient verwendet.
Die hier dargestellten Begriffe lassen sich auch über Urnenmodelle beschreiben.
In einer Urne befinden sich
n
{\displaystyle n}
Kugeln, die mit
1
,
.
.
.
,
n
{\displaystyle 1,...,n}
numeriert sind. Eine geordnete Stichprobe
(
a
1
,
.
.
.
,
a
r
)
{\displaystyle (a_{1},...,a_{r})}
mit [ohne] Wiederholung entsteht durch r-maliges Ziehen mit [ohne] Zurücklegen der Kugeln in die Urne, wobei die Reihenfolge beachtet wird.
In einer Urne mit
N
=
S
+
W
{\displaystyle N=S+W}
Kugelnseine
S
{\displaystyle S}
schwarze und
W
{\displaystyle W}
weiße Kugeln. Es werden
n
≤
N
{\displaystyle n\leq N}
Kugeln ohne Zurücklegen gezogen. Bezeichne k die Anzahl der schwarzen unter den
n
{\displaystyle n}
gezogenen (
0
≤
k
≤
n
{\displaystyle 0\leq k\leq n}
),
A
k
{\displaystyle A_{k}}
das Ereignis, dass die Anzahl der schwarzen genau gleich
k
{\displaystyle k}
ist und
h
(
k
;
n
,
N
,
S
)
{\displaystyle h(k;n,N,S)}
die Wahrscheinlichkeit für das Ereignis
A
k
{\displaystyle A_{k}}
. Die Wahrscheinlichkeitsfunktion
h
(
k
;
n
,
N
,
S
)
,
k
=
0
,
.
.
.
,
n
{\displaystyle h(k;n,N,S),k=0,...,n}
definiert die sogenannte hypergeometrische Verteilung mit Paramtern
n
,
N
,
S
{\displaystyle n,N,S}
auf
Ω
′
=
{
0
,
1
,
.
.
.
,
n
}
{\displaystyle \Omega '=\lbrace 0,1,...,n\rbrace }
.
Für
n
≤
N
{\displaystyle n\leq N}
und
S
≤
N
{\displaystyle S\leq N}
gilt:
h
(
k
;
n
,
N
,
S
)
=
(
S
k
)
(
N
−
S
n
−
k
)
(
N
n
)
;
k
=
0
,
.
.
.
,
n
{\displaystyle h(k;n,N,S)={\frac {{\binom {S}{k}}{\binom {N-S}{n-k}}}{\binom {N}{n}}};k=0,...,n}
Sei
Ω
{\displaystyle \Omega }
die Menge aller ungeordneten Stichproben
{
a
1
,
.
.
.
,
a
n
}
{\displaystyle \lbrace a_{1},...,a_{n}\rbrace }
aus der Menge
{
1
,
.
.
.
,
N
}
{\displaystyle \lbrace 1,...,N\rbrace }
ohne Wiederholung,
P
{\displaystyle P}
sei die Gleichverteilung auf
Ω
{\displaystyle \Omega }
. Es ist
|
Ω
|
=
C
N
n
=
(
N
n
)
{\displaystyle |\Omega |=C_{N}^{n}={\binom {N}{n}}}
. Die
S
{\displaystyle S}
schwarzen Kugeln seien mit den Nummern
1
,
.
.
.
,
S
{\displaystyle 1,...,S}
versehen, die
N
−
S
=
W
{\displaystyle N-S=W}
weißen Kugeln mit
S
+
1
,
.
.
.
,
N
{\displaystyle S+1,...,N}
. Das Ereignis
A
k
⊂
Ω
{\displaystyle A_{k}\subset \Omega }
besteht dann aus allen
{
a
1
,
.
.
.
,
a
n
}
{\displaystyle \lbrace a_{1},...,an\rbrace }
mit genau
k
{\displaystyle k}
Elementen
a
i
{\displaystyle a_{i}}
aus
{
1
,
.
.
.
,
S
}
{\displaystyle \lbrace 1,...,S\rbrace }
.
Heuristisch: Es gibt
(
S
k
)
{\displaystyle {\binom {S}{k}}}
Möglichkeiten,
k
{\displaystyle k}
Kugeln aus
S
{\displaystyle S}
schwarzen
[
(
N
−
S
n
−
k
)
{\displaystyle [{\binom {N-S}{n-k}}}
Möglichkeiten,
n
−
k
{\displaystyle n-k}
Kugeln aus
N
−
S
{\displaystyle N-S}
weißen] ohne Zurüklegen zu ziehen.
Jede Kombination einer der
(
s
k
)
{\displaystyle {\binom {s}{k}}}
Möglichkeiten mit einer der
(
N
−
S
n
−
k
)
{\displaystyle {\binom {N-S}{n-k}}}
Möglichkeiten ergibt genau ein Element aus
A
k
{\displaystyle A_{k}}
. Folglich
|
A
k
|
=
(
s
k
)
(
N
−
S
n
−
k
)
{\displaystyle |A_{k}|={\binom {s}{k}}{\binom {N-S}{n-k}}}
und
P
(
A
n
)
=
|
A
k
|
|
Ω
|
{\displaystyle P(A_{n})={\frac {|A_{k}|}{|\Omega |}}}
wie behauptet.
Im Spezialfall
n
=
k
=
S
{\displaystyle n=k=S}
(d.h. Anzahl der Züge gleich Anzahl der schwarzen Kugeln; alle schwarzen Kugeln werden gezogen) ist
h
=
(
S
;
S
,
N
,
S
)
=
1
(
N
S
)
.
{\displaystyle h=(S;S,N,S)={\frac {1}{\binom {N}{S}}}.}
Qualitätskontrolle (Beispiel) Bearbeiten
Aus einer Sendung von
N
=
10000
{\displaystyle N=10000}
Glühbirnen, welche
S
{\displaystyle S}
defekte enthalten möge, werden
n
=
100
{\displaystyle n=100}
Stück (ohne Zurücklegen) entnommen un geprüft. Die Wahrscheinlichkeit, dass unter den
100
{\displaystyle 100}
Proben genau
k
{\displaystyle k}
(höchstens
k
{\displaystyle k}
) defekt sind, ist
h
(
k
;
100
,
10000
,
S
)
{\displaystyle h(k;100,10000,S)}
oder
∑
i
=
1
k
h
(
k
;
100
,
10000
,
S
)
{\displaystyle \sum _{i=1}^{k}h(k;100,10000,S)}
Wie groß ist die Wahrscheinlichkeit, dass beim Austeilen der
N
=
32
{\displaystyle N=32}
Karten der Spieler
A
{\displaystyle A}
unter seinen
n
=
10
{\displaystyle n=10}
Karten genau
k
=
3
[
k
=
4
]
{\displaystyle k=3[k=4]}
der
S
=
4
{\displaystyle S=4}
Asse besitzt?
h
(
3
;
10
,
32
,
4
)
=
(
4
3
)
(
28
7
)
(
32
10
)
≈
0
,
073
≈
1
14
{\displaystyle h(3;10,32,4)={\frac {{\binom {4}{3}}{\binom {28}{7}}}{\binom {32}{10}}}\approx 0,073\approx {\frac {1}{14}}}
[
h
(
4
;
10
,
32
,
4
)
=
(
4
4
)
(
28
6
)
(
32
10
)
=≈
0
,
0058
≈
1
172
]
{\displaystyle [h(4;10,32,4)={\frac {{\binom {4}{4}}{\binom {28}{6}}}{\binom {32}{10}}}=\approx 0,0058\approx {\frac {1}{172}}]}
Das in 2.2.1 auftretende Ereignis
A
k
{\displaystyle A_{k}}
können wir so schreiben:
A
k
=
{
w
∈
Ω
:
X
(
w
)
=
k
}
=
X
−
1
{
k
}
{\displaystyle A_{k}=\lbrace w\in \Omega :X(w)=k\rbrace =X^{-1}\lbrace k\rbrace }
('Urbild der Menge
{
k
}
{\displaystyle \lbrace k\rbrace }
) Durch die Definition
P
′
(
{
k
}
)
=
P
(
{
w
:
X
(
w
)
=
k
}
)
≈
P
(
X
−
1
{
k
}
)
,
k
∈
Ω
{\displaystyle P'(\lbrace k\rbrace )=P(\lbrace w:X(w)=k\rbrace )\approx P(X^{-1}\lbrace k\rbrace ),k\in \Omega }
erhalten wir eine Wahrscheinlichkeitsfunktion auf
Ω
′
{\displaystyle \Omega '}
(im Beispiel gerade hypergeometrische Verteilung).
Für beliebige Ereignisse
A
′
∈
Ω
{\displaystyle A'\in \Omega }
setzt man in Verallgemeinerung der letzten Gleichung
P
′
(
A
′
)
=
P
(
{
w
:
X
(
w
)
∈
A
′
}
)
=
P
(
X
−
1
(
A
′
)
)
.
{\displaystyle P'(A')=P(\lbrace w:X(w)\in A'\rbrace )=P(X^{-1}(A')).}
Sei
P
{\displaystyle P}
eine Wahrscheinlichkeitsfunktion über
Ω
{\displaystyle \Omega }
.
Ω
′
{\displaystyle \Omega '}
sei eine weitere (nicht-leere) höchstens abzählbare Menge.
a) eine Abbildung
X
:
Ω
→
Ω
′
{\displaystyle X:\Omega \to \Omega '}
heißt Zufallsgröße (oder zufällige Größe).
b) Die durch
P
′
(
A
′
)
=
P
(
X
−
1
(
A
′
)
)
{\displaystyle P'(A')=P(X^{-1}(A'))}
,
A
′
∈
Ω
′
{\displaystyle A'\in \Omega '}
, definierte Abbildung von
S
(
Ω
′
)
{\displaystyle {\mathcal {S}}(\Omega ')}
in
[
0
,
1
]
{\displaystyle [0,1]}
heißt Bild von
P
{\displaystyle P}
unter
X
{\displaystyle X}
:
(
Ω
,
S
(
Ω
)
,
P
)
→
X
(
Ω
′
,
S
(
Ω
′
)
,
P
′
)
{\displaystyle (\Omega ,{\mathcal {S}}(\Omega ),P)\to ^{X}(\Omega ',{\mathcal {S}}(\Omega '),P')}
und
(
Ω
′
,
S
(
Ω
′
)
,
P
′
)
→
X
−
1
(
Ω
,
S
(
Ω
)
,
P
)
{\displaystyle (\Omega ',{\mathcal {S}}(\Omega '),P')\to ^{X^{-1}}(\Omega ,{\mathcal {S}}(\Omega ),P)}
Diskreter Wahrscheinlichkeitsraum (Satz) Bearbeiten
Mit dem in b) definierten
P
′
{\displaystyle P'}
gilt:
(
Ω
′
,
S
(
Ω
′
)
,
P
′
)
{\displaystyle (\Omega ',{\mathcal {S}}(\Omega '),P')}
bildet einen diskreten Wahrscheinlichkeitsraum.
Es ist zu zeigen, dass
P
′
{\displaystyle P'}
eine Wahrscheinlichkeitsverteilung über
Ω
′
{\displaystyle \Omega '}
ist.
P
′
(
A
′
)
∈
[
0
,
1
]
{\displaystyle P'(A')\in [0,1]}
(trivial)
i) Normierung:
P
′
(
Ω
′
)
=
P
(
X
−
1
(
Ω
′
)
)
=
P
(
Ω
)
=
1
{\displaystyle P'(\Omega ')=P(X^{-1}(\Omega '))=P(\Omega )=1}
ii)
σ
{\displaystyle \sigma }
- Additivität: Für eine Folge
A
1
′
,
A
2
′
,
.
.
.
{\displaystyle A_{1}',A_{2}',...}
von paarweise disjunkten Mengen aus
Ω
′
{\displaystyle \Omega '}
sind die Urbildmengen wieder paarweise disjunkt:
X
−
1
(
A
i
′
)
∩
X
−
1
(
A
j
′
)
=
X
−
1
(
A
i
′
∩
A
j
′
)
=
∅
{\displaystyle X^{-1}(A'_{i})\cap X^{-1}(A_{j}')=X^{-1}(A_{i}'\cap A_{j}')=\varnothing }
Ferner gilt:
X
−
1
(
⋃
i
A
i
′
)
=
⋃
i
X
−
1
(
A
i
′
)
{\displaystyle X^{-1}(\bigcup _{i}A_{i}')=\bigcup _{i}X^{-1}(A_{i}')}
Dann folgt:
P
′
(
⋃
i
=
1
∞
A
i
′
)
=
P
(
X
−
1
(
⋃
i
=
1
∞
A
i
′
)
)
=
P
(
⋃
i
=
1
∞
X
−
1
(
A
i
′
)
)
{\displaystyle P'(\bigcup _{i=1}^{\infty }A_{i}')=P(X^{-1}(\bigcup _{i=1}^{\infty }A_{i}'))=P(\bigcup _{i=1}^{\infty }X^{-1}(A_{i}'))}
=
∑
i
=
1
∞
P
(
X
−
1
(
A
i
′
)
)
=
∑
i
=
1
∞
P
′
(
A
i
′
)
{\displaystyle =\sum _{i=1}^{\infty }P(X^{-1}(A_{i}'))=\sum _{i=1}^{\infty }P'(A_{i}')}
Wahrscheinlichkeitsverteilung (Definition) Bearbeiten
Die durch
P
(
A
′
)
=
P
(
X
−
1
(
A
′
)
)
,
A
′
∈
Ω
′
{\displaystyle P(A')=P(X^{-1}(A')),A'\in \Omega '}
definierte Wahrscheinlichkeitsverteilung
P
′
{\displaystyle P'}
auf
Ω
′
{\displaystyle \Omega '}
heißt Wahrscheinlichkeitsverteilung von
X
{\displaystyle X}
und wird mit
P
X
{\displaystyle P_{X}}
bezeichnet.
X
{\displaystyle X}
heißt auf
P
′
{\displaystyle P'}
-verteilt.
Bemerkungen und Bezeichnungen (1) Bearbeiten
1)
X
−
1
(
A
′
)
≡
{
w
;
X
(
w
)
∈
A
′
}
{\displaystyle X^{-1}(A')\equiv \lbrace w;X(w)\in A'\rbrace }
schreibt man auch
{
A
∈
A
′
}
{\displaystyle \lbrace A\in A'\rbrace }
("Ereignis
X
{\displaystyle X}
in
A
′
{\displaystyle A'}
"). Entsprechend schreibt man statt
P
X
(
A
′
)
=
P
(
X
−
1
(
A
′
)
)
{\displaystyle P_{X}(A')=P(X^{-1}(A'))}
auch
P
(
X
∈
A
′
)
{\displaystyle P(X\in A')}
("Wahrscheinlichkeit, dass
X
{\displaystyle X}
in
A
′
{\displaystyle A'}
ist").
2) Die zu
P
′
≡
P
X
{\displaystyle P'\equiv P_{X}}
gehörende Wahrscheinlichkeitsfunktion auf
Ω
′
{\displaystyle \Omega '}
lautet
w
→
P
X
(
{
w
′
}
)
=
P
(
X
=
w
′
)
{\displaystyle w\to P_{X}(\lbrace w'\rbrace )=P(X=w')}
.
3) Zu jedem Wahrscheinlichkeitsraum
(
Ω
,
S
(
Ω
)
,
P
)
{\displaystyle (\Omega ,{\mathcal {S}}(\Omega ),P)}
gibt es die Zufallsgröße
I
d
:
Ω
→
Ω
,
w
→
I
d
(
w
)
=
w
{\displaystyle Id:\Omega \to \Omega ,w\to Id(w)=w}
. in diesem Fall ist
Ω
′
=
Ω
,
P
′
=
P
{\displaystyle \Omega '=\Omega ,P'=P}
.
Bemerkungen und Bezeichnungen (2) Bearbeiten
4) Im Fall
Ω
′
⊂
R
{\displaystyle \Omega '\subset \mathbb {R} }
(z.B.
Ω
=
R
+
{\displaystyle \Omega =\mathbb {R} _{+}}
o.ä.) spricht man auch von einer Zufallsvariablen (statt Zufallsgröße). Beachte, dass diese eine schiefe (aber eingebürgerte) bezeichnung ist:
w
{\displaystyle w}
ist die Variable,
X
:
Ω
→
R
{\displaystyle X:\Omega \to \mathbb {R} }
die Funktion. Im Fall
Ω
⊂
R
k
{\displaystyle \Omega \subset \mathbb {R} ^{k}}
spricht man von einem Zufallsvektor.
5) Da Zufallsvariablen reellwertige Funktionen sind, kann man mit ihnen üblicherweise Rechnen:
(
X
+
Y
)
(
w
)
=
X
(
w
)
+
Y
(
w
)
{\displaystyle (X+Y)(w)=X(w)+Y(w)}
(
X
⋅
Y
)
(
w
)
=
X
(
w
)
⋅
Y
(
w
)
{\displaystyle (X\cdot Y)(w)=X(w)\cdot Y(w)}
(
e
X
)
(
w
)
=
e
X
(
w
)
{\displaystyle (e^{X})(w)=e^{X(w)}}
|
X
|
(
w
)
=
|
X
(
w
)
|
{\displaystyle |X|(w)=|X(w)|}
n
{\displaystyle n}
-maliges Würfeln. Auf
(
Ω
,
S
(
Ω
)
,
P
)
{\displaystyle (\Omega ,{\mathcal {S}}(\Omega ),P)}
,
Ω
=
{
1
,
.
.
.
,
6
}
n
=
{
(
a
1
,
.
.
.
,
a
n
)
:
a
i
∈
{
1
,
.
.
.
,
6
}
}
,
P
{\displaystyle \Omega ={\lbrace 1,...,6\rbrace }^{n}=\lbrace (a_{1},...,a_{n}):a_{i}\in \lbrace 1,...,6\rbrace \rbrace ,P}
Gleichverteilung auf
Ω
{\displaystyle \Omega }
, definiere
X
:
Ω
→
Ω
′
=
{
0
,
.
.
.
,
n
}
{\displaystyle X:\Omega \to \Omega '=\lbrace 0,...,n\rbrace }
durch
X
(
w
)
=
|
{
i
∈
{
1
,
.
.
.
,
n
}
:
a
i
=
6
}
|
{\displaystyle X(w)=|\lbrace i\in \lbrace 1,...,n\rbrace :a_{i}=6\rbrace |}
("Anzahl Sechser").
Behauptung:
P
X
(
{
k
}
)
≡
P
(
X
−
k
)
=
(
n
k
)
(
1
6
)
k
(
5
6
)
n
−
k
,
k
=
0
,
.
.
.
,
n
{\displaystyle P_{X}(\lbrace k\rbrace )\equiv P(X-k)={\binom {n}{k}}({\frac {1}{6}})^{k}({\frac {5}{6}})^{n-k},k=0,...,n}
Binomialverteilung (Definition) Bearbeiten
Die Wahrscheinlichkeitsverteilung auf
{
1
,
.
.
.
,
n
}
{\displaystyle \lbrace 1,...,n\rbrace }
definiert durch
P
k
=
(
n
k
)
p
k
⋅
(
1
−
p
)
n
−
k
,
k
=
0
,
.
.
.
,
n
{\displaystyle P_{k}={\binom {n}{k}}p^{k}\cdot (1-p)^{n-k},k=0,...,n}
heißt Binomialverteilung mit den Parametern
n
{\displaystyle n}
und
p
{\displaystyle p}
, kurz
B
(
n
,
p
)
{\displaystyle B(n,p)}
-Verteilung (
0
≤
p
≤
1
{\displaystyle 0\leq p\leq 1}
). Die im Beispiel angegebene Zufallsvariable
X
{\displaystyle X}
ist also
B
(
n
,
1
6
)
{\displaystyle B(n,{\frac {1}{6}})}
-verteilt.
Indikatorvariablen (Beispiel) Bearbeiten
Sei
A
⊂
Ω
{\displaystyle A\subset \Omega }
. Die Zufallsvariable
1
A
:
Ω
→
{
0
,
1
}
{\displaystyle 1_{A}:\Omega \to \lbrace 0,1\rbrace }
,
1
A
(
w
)
=
{
1
,
w
∈
A
0
,
w
∉
A
{\displaystyle 1_{A}(w)=\left\{{\begin{array}{ll}1,&w\in A\\0,&w\notin A\end{array}}\right.}
heißt Indikatorvariable von
A
{\displaystyle A}
. Umgekehrt stellt jede
{
0
,
1
}
{\displaystyle \lbrace 0,1\rbrace }
-wertige Zufallsvariable
X
{\displaystyle X}
eine Indikatorvariable
1
A
{\displaystyle 1_{A}}
dar, nämlich
A
=
{
w
∈
Ω
:
X
(
w
)
=
1
}
=
{
X
=
1
}
.
{\displaystyle A=\lbrace w\in \Omega :X(w)=1\rbrace =\lbrace X=1\rbrace .}
Sei eine Wahrscheinlichkeitsverteilung
P
{\displaystyle P}
auf
Ω
{\displaystyle \Omega }
gegeben und setze
p
=
P
(
A
)
{\displaystyle p=P(A)}
. Dann ist die Verteilung von
X
=
1
A
{\displaystyle X=1_{A}}
gegeben durch
P
(
X
−
1
)
=
p
,
P
(
X
=
0
)
=
1
−
p
{\displaystyle P(X-1)=p,P(X=0)=1-p}
.
X
{\displaystyle X}
heißt bernoulliverteilt mit Paramter p, kurz
B
(
1
,
p
)
{\displaystyle B(1,p)}
-verteilt.
Für Indikatorvariablen:
1
A
∩
B
=
1
A
⋅
1
B
{\displaystyle 1_{A\cap B}=1_{A}\cdot 1_{B}}
1
A
∪
B
=
1
A
+
1
B
+
1
A
∩
B
{\displaystyle 1_{A\cup B}=1_{A}+1_{B}+1_{A\cap B}}
1
A
¯
=
1
−
1
A
,
(
1
=
1
Ω
)
{\displaystyle 1_{\bar {A}}=1-1_{A},(1=1_{\Omega })}
Die nun folgenden Erläuterungen beziehen sich auf den Fall von mehreren, aber auf dem gleichen Wahrscheinlichkeitsraum
(
Ω
,
S
(
Ω
)
,
P
)
{\displaystyle (\Omega ,{\mathcal {S}}(\Omega ),P)}
definierten Zufallsvariablen.
Gemeinsame Verteilung (Definition) (1) Bearbeiten
Gegeben
k
{\displaystyle k}
Zufallsvariablen
X
1
,
.
.
.
X
k
,
X
i
:
Ω
→
Ω
i
′
⊂
R
{\displaystyle X_{1},...X_{k},X_{i}:\Omega \to \Omega _{i}'\subset \mathbb {R} }
.
Sei
X
=
(
X
1
,
.
.
.
,
X
k
)
:
Ω
→
Ω
′
=
Ω
1
1
′
×
.
.
.
×
Ω
k
′
⊂
R
k
{\displaystyle X=(X_{1},...,X_{k}):\Omega \to \Omega '=\Omega _{1}1'\times ...\times \Omega _{k}'\subset \mathbb {R} ^{k}}
der aus ihnen gegildete Zufallsvektor. Dann heißt die Verteilung
P
X
=
P
(
X
1
,
.
.
.
,
X
k
)
{\displaystyle P_{X}=P_{(X_{1},...,X_{k})}}
auch gemeinsame Verteilung der
X
1
,
.
.
.
,
X
k
;
P
X
i
{\displaystyle X_{1},...,X_{k};P_{X_{i}}}
heißt auch i-te Rand- oder Marginalverteilung.
Die Randverteilung
P
X
i
{\displaystyle P_{X_{i}}}
lässt sich aus der gemeinsamen Verteilung
P
X
{\displaystyle P_{X}}
wie folgt berechnen. Sei
A
i
′
⊂
Ω
i
′
{\displaystyle A_{i}'\subset \Omega '_{i}}
. Setze
A
′
=
Ω
1
′
×
.
.
.
×
Ω
i
−
1
′
×
A
i
′
×
Ω
i
+
1
′
×
.
.
.
×
Ω
k
′
.
{\displaystyle A'=\Omega '_{1}\times ...\times \Omega '_{i-1}\times A'_{i}\times \Omega '_{i+1}\times ...\times \Omega _{k}'.}
Gemeinsame Verteilung (Definition) (2) Bearbeiten
Dann ist
X
−
1
(
A
′
)
=
{
w
:
X
1
(
w
)
∈
Ω
1
′
,
.
.
.
,
X
i
(
w
)
∈
A
i
′
,
.
.
.
,
X
k
(
w
)
∈
Ω
k
′
}
{\displaystyle X^{-1}(A')=\lbrace w:X_{1}(w)\in \Omega _{1}',...,X_{i}(w)\in A_{i}',...,X_{k}(w)\in \Omega _{k}'\rbrace }
=
{
w
:
X
i
(
w
)
∈
A
i
′
}
=
X
i
−
1
(
A
i
′
)
{\displaystyle =\lbrace w:X_{i}(w)\in A_{i}'\rbrace =X_{i}^{-1}(A_{i}')}
P
X
i
(
A
i
′
)
=
P
(
X
i
−
1
(
A
i
′
)
)
=
P
(
X
−
1
(
A
′
)
)
=
P
X
(
A
′
)
{\displaystyle P_{X_{i}}(A'_{i})=P(X_{i}^{-1}(A_{i}'))=P(X^{-1}(A'))=P_{X}(A')}
Werfen zweier (unterschiedbarer) Würfel. Setze
Ω
=
{
1
,
.
.
.
,
6
}
2
,
w
=
{
j
,
k
}
∈
Ω
,
1
≤
j
,
k
≤
6
{\displaystyle \Omega =\lbrace 1,...,6\rbrace ^{2},w=\lbrace j,k\rbrace \in \Omega ,1\leq j,k\leq 6}
und definiere die Zufallsvariablen
X
i
:
Ω
→
Ω
i
′
=
{
1
,
.
.
.
,
6
}
,
i
=
1
,
2
{\displaystyle X_{i}:\Omega \to \Omega '_{i}=\lbrace 1,...,6\rbrace ,i=1,2}
gemäß
X
1
=
(
(
j
,
k
)
)
=
j
[
X
2
=
(
(
j
,
k
)
)
=
k
]
{\displaystyle X_{1}=((j,k))=j[X_{2}=((j,k))=k]}
die Augenzahl des 1. [2.] Würfels.
Hier ist
Ω
′
=
Ω
1
′
×
Ω
2
′
=
Ω
{\displaystyle \Omega '=\Omega _{1}'\times \Omega '_{2}=\Omega }
und die gemeinsamer Verteilung der
X
1
,
X
2
{\displaystyle X_{1},X_{2}}
auf
Ω
′
{\displaystyle \Omega '}
ist
P
(
X
1
,
X
2
)
(
{
(
j
,
k
)
}
)
=
1
|
Ω
′
|
=
1
36
{\displaystyle P_{(X_{1},X_{2})}(\lbrace (j,k)\rbrace )={\frac {1}{|\Omega '|}}={\frac {1}{36}}}
für alle
j
,
k
=
1
,
.
.
.
,
6
{\displaystyle j,k=1,...,6}
. Die Randverteilung von
X
1
{\displaystyle X_{1}}
erhalten wir aus der letzten Gleichung der Definition wie folgt:
P
X
1
(
{
j
}
=
P
(
X
1
,
X
2
)
(
{
j
}
×
{
1
,
.
.
.
,
6
}
)
=
∑
k
=
1
6
P
(
X
1
,
X
2
)
(
{
(
j
,
k
)
}
)
=
6
36
=
1
6
{\displaystyle P_{X_{1}}(\lbrace j\rbrace =P_{(X_{1},X_{2})}(\lbrace j\rbrace \times \lbrace 1,...,6\rbrace )=\sum _{k=1}^{6}P_{(X_{1},X_{2})}(\lbrace (j,k)\rbrace )={\frac {6}{36}}={\frac {1}{6}}}