Endlicher Wahrscheinlichkeitsraum/Beispiele/Einführung/Textabschnitt

Wenn man eine Münze wirft, so kann Kopf oder Zahl fallen, und es gibt keinen Grund, warum das eine häufiger als das andere eintreten sollte. Bei einem einzelnen Wurf kann natürlich nur ein Ereignis eintreten. Wenn man den Münzwurf oft wiederholt, so kann man im Allgemeinen beobachten, dass die Anzahl der Kopfwürfe in der Nähe der Anzahl der Zahlwürfe liegt. Aber schon die Präzisierung dieser Aussage ist nicht unmittelbar klar. Wenn man beispielsweise -mal wirft, und es tritt -mal Kopf ein, was heißt das? Die Abweichung von Kopfwürfen zu Zahlwürfen ist immerhin

also jedenfalls größer als bei einem Wurf. Ein sinnvolles Vergleichsmaß ist

also der Quotient aus der Anzahl der Kopfwürfe und der Gesamtzahl der Durchführungen (Würfe). Dieser Quotient heißt relative Häufigkeit und ist relativ nah an . Es ist eine Erfahrungstatsache, dass diese relative Häufigkeit bei wachsender Durchführungsanzahl gegen „strebt“. Diese Aussage ist aber vage und keine Konvergenzaussage. Dennoch ist diese Vorstellung die Motivation für die folgende Begriffsbildung, mit der man wiederum das Verhalten bei oft durchgeführten vom Zufall abhängigen Experimenten erklären und quantitativ erfassen kann.


Zu einer endlichen Menge nennt man eine Abbildung

mit

eine (diskrete) Wahrscheinlichkeitsdichte auf .

Diese Benennung verwendet man eigentlich nur, wenn man eine wahrscheinlichkeitstheoretische Interpretation beabsichtigt. Statt diskrete Wahrscheinlichkeitsdichte sagt man auch Zähldichte. Unter sollte man sich die möglichen Ausgänge eines Experimentes vorstellen, wobei die Wahrscheinlichkeit angibt, dass bei dem Experiment der Ausgang gleich ist. Das Ereignis tritt also mit Wahrscheinlicheit ein. Die Wahrscheinlichkeit eines Ereignisses wird also durch eine reelle Zahl zwischen und ausgedrückt, bei Wahrscheinlichkeit spricht man von einem unmöglichen Ereignis und bei Wahrscheinlichkeit von einem sicheren Ereignis. Gelegentlich drückt man Wahrscheinlichkeiten auch mit Prozentzahlen aus.


Auf einer endlichen Menge sei eine diskrete Wahrscheinlichkeitsdichte gegeben. Dann nennt man jede Teilmenge ein Ereignis und man nennt

die Wahrscheinlichkeit von .

Ein Element nennt man auch ein Elementarereignis.


Eine endliche Menge zusammen mit einer fixierten diskreten Wahrscheinlichkeitsdichte und mit der Potenzmenge aller Ereignisse nennt man einen endlichen Wahrscheinlichkeitsraum.


Auf einem endlichen Wahrscheinlichkeitsraum heißt die Abbildung

ein endliches Wahrscheinlichkeitsmaß.

Man spricht manchmal auch von einer Verteilung statt von einem Wahrscheinlichkeitsmaß.

Auf einer endlichen Menge sind eine Wahrscheinlichkeitsdichte und ein Wahrscheinlichkeitsmaß äquivalente mathematische Objekte. Die Dichte definiert für jedes Ereignis das Maß

und umgekehrt ist durch das Maß über

eine Wahrscheinlichkeitsdichte festgelegt.



Wir betrachten die Menge mit der Wahrscheinlichkeitsdichte

Es gibt Ereignisse. Die Wahrscheinlichkeit des Ereignisses ist beispielsweise

die Wahrscheinlichkeit des Ereignisses ist


Eine leere Menge kann kein Wahrscheinlichkeitsraum sein, bei einer einelementigen Menge muss der einzige Punkt die Wahrscheinlichkeit besitzen. Bei einer zweielementigen Menge spricht man von einer Bernoulli-Verteilung.


Es sei . Die endliche Wahrscheinlichkeitsdichte auf mit

und

heißt Bernoulli-Verteilung.



Es sei ein endlicher Wahrscheinlichkeitsraum.

Dann gelten folgende Aussagen.

  1. Es ist und .
  2. Für Teilmengen ist .
  3. Für (paarweise) disjunkte Ereignisse , , ist
  4. Für das komplementäre Ereignis zu einem Ereignis gilt
  5. Für zwei Ereignisse und ist

Es sei die zugehörige Wahrscheinlichkeitsdichte.

  1. Die leere Summe ist gleich , die zweite Eigenschaft gehört zur Definition einer endlichen Wahrscheinlichkeitsdichte.
  2. Ist klar, da die Werte der Dichte nichtnegativ sind.
  3. Es ist
  4. Folgt aus (3).
  5. Folgt aus (3), da man disjunkt in die drei Mengen , und zerlegen kann und somit
    ist.


Die Eigenschaft (2) heißt die Monotonie und die Eigenschaft (3) heißt die Additivität eines Wahrscheinlichkeitsmaßes.