Kurs:Stochastik/Schwaches Gesetz der großen Zahlen

Einführung

Bearbeiten

In dieser Lerneinheit werden schwache Gesetze der großen Zahlen behandelt. Diese spielen in der Statistik eine besondere Rolle, wenn durch Versuchswiederholungen eine unbekannte Wahrscheinlichkeit geschätzt werden soll.

Schwaches Gesetz der großen Zahlen - Bernoulli

Bearbeiten

Seien   für alle   Bernoulli-verteilte, stochastisch unabhängige Zufallsgrößen mit der Trefferwahrscheinlichkeit   und   die relative Häufigkeit nach der  -ten Versuchswiederholung. Dann konvergiert   nach Wahrscheinlichkeit gegen  . Formal:

 

Bemerkung - Konvergenz nach Wahrscheinlichkeit

Bearbeiten

Der folgende Ausdruck bedeutet, dass die Wahrscheinlichkeit von Ausreißern der relativen Häufigkeit   von mindesten mehr als   von der theoretischen Wahrscheinlichkeit des Bernoulli-Experiments   mit steigender Anzahl der Versuchswiederholungen   gegen 0 geht.

 

Schätzer für unbekannte Trefferwahrscheinlichkeiten

Bearbeiten

Diese Aussage liefert damit als Ergebnis, dass man mit einer möglichst großen Anzahl der Versuchswiederholung eine unbekannte Trefferwahrscheinlichkeiten immer besser schätzen kann. Da die Versuchswiederholungen auf zufälligen Experimenten beruhen, ist dies allerdings eine schwächere Aussage als die deterministische Konvergenz eines Terms gegen einen Grenzwert, den Sie aus der Analysis kennen.

Beweisidee - Schwaches GGZ nach Bernoulli

Bearbeiten

Das schwache Gesetz der großen Zahlen wird im Wesentlicher durch die Anwendung der Tschebyscheff-Ungleichung gezeigt. Dabei wird

  • die Linearität des Erwartungswertes   verwendet und
  • durch die stochastische Unabhängigkeit der Versuchwiederholungen   entfallen die Kovarianzen bei der Berechnung der Varianz von  

Beweis - Schwaches GGZ nach Bernoulli

Bearbeiten

Für die Anwendung der Tschebyscheff-Ungleichung muss man zunächst den Erwartungswert und die Varianz von der relativen Häufigkeit   berechnen.

Beweisschritt 1

Bearbeiten

Die Linearität des Erwartungswertes liefert den Erwartungswert der relativen Häufigkeit   wie folgt:  

Beweisschritt 2

Bearbeiten

Für die Berechnung der Varianz liefert die stochastische Unabhängigkeit der Zufallsgrößen   die paarweise Unkorrelliertheit und damit die Varianz der relativen Häufigkeit   wie folgt:

 

Beweisschritt 3 - Anwendung Tschebyscheff-UG

Bearbeiten

Mit den obigen Berechnungen zur relativen Häufigkeit kann man nun die Varianz und den Erwartungswert in die Tschebyscheff-Ungleichung einsetzen und man erhält mit   und   die Aussage:

 

für alle  .

Beweisschritt 4 - Grenzwertübergang

Bearbeiten

Lässt man die Anzahl der Versuchswiederholungen   gegen unendlich laufen, erhält man das schwache GGZ nach Bernoulli:

 

für alle  .

q.e.d.

Schwaches Gesetz der großen Zahlen

Bearbeiten

Man sagt, eine Folge von Zufallsvariablen   in mit   genüge dem schwachen Gesetz der großen Zahlen, wenn für

 

für alle positiven Zahlen   gilt:

 

also wenn die arithmetischen Mittel der zentrierten Zufallsvariablen   in Wahrscheinlichkeit gegen   konvergieren.

Bemerkung - Schwaches Gesetz der großen Zahlen

Bearbeiten

Es gibt verschiedene Voraussetzungen, unter denen das schwache Gesetz der großen Zahlen gilt. Dabei werden teils Forderungen an die Momente oder an die Unabhängigkeit gestellt. Bedeutsame Voraussetzungen sind:

  • Sind   paarweise unabhängige Zufallsvariablen, die identisch verteilt sind und deren Erwartungswert existiert, dann gilt das schwache Gesetz der großen Zahlen.
  • Sind   paarweise unkorrelierte Zufallsvariablen und ist die Folge ihrer Varianzen beschränkt, so gilt das schwache Gesetz der großen Zahlen.

Insbesondere lässt sich in der zweiten Aussage die Forderung der Beschränktheit der Varianzen etwas allgemeiner fassen.

Siehe auch

Bearbeiten


Seiteninformation

Bearbeiten

Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.

Wiki2Reveal

Bearbeiten

Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Kurs:Stochastik' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.