8  Konvergenz von Zufallsvariablen

Aus den Analysisgrundvorlesungen kennt man üblicherweise das Konzept der punktweisen Konvergenz von Funktionsfolgen (fn)nN, wobei fn:DR für alle nN eine reellwertige Funktion ist. Und wir schreiben fnf punktweise, falls für alle xD gilt limnfn(x)=f(x).

Wie mittlerweile bekannt sein sollte, sind Zufallsvariablen auch nichts anderes als (messbare) Funktionen. Somit könnte man das Konzept genauso gut für Folgen (Xn)nN von Zufallsvariablen Xn:ΩR anwenden. Allerdings haben wir auch schon mehrfach festgestellt, dass uns die konkreten Stellen ωΩ im Definitionsbereich von Xn nur wenig interessieren. Wir haben auch festgestellt, dass Xn(ω) für konkrete ω sogar sehr wilde Dinge tun kann, solange die entsprechenden ω eine Nullmenge bilden, d.h. für die Vereinigung A aller Stellen ω an denen X komische Dinge tut, gilt P(A)=0 (siehe Bemerkung 3.1 und Beispiel 3.2). Dementsprechend ergibt es auch für Konvergenzbetrachtungen Sinn, diese Nullmengen zu ignorieren. Dies führ uns zur fast sicheren Konvergenz.

Definition 8.1 (Fast sichere Konvergenz) Es sei (Xn)nN eine Folge von Zufallsvariablen Xn. Wir sagen Xn konvergiert fast sicher gegen eine Zufallsvariable X, falls (1)P(limnXn=X)=1 für n. In diesem Fall schreiben wir Xnf.s.X.

Auf den ersten Blick mag Gleichung (1) etwas abstrakt wirken. Letztendlich komprimiert diese Gleichung lediglich die Beschreibung zu Beginn dieses Kapitels. Dennoch fällt es zunächst schwer, die Wahrscheinlichkeit in Gleichung (1) zu berechnen, um die Definitionsvoraussetzung zu überprüfen. Glücklicherweise gibt es ein praktisches Theorem, das uns hilft, fast sichere Konvergenz auf andere Weise nachzuweisen.

Theorem 8.1 Es seien X,X1, beliebige Zufallsvariablen. Nun gilt Xnf.s.X für n, falls (2)n=1P(|XnX|>ε)< für alle ε>0.

Bemerkung 8.1  

  1. Damit die Bedingung (2) in Theorem 8.1 erfüllt sein kann, muss für alle ε>0 gelten (3)P(|XnX|>ε)0 für n. Dies bedeutet, dass die Wahrscheinlichkeit, dass Xn und X sich beliebig wenig unterscheiden, gegen Null geht.

  2. Falls die Bedingung (3) erfüllt ist, spricht man auch davon, dass Xn in Wahrscheinlichkeit gegen X konvergiert. Wir stellen also fest, dass wegen Bedingung (2) gilt: Hinreichend schnelle Konvergenz in Wahrscheinlichkeit impliziert fast sichere Konvergenz (hinreichend schnell ist hierbei so zu verstehen, dass die Summe (2) endlich ist).

Beispiel 8.1 Es sei Xn U(0,n1) für alle nN. Wir stellen fest, dass X1U(0,1), X2U(0,0.5), usw. Dementsprechend ist Xn mit steigendem n auf einem immer kleiner werdenden Intervall gleichverteilt. Da n10 für n, lässt sich intuitiv überlegen, dass Xn gegen die (langweilige konstante) Zufallsvariable 0 konvergiert.

Nach Bemerkung 8.1 könnte diese Konvergenz im Sinne der Konvergenz in Wahrscheinlichkeit verlaufen und wenn dies hinreichend schnell passiert, dann können wir sogar fast sichere Konvergenz über Theorem 8.1 folgern. Rechnen wir also zunächst Bedingung (3) nach. Dazu sei ε>0 und es gilt P(|Xn0|>ε)=P(Xn>ε)=(1nε)1{ε(0,n1)}0
für n. Also wissen wir, dass Xn in Wahrscheinlichkeit gegen 0 konvergiert. Außerdem ist wegen der Indikatorfunktion 1{ε(0,n1)} die Summe in Bedingung (2) als Summe von endlich vielen Termen auch endlich ist. Damit gilt Xnf.s.0.

In Kapitel 6 haben wir den Erwartungswert EX einer Zufallsvariable X kennengelernt und diesen als den Wert interpretiert, der “im Mittel’’ angenommen wird. Allerdings hat bereits Beispiel 6.1 gezeigt, dass diese Interpretation ein wenig hinkt. Schließlich haben wir dort festgestellt, dass wir für eine gewürfelten Zahl X einen Erwartungswert von EX=3.5 erhalten. Allerdings ist es unmöglich eine 3.5 zu würfeln (jedenfalls mit einem Standardwürfel).

Nachdem wir nun das Konzept von fast sicherer Konvergenz kennen, können wir unser Verständnis des Erwartungswertes aufpolieren.

Theorem 8.2 (Starkes Gesetz der großen Zahlen) Es seien Xn, nN, unabhängige und identisch verteilte Zufallsvariablen. Dann existiert ein endlicher Erwartungswert μ=EX1< genau dann, wenn (4)1nk=1nXkf.s.μ für n.

Bemerkung 8.2  

  1. Somit kann man den Erwartungswert einer Zufallsvariable X als arithmetisches Mittel von unendlich vielen, unabhängigen Kopien von X betrachten.

  2. Die Bezeichnung “starkes’’ Gesetz bezieht sich im Wesentlichen darauf, dass die Konvergenz (4) als fast sichere Konvergenz zu verstehen ist. Das schwache Gesetz der großen Zahlen versteht diese Konvergenz allerdings nur als Konvergenz in Wahrscheinlichkeit.

Beispiel 8.2 Mithilfe des SGGZ und der Überlegung E1(A)=P(A) für ein Ereignis AF erhält man leicht, dass für unabhängige Kopien Xi, iN, der Zufallsvariable X=1(A) gilt 1nk=1nXk=#{Xk=1}nf.s.P(A), wobei #{Xk=1} angibt, wie oft das Ereignis A eingetreten ist. Somit gibt das starke Gesetz der großen Zahlen auch eine Begründung, warum man die relative Häufigkeit als Wahrscheinlichkeit interpretiert.

Konkreter können wir das folgende Würfelspiel betrachten. Ein Würfel wird maximal 4 mal geworfen und wir gewinnen das Spiel, wenn wir eine 6 würfeln. Wir definieren nun Xk=1{k-tes Spiel gewonnen}, k=1,,n, wobei nN. Somit gilt Xk Ber(p) mit p0.5177 und wir nehmen an, dass die Xk unabhängig voneinander sind. Nach dem SGGZ wissen wir nun, dass die relative Häufigkeit der Gewinne nach n Spielen für n gegen p0.5177 konvergiert (siehe Abbildung 8.1).

Abbildung 8.1: Relative Häufigkeit der Gewinne nach n simulierten Runden des Würfelspiels aus Beispiel 8.2. Die rote Linie markiert die Gewinnwahrscheinlichkeit p0.5177.

In den vorangegangenen Kapitel haben wir die Verteilungsfunktion FX einer Zufallsvariable X als wertvolle Charakteristik eingeführt. Außerdem haben wir zu Beginn dieses Kapitels die fast sichere Konvergenz als abgeschwächte Version der punktweisen Konvergenz von Funktionenfolgen kennengelernt. Somit stellt sich die Frage, ob wir die Konvergenz von Zufallsvariablen Xn auch über die punktweise Konvergenz von Funktionenfolgen, bestehend aus den zugehörigen Verteilungsfunktionen FXn, beschreiben können. Tatsächlich ist dies möglich, führt aber (wiedermal) zu einem neuen Konvergenzbegriff.

Definition 8.2 (Konvergenz in Verteilung) Es seien X und Xn, nN Zufallsvariablen mit zugehörigen Verteilungsfunktionen FXn und FX. Wir sagen, dass Xn für n in Verteilung gegen X konvergiert, falls FXn(x)FX(x) für alle Stetigkeitspunkte x von FX für n und schreiben XndX.

Bemerkung 8.3  

  1. Streng genommen ist dies eine Konvergenz von Verteilungen PX und keine Konvergenz von Zufallsvariablen. Allerdings nimmt man diese leichte Durchmischung von Begrifflichkeiten in Kauf, da Verteilungsfunktionen und Zufallsvariablen, wie wir wissen, sehr eng in Verbindung stehen.

  2. Intuitiv lässt sich vermuten, dass, wenn Zufallsvariablen Xn fast sicher oder in Wahrscheinlichkeit gegen X konvergieren, auch die Verteilungsfunktionen der Xn gegen die Verteilungsfunktion von X konvergieren. Tatsächlich lässt sich dies auch beweisen. Die Umkehrung gilt allerdings nicht.

  3. Insgesamt haben wir also  Fast sichere Konvergenz Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung.

Die Konvergenz in Verteilung lässt sich sehr gut visualisieren. Dies haben wir bereits in Beispiel 4.5 bzw. Abbildung 4.3 mithilfe von Histogrammen (als “grafische Approximation’’ einer Verteilung) demonstriert. In dieser Abbildung haben wir gesehen, wie die mit geeigneten Koeffizienten an und bn zentrierte und normierte Summe von unabhängigen und identisch verteilten Zufallsvariablen Xn gegen die Standardnormalverteilung konvergiert. In Zeichen haben wir gezeigt, dass X1++XnanbndZ, wobei ZN(0,1) eine standardnormalverteilte Zufallsvariable ist. Die konkrete Zentrierung an und Normierung bn ist in Beispiel 4.5 mehr oder weniger vom Himmel gefallen. Nun haben wir sämtliches Handwerkszeug zur Verfügung, um die Koeffizienten beleuchten zu können. Diese ergeben sich aus einem der fundamentalsten Theoreme der Stochastik.

Theorem 8.3 (Zentraler Grenzwertsatz - ZGWS) Es seien Xn, nN unabhängige und identisch verteilte Zufallsvariablen mit EX1=μR und Var(X1)=σ2(0,). Dann gilt für alle xR P(X1++Xnnμnσ2x)Φ(x) für n, wobei Φ die Verteilungsfunktion einer standardnormalverteilten Zufallsvariable ist.

Bemerkung 8.4  

  1. Die geeigneten Koeffizienten sind also gegeben durch an=nEX1 und bn=nVar(X1).

  2. Betrachten wir unabhängige und identisch verteile Zufallsvariablen Xn, nN, mit EX1=0 und Var(X1)=1, so besagt der ZGWS, dass mit Sn=X1++Xn gilt (5)SnndZN(0,1). Allerdings lässt sich zeigen, dass mit Wahrscheinlichkeit 1 lim supnSnn= und lim infnSnn=.

(Zur Erinnerung sei hierbei erwähnt, dass der Limes superior bzw. Limes inferior einer Folge von reellen Zahlen der größte bzw. kleinste Häufungspunkt ist. Im Falle von Funktionenfolgen ist dies punktweise zu verstehen.)

Somit kann man die Konvergenz (5) nicht alternativ als fast sichere Konvergenz auffassen, da lim inflim sup. Allerdings wissen wir durch das SGGZ, dass Snnf.s.EX1=0 für n. Somit erkennt man, dass die Normierung einen entscheidenden Einfluss auf die Konvergenz(art) hat.

Dazu hat sich die Bezeichnung “Gesetze der großen Zahlen” für Grenzwertsätze mit Normierung n1 und “Zentrale Grenzwertsätze” für Grenzwertsätze mit Normierung n0.5 eingebürgert.

Eine Form, die zwischen diesen beiden Normierungen liegt, beschreiben die “Gesetze des iterierten Logarithmus’’. Diese nutzen eine Normierung der Form 2nloglogn und beschreiben das asymptotische Verhalten von Sn.