3  Zufallsvariablen

Im Jahr 1901 hat der italienische Mathematiker Mario Lazzarini das Buffonsche Nadelexperiment durchgeführt, um π zu approximieren. Angeblich baute er dafür eine Maschine, um eine Nadel 3408 mal zu werfen und zu zählen, wie oft die Nadel so fällt, dass sie ein Gitter aus parallelen Linien kreuzt.

Die theoretischen Grundlagen des Experiments sind unumstritten, jedoch werden Lazzarinis Ergebnisse teilweise bezweifelt. Hauptkritik besteht in der Frage, ob die Anzahl der Versuche gerade so gewählt wurde, um die damalige Approximation π355113 möglichst gut zu treffen. Außerdem wird daran gezweifelt, ob die Nadelwurfmaschine tatsächlich existierte und die Nadelwürfe überhaupt stattgefunden haben.

Letztendlich ist es für uns egal, ob Lazzarini die Nadel (selber) geworfen hat oder nicht. Interessant ist an dieser Stelle dennoch, dass der komplette Versuchsaufbau darauf ausgelegt ist, lediglich eine Zahl X zu ermitteln. Diese Zahl soll uns angeben, wie oft die Nadel das Liniengitter gekreuzt hat. Auf gewisse Weise fasst diese Zahl X den relevanten Teil des Experimentes zusammen und lässt alle irrelevanten Informationen wie z.B. die genaue Nadelposition fallen. Damit diese Zusammenfassung eines Zufallsexperiments durch eine Variable auf einer fundierten mathematischen Basis steht, müssen wir dies sauber definieren.

Definition 3.1 (Zufallsvariable) Es sei (Ω,F,P) ein Wahrscheinlichkeitsraum. Dann heißt die Abbildung X:ΩR Zufallsvariable, falls sie messbar bzgl. der Borel-σ-Algebra B(R) ist, d.h. X1(B)={ωΩ|X(ω)B}F. für alle BB(R).

Wie eben erwähnt ist eine Zufallsvariable also einfach eine Funktion, die ein Zufallsexperiment / Ereignis aus dem Grundraum nimmt und diesem Versuchsausgang eine reelle Zahl zuweist. Die einzige Bedingung, die wir zusätzlich stellen, ist die Existenz der Wahrscheinlichkeit P(XB) für alle BB(R), d.h. egal welchen Wert die Zufallsvariable annimmt, die Wahrscheinlichkeit, dass dies passiert, ist wohldefiniert. Diese Wohldefiniertheit wird dadurch gesichert, dass die zugehörige Menge in der σ-Algebra F enthalten ist.

Anmerkung. Falls uns mehr als eine einzelner Wert interessiert, so können wir die Werte in einem Vektor zusammenfassen. X:ΩR ist dann eine Abbildung in den Rn und statt Mengen BB(R) zu betrachten, müssen wir nun Mengen BB(Rn) untersuchen.

Beispiel 3.1 Es sei (Ω,F,P) ein Wahrscheinlichkeitsraum, wobei Ω={1,2,3,4,5} und F={,Ω, {1,2,3,4}, {3,4,5}, {5}, {1,2}, {1,2,5}, {3,4}}.

  1. Definiere X:ΩR, X(ω)=ω. Dann gilt X1({3})={3}F und somit ist X keine Zufallsvariable.

  2. Definiere Y:ΩR, Y(ω)=1{3,4,5}(ω) und bestimme die Urbilder Y1(B)={,0B,1B{1,2},0B,1B{3,4,5},0B,1BΩ,0B,1B für BB(R). Also ist Y eine Zufallsvariable.

In diesen Fällen war es einfach, alle relevanten Urbilder händisch zu bestimmen. Jedoch kann dies für komplizierte Zufallsvariablen anders sein. Praktischerweise gibt es ein Theorem, dass uns direkt die Messbarkeit einer Abbildung X gibt, indem nur eine bestimme Klasse von Urbildern betrachtet wird.

Theorem 3.1 Es sei (Ω,F,P) ein Wahrscheinlichkeitsraum und X:ΩR eine Abbildung auf dem Grundraum in die reelle Zahlen. X ist eine Zufallsvariable genau dann, wenn {ωΩ|X(ω)x}F für alle xR.

Üblicherweise interessiert es uns in der Stochastik gar nicht so sehr, wie die Abbildung X in Abhängigkeit von ωΩ definiert ist. Tatsächlich untersuchen wir hauptsächlich die Frage, welche Werte die Zufallsvariable annimmt und wie wahrscheinlich dies für konkrete Werte oder ganze Bereiche ist. Konkret begnügen wir uns damit “nur” die so genannte Verteilung von X zu kennen.

Definition 3.2 (Verteilung) Es sei X eine Zufallsvariable auf dem Wahrscheinlichkeitsraum (Ω,F,P). Die Funktion PX:B(R)[0,1] mit PX(B)=P({ωΩ|X(ω)B}) heißt Verteilung von X.

Bemerkung 3.1 Zwar kommt die Größe ωΩ in Definition 3.2 noch formal im Rahmen des Urbildes vor, allerdings werden wir schon bald sehen, dass für viele Klassen von Verteilungen, konkrete Wahrscheinlichkeiten in den Vordergrund und ω in den Hintergrund rücken.

Interessanterweise sind die in Theorem 3.1 betrachteten Mengen vollkommen ausreichend, um die Verteilung einer Zufallsvariable komplett zu charakterisieren. Dazu definieren wir uns die Hilfsfunktion

Definition 3.3 (Verteilungsfunktion) Es sei X eine Zufallsvariable auf dem Wahrscheinlichkeitsraum (Ω,F,P). Die Verteilungsfunktion FX:R[0,1] ist definiert als FX(x)=P({ωΩ|X(ω)x})=P(Xx) für alle xR.

und nun gilt

Theorem 3.2 Die Verteilung PX einer Zufallsvariablen X wird eindeutig durch deren Verteilungsfunktion FX charakterisiert.

Beispiel 3.2 Nehmen wir an, dass wir einen blauen und einen grünen Würfel haben, die sich abgesehen von der Farbe um nichts unterscheiden. Nun sei G die gewürfelte Augenzahl des grünen Würfels und B die gewürfelte Augenzahl des blauen Würfels. Offensichtlich sind die Verteilungsfunktionen von B und G gleich und wir sprechen davon, dass B und G identisch verteilt sind.

Intuitiv bedeutet das allerdings nicht, dass B und G immer gleich sind. Schließlich würden wir ja nicht erwarten, dass der blaue und grüne Würfel immer die gleiche Zahl zeigen. Bildlich gesprochen bedeutet die identische Verteilung nur, dass die Histogramme der beiden Würfel sich annähern, je öfter gewürfelt wurde (siehe Abbildung 3.1).

Abbildung 3.1: Die Histogramme des grünen und roten Würfels nähern sich an, je öfter man würfelt. Deren Verteilung sind identisch.

Weiterhin überlegt man sich schnell, dass P(Gx)=0 für alle x<1, P(Gx)=1 für alle x6 und P(Gx)=P(Gx) für alle x[1,6), da G sinnvollerweise nur die Werte x=1,,6 annehmen kann.

In dieser Aussage erkennen wir wieder, dass uns die ωΩ wenig interessieren. Wir brauchen den Ausdruck G(ω) nicht konkret definieren, um zu wissen, dass nach Möglichkeit G(ω){1,,6} für alle ωΩ sein sollte, wenn G tatsächlich die Augenzahlen des grünen Würfels beschreiben soll.

An dieser Stelle stoßen wir allerdings auf eine mathematische Spitzfindigkeit. Auch wenn uns die Rolle des ω nicht wirklich interessiert, so wollen wir die Funktion G möglichst wenig einschränken. In diesem Fall können wir die Anforderungen an G noch ein wenig aufweichen und stattdessen fordern, dass G(ω) andere Werte annehmen darf, solange die Wahrscheinlichkeit, dass G(ω){1,,6} gleich 1 ist, also in Symbolen ausgedrückt P(G{1,,6})=1. Wir sprechen hier davon, dass G fast sicher in {1,,6} liegt.

Dies bestärkt nochmal die Tatsache, dass uns die ω gar nicht so sehr interessieren, da die Funktion R auf einer Menge A machen kann was sie will, solange P(A)=0. Dies ist am Anfang zunächst etwas gewöhnungsbedürftig, bietet aber im späteren Verlauf einige Vorteile.

Abschließend berechnen wir noch anhand des Beispiels P(G2.4)=P(G=1)+P(G=2) und aus der Tatsache, dass P(G=k)=16 für alle k{1,,6} und P(G=k)=0 sonst, dass P(Gx)=x6 für alle x[1,6). Zusammenfassend haben wir also FG(x)=P(Gx)={0,x<1x6,1x<61,x1.

Abbildung 3.2: Verteilungsfunktion eines Würfels

Der Vollständigkeit halber noch ein Theorem bzgl. den Eigenschaften einer Verteilungsfunktion und der Existenz einer entsprechenden Zufallsvariable.

Theorem 3.3 Es gelten die folgenden zwei Aussagen.

  1. Es sei X eine beliebige Zufallsvariable. Dann besitzt deren Verteilungsfunktion FX:R[0,1] die Eigenschaften

    1. Asymptotik: limxFX(x)=0,limxFX(x)=1.
    2. Monotonie: FX(x)FX(x+h) für alle xR und h0.
    3. Rechtsseitige Stetigkeit: limxx0+0FX(x)=FX(x0) für alle xR.
  2. Erfüllt eine Funktion F:R[0,1] die Eigenschaften 1 bis 3, so existiert ein Wahrscheinlichkeitsraum (Ω,F,P) und eine Zufallsvariable X auf diesem Wahrscheinlichkeitsraum dessen Verteilungsfunktion F ist.


  1. siehe Wikipedia.↩︎

  2. no pun intended↩︎