2 Bedingte Wahrscheinlichkeit und der Satz von Bayes
Idealerweise ist ein medizinischer Test immer zu 100% zuverlässig. Allerdings wissen wir aus der Praxis, dass es immer wieder zu falsch-positiven oder falsch-negativen Testergebnissen in der Medizin kommt. Das beste worauf wir also hoffen können, ist das ein Test mit sehr großer Wahrscheinlichkeit richtig liegt. Somit sollte ein Test so gestaltet sein, dass die Wahrscheinlichkeit, dass ein Patient tatsächlich krank ist, wenn der Test dies anzeigt, sehr groß ist.
Intuitiv ist das alles sehr einleuchtend. Allerdings sollten wir das auch noch mathematisch formal präzisieren. Offensichtlich können wir die gesuchte Wahrscheinlichkeit nicht einfach mit \(\mathbb{P}(K)\) bezeichnen, wobei \(K\) für das Ereignis steht, dass ein zufällig ausgewählter Mensch krank ist. Schließlich haben wir zusätzliche Information. Unser Test war ja positiv. Dementsprechend würden wir erwarten, dass es nun wahrscheinlicher ist, dass der Patient krank.
Ein naiver Ansatz wäre nun also zu vermuten, dass die gesuchte Wahrscheinlichkeit \(\mathbb{P}(K \cap T)\) entspricht, wobei \(T\) dem Ereignis “Test positiv” und der Schnitt der Mengen dem Ereignis “Beide Ereignisse eingetreten” entspricht. Offensichtlich stellt man schnell fest, dass \(\mathbb{P}(K \cap T) \leq \mathbb{P}(K)\), was wiederum bedeuten würde, dass wir es für weniger wahrscheinlich halten, krank zu sein, nachdem der Test positiv ausgefallen ist. Das kann nicht unserer Intuition entsprechen.
Allerdings können wir uns überlegen, dass wir zusätzlich zu unseren vorherigen Überlegung den Grundraum auf die Fälle einschränken können, in denen \(T\) wahr ist. In diesem Fall muss ich die Wahrscheinlichkeit \(\mathbb{P}(K \cap T)\) nur noch entsprechend der Wahrscheinlichkeit des neuen Grundraumes normieren, was uns die gesuchte Wahrscheinlichkeit \(\mathbb{P}(K \cap T)/\mathbb{P}(T)\) liefert und zur allgemeinen Definition der bedingten Wahrscheinlichkeit führt.
Definition 2.1 (Bedingte Wahrscheinlichkeit) Es seien \((\Omega, \mathcal{F}, \mathbb{P})\) ein Wahrscheinlichkeitsraum und \(A, B \in \mathcal{F}\) seien zwei Ereignisse, wobei \(\mathbb{P}(B) > 0\). Dann ist die bedingte Wahrscheinlichkeit von \(A\) unter der Bedingung \(B\) definiert als \[\begin{align*} \mathbb{P}(A \vert B) = \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(B)}. \end{align*}\]
In diesem Zusammenhang bietet es sich auch an, dass Konzept von Unabhängigkeit zu erwähnen. Intuitiv ergibt es Sinn zwei Ereignisse als (stochastisch) unabhängig voneinander zu betrachen, wenn die Wahrscheinlichkeit, dass beide Ergebnisse eintreten, sich als Produkt der beiden Einzelwahrscheinlichkeiten ergibt. Formal definieren wir
Definition 2.2 (Unabhängigkeit) Es seien \((\Omega, \mathcal{F}, \mathbb{P})\) ein Wahrscheinlichkeitsraum und \(A, B \in \mathcal{F}\) seien zwei Ereignisse. Die Ereignissee \(A, B\) sind genau dann unabhängig, falls \(\mathbb{P}(A \cap B) = \mathbb{P}(A) \mathbb{P}(B)\).
Verknüpft man dies mit Definition 2.1 so stellt man fest, dass für unabhängige Mengen \(A, B\) gilt, dass \(\mathbb{P}(A \vert B) = \mathbb{P}(A)\) und \(\mathbb{P}(B) = \mathbb{P}(B \vert A)\). In der Praxis stellt man oft fest, dass wir zwar an einer bedingten Wahrscheinlichkeit \(\mathbb{P}(A \vert B)\) interessiert sind, aber nur die Wahrscheinlichkeit \(\mathbb{P}(B \vert A)\) messen können.
Beispiel 2.1 Aus medizinischen Studien wissen wir, dass Rauchen das Risiko erhöht, an Lungenkrebs zu erkranken. Die untersuchte Größe ist hier also \(\mathbb{P}(K \vert R)\), wobei \(K\) für das Ereignis “Patient hat Krebs” und \(R\) für das Ereignis “Patient ist Raucher” steht. Jedoch können wir in Studien nur Krebspatienten als Raucher bzw. Nichtraucher identifizieren, d.h. durch unsere Beobachtungen erhalten wir nur Aufschluss über die Wahrscheinlichkeit \(\mathbb{P}(R \vert K)\).
Um dennoch die gesuchte Größe zu berechnen, hilft uns der Satz von Bayes.
Theorem 2.1 (Bayes) Es sei \((\Omega, \mathcal{F}, \mathbb{P})\) ein Wahrscheinlichkeitsraum und \(A, B \in \mathcal{F}\) zwei Ereignisse mit \(\mathbb{P}(A), \mathbb{P}(B) > 0\). Dann gilt \[\begin{align*} \mathbb{P}(A \vert B) = \frac{\mathbb{P}(A) \mathbb{P}(B \vert A)}{\mathbb{P}(B)}. \end{align*}\]
Somit stellt der Satz von Bayes, benannt nach dem Pfarrer Thomas Bayes, fest, dass die bedingten Wahrscheinlichkeiten proportional zueinander sind, wenn man Bedingung und zu untersuchendes Ereignis miteinander vertauscht. Zugleich liefert der Satz von Bayes den passenden Proportionalitätsfaktor dazu.
Ein letztes nützliches Werkzeug in diesem Zusammenhang ist der Satz über die totale Wahrscheinlichkeit. Dieser ermöglicht es, die Wahrscheinlichkeit eines Ereignisses durch die Zerlegung des Grundraumes als gewichtetes Mittel der zugehörigen bedingten Wahrscheinlichkeiten zu berechnen.
Theorem 2.2 (Totale Wahrscheinlichkeit) Es sei \((\Omega, \mathcal{F}, \mathbb{P})\) ein Wahrscheinlichkeitsraum und \(A, B_1, B_2, \ldots\) seien Ereignisse mit \(\mathbb{P}(B_i) > 0\) für alle \(i \in \mathbb{N}\). Außerdem sind die \(B_i\) paarweise disjunkt und \(\cup_{i \in \mathbb{N}} B_i = \Omega\). Dann gilt \[\begin{align*} \mathbb{P}(A) = \sum_{i = 1}^{\infty} \mathbb{P}(A \vert B_i)\mathbb{P}(B_i). \end{align*}\]
Nach dem Satz von Bayes gilt \(\mathbb{P}(A \vert B) \approx \mathbb{P}(B \vert A)\) genau dann, wenn \(\mathbb{P}(A) \approx \mathbb{P}(B)\). Das heißt im Allgemeinen ist es nicht möglich, die bedingte Wahrscheinlichkeit zu invertieren. Dennoch passiert diese Fehleinschätzung im Alltag so häufig, dass dieser logische Fehler auch als “Verwechslung der Umgekehrung”, “Umkehrungsfehlschluss” oder “Trugschluss des Anklägers” bekannt ist. Eins der bekanntesten Beispiele dafür beruht dabei auf einer Studie mit 100 Ärzten in der folgendes Fallbeispiel durchgespielt wurde:
Beispiel 2.2 ((Eddy 1982)) Eine Patientin hat einen Knoten in der Brust woraufhin eine Mammographie durchgeführt wurde deren Befund zurückliefert, dass die Patienten einen bösartigen Tumor hat. Weiterhin sei bekannt, dass
1% aller Brusttumore bösartig sind.
Mammographien einen bösartigen Tumor in 80 % der Fälle als solchen erkennen und in den sonstigen Fällen als gutartig einstufen.
Mammographien einen gutartigen Tumor in 90 % der Fälle als solchen erkennen und in den übrigen Fällen als bösartig einstufen.
Gesucht ist nun die bedingte Wahrscheinlichkeit \(\mathbb{P}(B \vert P)\), dass \(B = \text{``Tumor ist bösartig''}\) gegeben \(P = \text{``Test auf bösartigen Tumor ist positiv''}\). In der Studie haben fast alle der Ärzte diese Wahrscheinlichkeit auf ungefähr 75 % geschätzt und liegen damit sehr nahe an \(\mathbb{P}(P \vert B) = 80 \%\). Die echte Wahrscheinlichkeit liefert der Satz von Bayes zusammen mit dem Satz der totalen Wahrscheinlichkeit als \[\begin{align*} \mathbb{P}(B \vert P) &= \frac{\mathbb{P}(B) \mathbb{P}(P \vert B)}{\mathbb{P}(P)}\\ &= \frac{\mathbb{P}(B) \mathbb{P}(P \vert B)}{ \mathbb{P}(P \vert B) \mathbb{P}(B) + \mathbb{P}(P \vert B^c) \mathbb{P}(B^c) }\\ &= \frac{0.01 \cdot 0.80}{0.80 \cdot 0.01 + 0.1 \cdot 0.99} = 0.0748. \end{align*}\]
Anmerkung. Das vorangegangene Beispiel wurde als Verdeutlichung für logische Trugschlüsse aufgeführt. Aus aktuellen Anlässen sei an dieser Stelle erwähnt, dass aus diesem fiktiven Beispiel keine Rückschlüsse auf aktuelle medizinische Praxis in Bezug auf Mammographien oder sonstige Untersuchungen möglich ist.