Theorem von Bayes: Unterschied zwischen den Versionen

Aus MM*Stat

Wechseln zu: Navigation, Suche
 
Zeile 1: Zeile 1:
 
{{Wahrscheinlichkeitsrechnung}}
 
{{Wahrscheinlichkeitsrechnung}}
  
=={{Vorlage:Überschrift}}==
+
{{SubpageToc|Beispiel: Virus|Beispiel: Spam Mail filtering}}
  
===Theorem von Bayes===
+
=={{PAGENAME}}==
  
 
Sei <math> A_{1},A_{2},\ldots,A_{n} </math> eine [[Zerlegung des Ereignisraums|Zerlegung von <math>\, S </math>]].
 
Sei <math> A_{1},A_{2},\ldots,A_{n} </math> eine [[Zerlegung des Ereignisraums|Zerlegung von <math>\, S </math>]].
Zeile 23: Zeile 23:
 
Man bezeichnet dann  <math>\, P( A_{j} )</math> ''a-priori-Wahrscheinlichkeit'' und <math>\, P( A_{j} | B )</math> als ''a-posteriori-Wahrscheinlichkeit''.
 
Man bezeichnet dann  <math>\, P( A_{j} )</math> ''a-priori-Wahrscheinlichkeit'' und <math>\, P( A_{j} | B )</math> als ''a-posteriori-Wahrscheinlichkeit''.
  
=={{Vorlage:Beispiele}}==
 
 
===Virus===
 
 
0.5% der Bevölkerung seien mit einem Virus infiziert, der erst nach langer Zeit zu einer Erkrankung führt. Ein Diagnosetest reagiere bei 99% der Infizierten positiv, aber auch bei 2% der Gesunden.
 
 
Wie groß ist die [[Wahrscheinlichkeit]], dass eine Person, deren Testergebnis positiv ausfällt, auch tatsächlich mit dem Virus infiziert ist?
 
 
Man betrachte die beiden Ereignisse <math>I</math> und <math>R</math>:
 
 
{|
 
|<math>I=1</math>,wenn eine Person infiziert ist
 
|-
 
|<math>I = 0</math>, wenn eine Person nicht infiziert ist
 
|-
 
|<math> R = 1 </math>, wenn der Test positiv ausfällt
 
|-
 
|<math>R = 0</math>, wenn Test negativ ausfällt.
 
|}
 
 
Gegebene [[Wahrscheinlichkeit]] sind: <math>P(I=1)=0.005;\; P(R=1|I=1)=0.99</math> und <math>P(R=1|I=0)=0.02</math>.
 
 
Gesucht ist <math>P(I=1|R=1)</math>.
 
 
Eine Anwendung der Definition der [[bedingte Wahrscheinlichkeit|bedingten Wahrscheinlichkeit]]
 
 
<math>P(I=1|R=1)=\frac{P[(I=1)\cap(R=1)]}{P(R=1)},\; P(R=1)>0 </math>
 
 
ist wegen der unbekannten [[Wahrscheinlichkeit]]en nicht möglich.
 
 
Man erhält jedoch aus
 
 
<math>P(R=1|I=1)=\frac{P[(I=1)\cap(R=1)]}{P(I=1)},\; P(I=1)>0</math>
 
 
für den Zähler <math>P[(I=1)\cap(R=1)]=P(R=1|I=1)P(I=1)</math>.
 
 
Um <math>P(R=1)</math> im Nenner zu erhalten, ist der [[Satz der totalen Wahrscheinlichkeit]] anzuwenden.
 
 
Im Ergebnis resultiert somit das Theorem von Bayes, das allgemein lautet:
 
 
<math> P(A_{j}|B)=\frac{P(B|A_{j})\cdot P(A_{j})}{\sum_{i}P(B|A_{i})\cdot P(A_{i})}, \quad \forall j=1,\cdots,n</math>
 
 
Für das aktuelle Beispiel lautet der Zähler:
 
 
<math> P\left(R=1|I=1\right)\cdot P(I=1)=0.99 \cdot0.005=0.00495</math>.
 
 
Der Nenner ist die Summe:
 
 
<math> P(R=1|I=1)\cdot P(I=1)+ P(R=1|I=0)\cdot P(I=0)=0.99 \cdot 0.005 + 0.02 \cdot 0.995 = 0.00495 +0.0199 = 0.02485</math>
 
 
Man erhält <math>\,P(I=1|R=1)=\frac{0.00495}{0.02485}=0.199</math>.
 
 
Die [[Wahrscheinlichkeit]], mit dem Virus infiziert zu sein, wenn der Test positiv war, ist nur etwa 20%!
 
 
Bei der Interpretation des Ergebnisses ist folgendes zu bedenken:
 
 
Hier wurde angenommen, dass der Anteil der Infizierten unter den Testpersonen dem Anteil der Infizierten in der Gesamtbevölkerung entspricht.
 
 
Normalerweise ist dieser Anteil unter den Testpersonen wesentlich größer, z.B. weil diese Menschen glauben, besonderen Risiken ausgesetzt zu sein.
 
  
 
[[Kategorie:Statistik I&II]]
 
[[Kategorie:Statistik I&II]]

Aktuelle Version vom 5. Juli 2020, 04:50 Uhr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung • Mengenlehre • Wahrscheinlichkeit • Additionssatz • Bedingte Wahrscheinlichkeit • Multiplikationssatz • Unabhängige Ereignisse • Vierfeldertafel • Satz der totalen Wahrscheinlichkeit • Theorem von Bayes • Multiple Choice • Video • Aufgaben • Lösungen
A-posteriori-Wahrscheinlichkeit • A-priori-Wahrscheinlichkeit • Axiomatischer Wahrscheinlichkeitsbegriff • Differenz von Ereignissen • Disjunkte Ereignisse • Durchschnitt von Ereignissen • Element • Elementarereignis • Ereignis • Ereignisraum • Gruppe (Mengenlehre) • Klasse (Mengenlehre) • Klassischer Wahrscheinlichkeitsbegriff • Komplementärereignis • Leere Menge • Logische Differenz von Ereignissen • Logische Summe von Ereignissen • Menge • Multiplikationssatz bei Unabhängigkeit • Operationen von Ereignissen • Randhäufigkeit • Randwahrscheinlichkeit • Relationen von Ereignissen • Sicheres Ereignis • Statistischer Wahrscheinlichkeitsbegriff • Teilmenge • Totale Wahrscheinlichkeit • Unmögliches Ereignis • Venn-Diagramm • Vereinigung von Ereignissen • Wahrscheinlichkeit nach Kolmogorov • Wahrscheinlichkeit nach Laplace • Wahrscheinlichkeit nach von Mises • Wahrscheinlichkeitstabelle • Zerlegung des Ereignisraums • Vollständige Zerlegung des Ereignisraums • Zufallsexperiment

Theorem von Bayes

Sei  A_{1},A_{2},\ldots,A_{n} eine Zerlegung von \, S .

Ferner sei ein zufälliges Ereignis B mit \, P(B)>0 und die bedingten Wahrscheinlichkeiten P(B|A_{1}), P(B|A_{2}),\ldots, P(B|A_{n}) gegeben.

Dann gilt:

 P(A_{j}|B)= \frac{P(B|A_{j})\cdot P(A_{j})}{\sum_{i=1}P(B|A_{i})\cdot P(A_{i})}\quad\forall j=1,\ldots, n

Das Theorem von Bayes hat grundlegende Bedeutung für Bayes'sche Verfahren.

a-priori- bzw. a-posteriori-Wahrscheinlichkeit

Gegeben sei das Theorem von Bayes:

 P(A_{j}|B)= \frac{P(B|A_{j})\cdot P(A_{j})}{\sum_{i=1}P(B|A_{i})\cdot P(A_{i})}\quad\forall j=1,\ldots, n

Man bezeichnet dann \, P( A_{j} ) a-priori-Wahrscheinlichkeit und \, P( A_{j} | B ) als a-posteriori-Wahrscheinlichkeit.