Wahrscheinlichkeit

Aus MM*Stat

Wechseln zu: Navigation, Suche

Grundbegriffe der Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung • Mengenlehre • Wahrscheinlichkeit • Additionssatz • Bedingte Wahrscheinlichkeit • Multiplikationssatz • Unabhängige Ereignisse • Vierfeldertafel • Satz der totalen Wahrscheinlichkeit • Theorem von Bayes • Multiple Choice • Video • Aufgaben • Lösungen
A-posteriori-Wahrscheinlichkeit • A-priori-Wahrscheinlichkeit • Axiomatischer Wahrscheinlichkeitsbegriff • Differenz von Ereignissen • Disjunkte Ereignisse • Durchschnitt von Ereignissen • Element • Elementarereignis • Ereignis • Ereignisraum • Gruppe (Mengenlehre) • Klasse (Mengenlehre) • Klassischer Wahrscheinlichkeitsbegriff • Komplementärereignis • Leere Menge • Logische Differenz von Ereignissen • Logische Summe von Ereignissen • Menge • Multiplikationssatz bei Unabhängigkeit • Operationen von Ereignissen • Randhäufigkeit • Randwahrscheinlichkeit • Relationen von Ereignissen • Sicheres Ereignis • Statistischer Wahrscheinlichkeitsbegriff • Teilmenge • Totale Wahrscheinlichkeit • Unmögliches Ereignis • Venn-Diagramm • Vereinigung von Ereignissen • Wahrscheinlichkeit nach Kolmogorov • Wahrscheinlichkeit nach Laplace • Wahrscheinlichkeit nach von Mises • Wahrscheinlichkeitstabelle • Zerlegung des Ereignisraums • Vollständige Zerlegung des Ereignisraums • Zufallsexperiment

Grundbegriffe

Wahrscheinlichkeit

Die Wahrscheinlichkeit ist ein Maß  P zur Quantifizierung der Sicherheit bzw. Unsicherheit über das Eintreten von Ereignissen im Rahmen eines Zufallsexperimentes.

Im folgenden werden drei Wahrscheinlichkeitsbegriffe vorgestellt.

Klassischer Wahrscheinlichkeitsbegriff (nach Laplace)

Nach Laplace haben die Ereignisse von Zufallsexperimenten folgende Eigenschaften:

Die Wahrscheinlichkeit von  A ist nach dem klassischen Wahrscheinlichkeitsbegriff definiert als:

\, P(A)=\frac{\mbox{Anzahl der Elementarereignisse in } A}{\mbox{Anzahl der Elementarereignisse in } S} \ mit  \ 0\leq P(A) \leq1 ,  P(\emptyset)=0 und \, P(S)=1 .

Statistischer Wahrscheinlichkeitsbegriff (nach von Mises)

Hier betrachtet man die Wahrscheinlichkeit  P(A) als den Wert, gegen den die relative Häufigkeit des Ereignisses  A bei

  • unendlich vielen, unabhängigen Wiederholungen des Zufallsexperiments
  • unter identischen Bedingungen

konvergiert.

Sei  h_{n}(A) die absolute Häufigkeit des Auftretens von A bei n-maliger Wiederholung des Zufallsexperiments.

Dann ist die relative Häufigkeit von  A :

 f_{n}(A)=\frac{h_{n}(A)}{n}

Die Wahrscheinlichkeit von  A ist nach dem statistischen Wahrscheinlichkeitsbegriff definiert als:

 P(A)=\lim_{n\rightarrow\infty}f_{n}(A)

Wegen  0\leq f_{n}(A)\leq1 für alle n \in \N , gilt  0\leq P(A)\leq1 .

Axiomatischer Wahrscheinlichkeitsbegriff (nach Kolmogorov)

Die Wahrscheinlichkeit von  A ist nach dem axiomatischen Wahrscheinlichkeitsbegriff definiert als:

Ein Wahrscheinlichkeitsmaß  P ist eine Abbildung, die jedem Ereignis A eines Ereignisraumes  S (d.h. eines gegebenen Zufallsexperiments) eine Zahl  P(A) zuordnet, und die folgenden Bedingungen (Eigenschaften, Axiome) erfüllt:

  • Axiom 1 (Nichtnegativität und Begrenzung):
Die Wahrscheinlichkeit  P(A) des Ereignisses  A eines Zufallsexperiments ist eine eindeutig bestimmte, reelle, nichtnegative Zahl, die der Bedingung genügt  0\leq P(A)\leq1
  • Axiom 2 (Normierung)
Bezeichnet man mit  S das Ereignis, das alle Elementarereignisse eines Zufallsexperiments enthält, dann ist  S das sichere Ereignis mit  P( S ) = 1
  • Axiom 3 (Additivität)
Sind zwei Ereignisse A und B eines Zufallsexperiments disjunkt (A\cap B=\emptyset), so gilt  P(A\cup B)=P(A)+P(B)

Zusatzinformationen

Folgerungen aus den Axiomen (nach Kolmogorov)

Es seien A,\;B,\;A_{1},\;A_{2},\;\ldots\subset S Ereignisse und P ein Wahrscheinlichkeitsmaß zu einem gegebenen Zufallsexperiment.

Dann gelten folgende Regeln:

  1.  P(\overline{A})=1-P(A)
  2.  P(\emptyset)=1-P(S)=0
  3. wenn  A \cap B = \emptyset gilt, folgt  \Rightarrow P(A \cap B)=P(\emptyset) = 0
  4. Wenn  A\subset B gilt, folgt  P(A)\leq P(B)
  5.  A_{1},\;A_{2},\; \ldots mit  A_{i}\cap A_{j}=\emptyset \quad (i\neq j)\qquad P(A_{1}\cup A_{2}\cup\ldots)=P(A_{1})+P(A_{2})+\ldots
  6.  P(A\backslash B)=P(A)-P(A\cap B)

Herleitung von Beziehungen aus den Wahrscheinlichkeitsaxiomen

  • Regel 1
Zu zeigen ist: Für  A\subset B gilt  P(A)\leq P(B) .
Man kann das Ereignis B schreiben als
 B = A \cup (B \setminus A)
Dabei sind  A und  B \setminus A disjunkt.
Also gilt nach Axiom 3  P(B) = P(A) + P(B \setminus A) .
Wegen  P(B \setminus A) \geq0 , muss  P(B) \geq P(A) gelten.
Das folgende Venn-Diagramm veranschaulicht den Zusammenhang:
Venn9.png
  • Regel 2
Zu zeigen ist:  P(A\setminus B)=P(A)-P(A\cap B) .
Es gilt  A\setminus B=A\cap\bar{B} und weiter A=(A\cap B)\cup(A\cap\bar{B}), wobei die Mengen der Vereinigung disjunkt sind.
Also kann die Wahrscheinlichkeit für A unter Berücksichtigung des Axioms 3 berechnet werden als
 P(A)=P[(A\cap B) \cup (A\cap\bar{B})]=P(A\cap B)+P(A\cap\bar{B})=P(A\cap B)+P(A\setminus B)
Das folgende Venn-Diagramm veranschaulicht den Zusammenhang:
Venn10.png

Beispiele

Klassische Wahrscheinlichkeit nach Laplace

Zufallsexperiment: Werfen eines idealen Würfels

Ereignis: \, A  = "gerade Augenzahl"
Elementarereignisse: 1,\;2,\;3,\;4,\;5,\;6
in \, A enthaltene Elementarereignisse  2,\;4,\;6
\, P(A) = \, \frac{3}{6}=0.5

Statistische Wahrscheinlichkeit nach Mises

Zufallsexperiment: Werfen einer Münze

Sei  A das Ereignis "Kopf".

In der folgenden Tabelle ist die relative Häufigkeit des Eintretens von "Kopf" nach  n -maligem Werfen der Münze aufgezeichnet.

Sie nähert sich der Zahl  0.5 , wenn  n sehr groß wird.

 n  h(\mbox{'Kopf'})  f(\mbox{'Kopf'})
10 7 0,700
20 11 0,550
40 17 0,425
60 24 0,400
80 34 0,425
100 47 0,470
200 92 0,460
400 204 0,510
600 348 0,580
800 404 0,505
1 000 492 0,492
2 000 1 010 0,505
3 000 1 530 0,510
4 000 2 032 0,508
5 000 2 515 0,503

Die Konvergenz der relativen Häufigkeit wird noch deutlicher in einem Pfaddiagramm.

Im folgenden Diagramm bezeichnet die Abzisse die Anzahl der Würfe und die Ordinate  f(\mbox{'Kopf'}) .

<R output="display">

pdf(rpdf, width=7, height=7)

muenze = c(0.700,0.550,0.425,0.400,0.425,0.470,0.460,0.510,0.580,0.505,0.492,0.505,0.510,0.508,0.503) plot(muenze, type='l', col="black", lwd=4, ylab = "f(Kopf)", xlab = "Anzahl der W\u00FCrfe (n)", "xaxt"="n", ylim=c(0.3, 0.7), font=2, font.lab=2, "xaxs"="i" ,"yaxs"="i", bty="l") abline(h=0.5, lty=2, lwd=4, col="gray") axis(1, at = c(1:15), labels = c(10,"", 40, "", 80, "", 200, "", 600, "", 1000, "", 3000, "", 5000), font=2)

</R>

Dieses Beispiel verdeutlicht auch einen wichtigen Aspekt, der bei der Interpretation zu beachten ist:

Mit der relativen Häufigkeit wird eine Aussage bezüglich des Auftretens des Ereignisses A bei bereits durchgeführten Versuchen, d.h. nach Versuchsdurchführung, getroffen.

Mit der Wahrscheinlichkeit des Ereignisses A wird jedoch eine Aussage über das Eintreten des Ereignisses A vor der Versuchsdurchführung gemacht.

Weiterhin kann ein Zufallsexperiment in der Realität nicht unendlich oft wiederholt werden.

Die Relevanz der statistischen Definition der Wahrscheinlichkeit ergibt sich daraus, dass mit der relativen Häufigkeit eine Approximation an die dem Zufallsexperiment zugrunde liegende (unbekannte) Wahrscheinlichkeit gegeben ist.