Wahrscheinlichkeitsrechnung/Lösungen: Unterschied zwischen den Versionen

Aus MM*Stat

Wechseln zu: Navigation, Suche
 
(20 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
[[Kategorie:Aufgaben]]
===15 Cent===
===15 Cent===


Zeile 30: Zeile 31:
<li><p>''Gehen Sie davon aus, dass die Winterzeit 30% der gesamten Jahreszeit ausmacht.'' <math>P(W) = 0,3</math></p></li></ol>
<li><p>''Gehen Sie davon aus, dass die Winterzeit 30% der gesamten Jahreszeit ausmacht.'' <math>P(W) = 0,3</math></p></li></ol>
</li>
</li>
<li><p>Gesucht ist <math>P(F)</math>. Um diese unbekannte Wahrscheinlichkeit auf die bekannten zurückzuführen, verwenden wir den Satz von der totalen Wahrscheinlichkeit: <math>\begin{aligned}
<li><p>Gesucht ist <math>P(F)</math>. Um diese unbekannte Wahrscheinlichkeit auf die bekannten zurückzuführen, verwenden wir den Satz von der totalen Wahrscheinlichkeit: <math>\begin{align}
P(F) &= P(F\cap W) + P(F\cap\overline{W})\\
P(F) &= P(F\cap W) + P(F\cap\overline{W})\\
&= P(F|W)P(W)+P(F|\overline{W})P(\overline{W})\\
&= P(F|W)P(W)+P(F|\overline{W})P(\overline{W})\\
&=0,8 \cdot 0,3 +0 \cdot 0,7 \\
&=0,8 \cdot 0,3 +0 \cdot 0,7 \\
&= 0,24. \end{aligned}</math></p></li>
&= 0,24. \end{align}</math></p></li>
<li><p>Gesucht ist <math>P(S)</math>. Wieder verwenden wir den Satz von der totalen Wahrscheinlichkeit <math>\begin{aligned}
<li><p>Gesucht ist <math>P(S)</math>. Wieder verwenden wir den Satz von der totalen Wahrscheinlichkeit <math>\begin{align}
P(S) &= P(S\cap W) + P(S\cap\overline{W})\\
P(S) &= P(S\cap W) + P(S\cap\overline{W})\\
&= P(S|W)P(W)+P(S|\overline{W})P(\overline{W})\\
&= P(S|W)P(W)+P(S|\overline{W})P(\overline{W})\\
&=0,6 \cdot 0,3 + 0,4 \cdot 0,7 \\
&=0,6 \cdot 0,3 + 0,4 \cdot 0,7 \\
&= 0,46. \end{aligned}</math></p></li>
&= 0,46. \end{align}</math></p></li>
<li><p>Gesucht ist <math>P(F\cap S)</math>: <math>\begin{aligned}
<li><p>Gesucht ist <math>P(F\cap S)</math>: <math>\begin{align}
P(F\cap S) &=P(F\cap S|W) P(W)+ P(F\cap S|\overline{W}) P(\overline{W})\\
P(F\cap S) &=P(F\cap S|W) P(W)+ P(F\cap S|\overline{W}) P(\overline{W})\\
&=  P(F|W)\cdot P(S|W)\cdot P(W) + P(F|\overline{W})\cdot P(S|\overline{W}) P(\overline{W})\\
&=  P(F|W)\cdot P(S|W)\cdot P(W) + P(F|\overline{W})\cdot P(S|\overline{W}) P(\overline{W})\\
&=0,8\cdot 0,6 \cdot 0,3 + 0 \cdot 0,6 \cdot 0,7\\
&=0,8\cdot 0,6 \cdot 0,3 + 0 \cdot 0,6 \cdot 0,7\\
&=0,144 \end{aligned}</math></p></li>
&=0,144 \end{align}</math></p></li>
<li><p>Gesucht ist die Wahrscheinlichkeit <math>P(F|S)</math>. Mit der Formel für die bedingte Wahrscheinlichkeit können wir die gesuchte Wahrscheinlichkeit auf die gerade berechneten Wahrscheinlichkeiten zurückführen: <math>\begin{aligned}
<li><p>Gesucht ist die Wahrscheinlichkeit <math>P(F|S)</math>. Mit der Formel für die bedingte Wahrscheinlichkeit können wir die gesuchte Wahrscheinlichkeit auf die gerade berechneten Wahrscheinlichkeiten zurückführen: <math>\begin{align}
P(F|S)&=\dfrac{P(F\cap S)}{P(S)}\\
P(F|S)&=\dfrac{P(F\cap S)}{P(S)}\\
&=\frac{0,144}{0,46}\approx 0,313.\end{aligned}</math></p></li>
&=\frac{0,144}{0,46}\approx 0,313.\end{align}</math></p></li>
<li><p>Gesucht ist die Wahrscheinlichkeit <math>P(S|F)</math>. Wieder mit der Definition der bedingten Wahrscheinlichkeit gilt <math>\begin{aligned}
<li><p>Gesucht ist die Wahrscheinlichkeit <math>P(S|F)</math>. Wieder mit der Definition der bedingten Wahrscheinlichkeit gilt <math>\begin{align}
P(S|F)]&=\dfrac{P(F\cap S)}{P(F)}\\
P(S|F)]&=\dfrac{P(F\cap S)}{P(F)}\\
&=\frac{0,144}{0,24}=0,6.\end{aligned}</math></p></li>
&=\frac{0,144}{0,24}=0,6.\end{align}</math></p></li>
<li><p>Gesucht ist die Wahrscheinlichkeit <math>P(S\cup F)</math>. Mit der Formel für die Vereinigung zweier Ereignisse gilt unter Verwendung der Ergebnisse der vorherigen Teilaufgaben <math>\begin{aligned}
<li><p>Gesucht ist die Wahrscheinlichkeit <math>P(S\cup F)</math>. Mit der Formel für die Vereinigung zweier Ereignisse gilt unter Verwendung der Ergebnisse der vorherigen Teilaufgaben <math>\begin{align}
P(S\cup F) &= P(S)+P(F)-P(S\cap F)\\
P(S\cup F) &= P(S)+P(F)-P(S\cap F)\\
&=0,24+0,46-0,144 \\
&=0,24+0,46-0,144 \\
&=0,556.\end{aligned}</math></p></li>
&=0,556.\end{align}</math></p></li>
<li><p>Gesucht ist die Wahrscheinlichkeit <math>P(\overline{S\cap F})</math>. Wir nutzen die Berechnung über die Gegenwahrscheinlichkeit und erhalten <math>\begin{aligned}
<li><p>Gesucht ist die Wahrscheinlichkeit <math>P(\overline{S\cap F})</math>. Wir nutzen die Berechnung über die Gegenwahrscheinlichkeit und erhalten <math>\begin{align}
P(\overline{S\cap F}) &=1-P(S\cap F)\\
P(\overline{S\cap F}) &=1-P(S\cap F)\\
&=1-0,144 \\
&=1-0,144 \\
&=0,856. \end{aligned}</math></p></li></ul>
&=0,856. \end{align}</math></p></li></ul>


===Alter===
===Alter===
Zeile 81: Zeile 82:
         \right .}</math>
         \right .}</math>


das Ergebnis des <math>i</math>-ten Durchgangs des Zufallsexperiments. Damit ist die Menge aller Ergebnisse des Zufallsexperiments für die Überprüfung einer Welle gegeben durch <math>\begin{aligned}
das Ergebnis des <math>i</math>-ten Durchgangs des Zufallsexperiments. Damit ist die Menge aller Ergebnisse des Zufallsexperiments für die Überprüfung einer Welle gegeben durch <math>\begin{align}
         S=\{0,1\}
         S=\{0,1\}
     \end{aligned}</math> mit den Elementarereignissen <math>\begin{aligned}
     \end{align}</math> mit den Elementarereignissen <math>\begin{align}
         \{0\} &= \text{``Kein Ausschuss wird produziert''}, \\
         \{0\} &= \text{``Kein Ausschuss wird produziert''}, \\
         \{1\} &= \text{``Ausschuss wird produziert''}.
         \{1\} &= \text{``Ausschuss wird produziert''}.
     \end{aligned}</math> Nun bestimmen wir mithilfe der absoluten Häufigkeiten <math>h</math> die relativen Häufigkeiten <math>\hat{f}</math> für die beiden Ergebnisse “kein Auschuss” und “Auschuss” in unserer Stichprobe vom Umfang 10000. Die relativen Häufigkeiten ziehen wir heran, um die jeweiligen Wahrscheinlichkeiten zu schätzen:  
     \end{align}</math> Nun bestimmen wir mithilfe der absoluten Häufigkeiten <math>h</math> die relativen Häufigkeiten <math>\hat{f}</math> für die beiden Ergebnisse “kein Auschuss” und “Auschuss” in unserer Stichprobe vom Umfang 10000. Die relativen Häufigkeiten ziehen wir heran, um die jeweiligen Wahrscheinlichkeiten zu schätzen:  


<math>\begin{aligned}
<math>\begin{align}
         h(0) &= \sum\limits_{i=1}^{10000}I(x_i = 0 ) = 4500 + 5200 = 9700, \\
         h(0) &= \sum\limits_{i=1}^{10000}I(x_i = 0 ) = 4500 + 5200 = 9700, \\
         h(1) &= 10000 - h(0) = 300, \text{da alle } x_i \text{ binär} \\
         h(1) &= 10000 - h(0) = 300, \text{da alle } x_i \text{ binär} \\
         \hat{f}(0) &= \frac{h(0)}{10000} = 0.97 \approx P(\{0\}), \\
         \hat{f}(0) &= \frac{h(0)}{10000} = 0.97 \approx P(\{0\}), \\
         \hat{f}(1) &= \frac{h(1)}{10000} = 0.03 \approx P(\{1\}) = P(\text{Ausschuss wird produziert}).
         \hat{f}(1) &= \frac{h(1)}{10000} = 0.03 \approx P(\{1\}) = P(\text{Ausschuss wird produziert}).
     \end{aligned}</math>
     \end{align}</math>
* Von Mises, Pearson, Fisher, u. a., fassten Wahrscheinlichkeiten als den Grenzwert der relativen Häufigkeiten auf, wenn die Anzahl unabhängiger Wiederholungen des Zufallsexperiments gegen unendlich strebt (frequentistischer Wahrscheinlichkeitsbegriff). In unserem Beispiel bedeutet dies: <math>\begin{aligned}
* Von Mises, Pearson, Fisher, u. a., fassten Wahrscheinlichkeiten als den Grenzwert der relativen Häufigkeiten auf, wenn die Anzahl unabhängiger Wiederholungen des Zufallsexperiments gegen unendlich strebt (frequentistischer Wahrscheinlichkeitsbegriff). In unserem Beispiel bedeutet dies: <math>\begin{align}
         P(\{0\}) = \lim_{n\rightarrow\infty}\hat{f}_{n}(0),\\
         P(\{0\}) = \lim_{n\rightarrow\infty}\hat{f}_{n}(0),\\
         P(\{1\}) = \lim_{n\rightarrow\infty}\hat{f}_{n}(1),
         P(\{1\}) = \lim_{n\rightarrow\infty}\hat{f}_{n}(1),
     \end{aligned}</math> wobei <math>\hat{f}_{n}</math> die relative Häufigkeit in Bezug auf eine Stichprobe vom Umfang <math>n</math> angibt. Da hier <math>n=10000</math> relativ groß ist, gehen wir davon aus, dass die relativen Häufigkeiten annähernd den Wahrscheinlichkeiten entsprechen.
     \end{align}</math> wobei <math>\hat{f}_{n}</math> die relative Häufigkeit in Bezug auf eine Stichprobe vom Umfang <math>n</math> angibt. Da hier <math>n=10000</math> relativ groß ist, gehen wir davon aus, dass die relativen Häufigkeiten annähernd den Wahrscheinlichkeiten entsprechen.


===Aufzug===
===Aufzug===
Zeile 116: Zeile 117:
===Ausschussteile===
===Ausschussteile===


Anwendung des Satzes der totalen Wahrscheinlichkeit: <math>\begin{aligned}
Anwendung des Satzes der totalen Wahrscheinlichkeit: <math>\begin{align}
   P(B)&=&P(B|C)P(C)+P(B|\overline{C})(1-P(C)) \\
   P(B)&=&P(B|C)P(C)+P(B|\overline{C})(1-P(C)) \\
   &=&0,95\cdot0,05+0,1\cdot0,95 \\
   &=&0,95\cdot0,05+0,1\cdot0,95 \\
Zeile 125: Zeile 126:
           &=&(0,1425-0,8\cdot0,1-0,6\cdot0,05)/0,0422 \\
           &=&(0,1425-0,8\cdot0,1-0,6\cdot0,05)/0,0422 \\
           &=&0,0325/0,0422=0,77014
           &=&0,0325/0,0422=0,77014
  \end{aligned}</math>
  \end{align}</math>


===Banknoten===
===Banknoten===
Zeile 154: Zeile 155:
'''Theorem von Bayes:''' <math>P(B|U)=\frac{P(U|B)P(B)}{P(U|A)P(A)+P(U|B)P(B)+P(U|C)P(C)}</math>
'''Theorem von Bayes:''' <math>P(B|U)=\frac{P(U|B)P(B)}{P(U|A)P(A)+P(U|B)P(B)+P(U|C)P(C)}</math>


<math>\begin{aligned}
<math>\begin{align}
P(U|A)P(A)&=0,1\cdot0,6=0,06\\
P(U|A)P(A)&=0,1\cdot0,6=0,06\\
P(U|B)P(B)&=0,4\cdot0,3=0,12\\
P(U|B)P(B)&=0,4\cdot0,3=0,12\\
P(U|C)P(C)&=0,7\cdot0,1=0,07\\
P(U|C)P(C)&=0,7\cdot0,1=0,07\\
\sum P(U|i)P(i)&=0,25\\
\sum P(U|i)P(i)&=0,25\\
P(B|U)&=0,12/0,25=0,48\\\end{aligned}</math>
P(B|U)&=0,12/0,25=0,48\\\end{align}</math>


===Blumen===
===Blumen===
Zeile 193: Zeile 194:
===Eignungstest===
===Eignungstest===


Die Ereignisse <math>A_1=\mbox{"`Bewerber besteht Eignungstest"'}</math> und<br />
Die Ereignisse <math>A_1=\mbox{Bewerber besteht Eignungstest}</math> und<br />
<math>A_2=\mbox{"`Bewerber besteht Eignungstest nicht"'}</math> bilden eine vollständige Zerlegung des Ereignisraums <math>S</math>. Gegeben ist <math>P(A_1)=0,25</math>. Aufgrund von <math>A_2=\overline{A_1}</math> folgt <math>P(A_2)=1-P(A_1)=0,75</math>.<br />
<math>A_2=\mbox{Bewerber besteht Eignungstest nicht}</math> bilden eine vollständige Zerlegung des Ereignisraums <math>S</math>. Gegeben ist <math>P(A_1)=0,25</math>. Aufgrund von <math>A_2=\overline{A_1}</math> folgt <math>P(A_2)=1-P(A_1)=0,75</math>.<br />
Ferner sind ein zufälliges Ereignis <math>B=\mbox{"`Bewerber ist für die Tätigkeit geeignet"'}</math> und die bedingten Wahrscheinlichkeiten dieses Ereignisses <math>P(B|A_1)=0,95</math> und <math>P(B|A_2)</math>=0,10 gegeben.<br />
Ferner sind ein zufälliges Ereignis <math>B=\mbox{Bewerber ist für die Tätigkeit geeignet}</math> und die bedingten Wahrscheinlichkeiten dieses Ereignisses <math>P(B|A_1)=0,95</math> und <math>P(B|A_2)</math>=0,10 gegeben.<br />
Gesucht wird die bedingte Wahrscheinlichkeit <math>P(A_1|B)</math>. Diese lässt sich nach dem Theorem von Bayes<math>P(A_1|B)=\frac{P(A_1\cap B)}{P(B)}=\frac{P(B|A_1)P(A_1)}{P(B|A_1)P(A_1)+P(B|A_2)P(A_2)}</math>berechnen. Für <math>P(B)</math> resultiert:<math>P(B)=P(B|A_1)\cdot P(A_1)+P(B|A_2)\cdot P(A_2)=0,3125</math><math>\rightarrow P(A_1|B)=0,76</math>
Gesucht wird die bedingte Wahrscheinlichkeit <math>P(A_1|B)</math>. Diese lässt sich nach dem Theorem von Bayes<math>P(A_1|B)=\frac{P(A_1\cap B)}{P(B)}=\frac{P(B|A_1)P(A_1)}{P(B|A_1)P(A_1)+P(B|A_2)P(A_2)}</math>berechnen. Für <math>P(B)</math> resultiert:<math>P(B)=P(B|A_1)\cdot P(A_1)+P(B|A_2)\cdot P(A_2)=0,3125</math><math>\rightarrow P(A_1|B)=0,76</math>


Zeile 243: Zeile 244:
I: Mit Bazillus infiziert; E: Erkennen des Bazillus durch Test (positiver Befund)<br />
I: Mit Bazillus infiziert; E: Erkennen des Bazillus durch Test (positiver Befund)<br />
Gegeben:<br />
Gegeben:<br />
<math>P(E| I)=0,95;\hspace{1cm}P(E|\overline{I})=0,03\hspace{1cm}P(I)=0,02</math><br />
* <math>P(E| I)=0,95</math>
* <math>P(E|\overline{I})=0,03 </math>
* <math>P(I)=0,02</math>
<br />
Daraus ergeben sich:<br />
Daraus ergeben sich:<br />
<math>P(\overline{E}| I)=0,05;\hspace{1cm}P(\overline{E}|\overline{I})=0,97;\hspace{1cm}P(\overline{I})=0,98</math><br />
<math>P(\overline{E}| I)=0,05; P(\overline{E}|\overline{I})=0,97; P(\overline{I})=0,98</math><br />
Gesucht: <math>P(I| E)=P(E\cap I)/P(E)</math><br />
Gesucht: <math>P(I| E)=P(E\cap I)/P(E)</math><br />
<math>P(E\cap I)=P(E| I)P(I)=0,019</math><br />
<math>P(E\cap I)=P(E| I)P(I)=0,019</math><br />
Zeile 260: Zeile 264:


Ereignisse:<br />
Ereignisse:<br />
<math>A=\mbox{"`Fritzi braucht mehr als 30 Min. bis in die Uni"'}</math><br />
<math>A=\mbox{Fritzi braucht mehr als 30 Min. bis in die Uni}</math><br />
<math>B_1=\mbox{"`Fritzi nimmt das Fahrrad"'}</math><br />
<math>B_1=\mbox{Fritzi nimmt das Fahrrad}</math><br />
<math>B_2=\mbox{"`Fritzi nimmt die Straßenbahn"'}</math>
<math>B_2=\mbox{Fritzi nimmt die Straßenbahn}</math>


Gegeben:<br />
Gegeben:<br />
<math>P(B_1)=0,8;\hspace{1cm}P(B_2)=0,2;\hspace{1cm}P(A|B_1)=0,3\hspace{1cm}P(A|B_2)=0,6</math>
* <math>P(B_1)=0,8</math>
* <math>P(B_2)=0,2 </math>
* <math>P(A|B_1)=0,3</math>
* <math>P(A|B_2)=0,6</math>


Gesucht:<br />
Gesucht:<br />
<math>\begin{aligned}
<math>\begin{align}
     P(B_2|A)&=&\frac{P(A|B_2)\cdot P(B_2)}{P(A|B_1)\cdot P(B_1)+P(A|B_2)\cdot P(B_2)}\\
     P(B_2|A)&=&\frac{P(A|B_2)\cdot P(B_2)}{P(A|B_1)\cdot P(B_1)+P(A|B_2)\cdot P(B_2)}\\
             &=& 0,\overline{333}\end{aligned}</math>
             &=& 0,\overline{333}\end{align}</math>


===Felgen===
===Felgen===
Zeile 306: Zeile 313:


Ereignisse:<br />
Ereignisse:<br />
<math>D=\mbox{"`Donnerstag"'}</math>;<math>\overline{D}=\mbox{"`nicht Donnerstag"'}</math><br />
<math>D=\mbox{Donnerstag}</math>;<math>\overline{D}=\mbox{nicht Donnerstag}</math><br />
<math>Y=\mbox{"`Scotland Yard fasst Täter am selben Tag"'}</math>,<br />
<math>Y=\mbox{Scotland Yard fasst Täter am selben Tag}</math>,<br />
<math>H=\mbox{"`Sherlock Holmes fasst Täter am selben Tag"'}</math><br />
<math>H=\mbox{Sherlock Holmes fasst Täter am selben Tag}</math><br />
<math>G=\mbox{"`Täter am selben Tag im Gefängnis"'}</math>
<math>G=\mbox{Täter am selben Tag im Gefängnis}</math>


Gegeben:<br />
Gegeben:<br />
Zeile 316: Zeile 323:


Gesucht:<br />
Gesucht:<br />
<math>\begin{aligned}
<math>\begin{align}
   P(G|D)&=&P(Y|D)=0,25\\
   P(G|D)&=&P(Y|D)=0,25\\
   P(G|\overline{D})&=&P(Y\cup H|\overline{D})\\
   P(G|\overline{D})&=&P(Y\cup H|\overline{D})\\
Zeile 323: Zeile 330:
   P(G)&=&P(G|D)\cdot P(D)+P(G|\overline{D})\cdot P(\overline{D})\\
   P(G)&=&P(G|D)\cdot P(D)+P(G|\overline{D})\cdot P(\overline{D})\\
   &=&0,25\cdot1/6+0,5125\cdot5/6=0,46875\approx0,47
   &=&0,25\cdot1/6+0,5125\cdot5/6=0,46875\approx0,47
  \end{aligned}</math>
  \end{align}</math>


===Garderobe===
===Garderobe===
Zeile 337: Zeile 344:
<li><p><math>\overline{A}</math>: Kein Gast hat an meinem Geburtstag Geburtstag</p></li></ul>
<li><p><math>\overline{A}</math>: Kein Gast hat an meinem Geburtstag Geburtstag</p></li></ul>


<p>Wenn die Geburtstage unabhängig sind, dann gilt: <math>\begin{aligned}
<p>Wenn die
    P(A)&=1- P(\overline{A})\\
        &=1-\left(\frac{364}{365}\right)^3=0,0082
        \end{aligned}</math></p></li>
<li><p>Dafür muss man die Gegenwahrscheinlichkeit benutzen:</p>
<ul>
<li><p><math>B</math>: Min. zwei Gäste haben am gleichten Tag Geburtstag</p></li>
<li><p><math>\overline{B}</math>: Alle Gäste haben an unterschiedlichen Tagen Geburtstag</p></li></ul>
 
<p>Die Anzahl aller möglichen Geburtstagskombination berechnet sich als Variation mit Wiederholung: <math>V^W(365;3)= 365^3</math>. Die Anzahl der für <math>\overline{B}</math> günstige Ereignisse berechnet sich als Variation ohne Wiederholung: <math>V(365;3)=\frac{365!}{362!}=365\cdot364\cdot363</math>. <math>P(B)=1-P(\overline{B})=1-\frac{365}{365}\frac{364}{365}\frac{363}{365}=0,0082</math></p></li>
<li><p><math>\begin{aligned}
    P(A)&=1-\left(\frac{364}{365}\right)^{23}=0,0651\\
    P(B)&=1-\frac{365}{365}\ldots\frac{343}{365}=0,5073
    \end{aligned}</math></p></li>
<li><p>Der Unterschied liegt darin, dass bei <math>A</math> einer der Gäste am gleichen Tag wie ich Geburtstag haben muss. Bei <math>B</math> müssen zwei Gäste am gleichen Tag im Jahr Geburtstag haben, jedoch nicht notwendigerweise am gleichen Tag wie ich.</p></li></ul>
 
===Hörer/innen einer Statistik–Vorlesung===
 
<math>M = </math>{männlicher Hörer}, <math>F = </math>{weiblicher Hörer},<br />
<math>V = </math>{Hörer ist Student VWL}, <math>B = </math>{Hörer ist Student BWL}
 
* <math>P(M) = 0,4</math>
* <math>P(W) = 0,6    </math>
* <math>P(M \cup V) = 0,71 </math>
* <math>P(W \cap B)= 0,29 </math>
* <math>P(B|W) = 0,483</math>
* <math>P(M|V) = 0,31  </math>
 
===Jeeps===
 
<math>A=\mbox{\glqq Jeep 1 startet\grqq}</math>, <math>B=\mbox{\glqq Jeep 2 startet\grqq}</math><br />
<math>P(\mbox{kein Jeep startet})=P(\overline{A}\cap\overline{B})=P(\overline{A})\cdot P(\overline{B})=(1-P(A))\cdot(1-P(B))=0,2\cdot0,5=0,1</math><br />
===Kartenspiel===
 
<math>A \cap C = \emptyset</math>; <math> A \cap D = \emptyset</math><br />
<math>B \cap D = \emptyset</math>; <math> C \cap D = \emptyset</math>
 
===Kfz–Händler===
 
<math>K = </math>{PKW weist Karosseriemängel auf}, <math>M =</math>{PKW weist Motormängel auf}<br />
<math>M \cap K = </math>{PKW weist Karosserie- und Motormängel auf}<br />
Gesucht <math>P(\overline{M}\cap \overline{K})</math><br />
<math>P(\overline{M}\cap \overline{K}) = 1 - P(M \cup K )</math><br />
<math>P(M \cup K ) = P(M) + P(K) - P(M \cap K) = </math>0,6 + 0,8 - 0,4 = 1<br />
<math>P(\overline{M}\cap\overline{K}) = 1 - 1 = 0</math>
 
===Kugeln===
 
<math>A_{1}</math> = {die 1. Ziehung liefert eine rote Kugel}<br />
<math>A_{2}</math> = {die 2. Ziehung liefert eine weiße Kugel}<br />
<math>A_{3}</math> = {die 3. Ziehung liefert eine rote Kugel}<br />
<math>P(A_{1}) = 2/10</math>; <math>P(A_{2}|A_{1}) = 3/9</math>; <math>P(A_{3}|A_{1} \cap A_{2}) = 1/8</math><br />
<math>P(A_{1}\cap A_{2}\cap A_{3}) = 1/120</math>; Multiplikationssatz<br />
===Kundenbesuche===
 
Ereignisse:<br />
<math>G=\mbox{\glqq M. nimmt Übergang Guben\grqq}</math>;<br />
<math>F=\mbox{\glqq M. nimmt Übergang Forst\grqq}</math><br />
<math>W=\mbox{\glqq M. muss am Übergang sehr lange warten\grqq}</math><br />
Gegeben:<br />
<math>P(G)=0,6\hspace{1cm}P(F)=0,4\hspace{1cm}P(G\cap W)=0,3</math><br />
Gesucht:<br />
<math>P(W|G)=\displaystyle\frac{P(G\cap W)}{P(G)}=\frac{0,3}{0,6}=0,5</math>
 
===Last===
 
<math>A_{1}</math> = {Seil 1 hält}; <math>A_{2}</math> = {Seil 2 hält}; <math>P(A_{1}) = P(A_{2}) = 0,99</math><br />
<math>P(A_{1} \cup A_{2}) = 0,9999</math>; allgemeiner Additionssatz<br />
===Lebenserwartung der US–Bürger===
 
<math>X</math>: “Alter”<br />
Gegeben: <math>P(X\geq25)=0,98</math> und <math>P(X\geq65)=0,8</math><br />
Gesucht: <math>P(X<65|X\geq25)</math><br />
Mit den gegebenen Wahrscheinlichkeiten kann berechnet werden:<br />
<math>P(X\geq65|X\geq25)=P(\{X\geq65\}\cap\{X\geq25\})/P(X\geq25)</math><br />
Da das Ergeignis <math>\{X\geq65\}</math> in dem Ereignis <math>\{X\geq25\}</math> enthalten ist, folgt für den Durchschnitt der beiden Ereignisse <math>\{X\geq65\}\cap\{X\geq25\}=\{X\geq65\}</math> und somit<br />
<math>P(X\geq65|X\geq25)=P(\{X\geq65\}\cap\{X\geq25\})/P(X\geq25)=P(X\geq65)/P(X\geq25)=0,8/0,98=0,81632653</math>.<br />
Es folgt: <math>P(X<65|X\geq25)=1-P(X\geq65|X\geq25)=1-0,81632653=0,18367347</math><br />
===Münzwurf===
 
Wir definieren die Ereignisse:
 
* <math>H</math>: Hinz fährt mit der Strassenbahn
* <math>K</math>: Kunz fährt mit der Strassenbahn
* <math>M</math>: Die Münze von Hinz zeigt Kopf
* <math>M_1</math>: Die Münze 1 von Kunz zeigt Zahl
* <math>M_2</math>: Die Münze 2 von Kunz zeigt Zahl
 
Die Wahrscheinlichkeit, dass beide mit der Straßenbahn fahren ist damit gegeben durch <math>\begin{aligned}
P(H\cap K) &=P(H) \cdot P(K)\\
&=P(M)\cdot (1-P(M_1) \cdot P(M_2))\\
&=0,5\cdot(1-0,5\cdot 0,5)=\frac{3}{8}\\
&=37,5\%\end{aligned}</math> Im ersten Schritt haben wir die Unabhängigkeit der Entscheidungen von Hinz und Kunz verwendet, im zweiten Schritt die Gegenwahrscheinlichkeit (Wk. Strassenbahn zu fahren = 1- Wk. Fahrrad zu fahren), im dritten Schritt noch einmal die Unabhängigkeit der beiden Münzwürfe von Kunz.
 
===Musikkassette===
 
<math>A_1 = \mbox{\glqq Kassette wird im Auto benutzt\grqq}, P(A_1) = 0,7</math>;<br />
<math>A_2 = \mbox{\glqq Kassette wird im Haus benutzt\grqq}, P(A_2) = 0,3</math>;<br />
<math>B = \mbox{\glqq Kassette besitzt eine Lebensdauer von mehr als 500 Stunden\grqq}</math>;<br />
<math>P(B| A_1) = 0,75, P(B| A_2) = 0,95; A_1\cap A_2 = \varnothing, A_1\cup A_2 = S</math>;<br />
<math>P(B) = \sum_i^n P(B| A_i)P(A_i) = 0,81</math> (Satz von Bayes)<br />
===Nicht–disjunkte Teilmengen===
 
* <math>A \cup B \cup C  </math>
* <math>A \cap \overline{B} \cap \overline{C}</math>
* <math>A \cap B \cap \overline{C}</math>
* <math>A \cap B \cap C          </math>
* <math>\overline{A} \cap \overline{B} \cap \overline{C}</math>
* <math>(A \cup B \cup C)\ \backslash\ [(A \cap B) \cup (B \cap C)
\cup (A \cap C)]  </math>
* <math>\overline{A \cap B \cap C}</math>
 
===Nicht–disjunkte Teilmengen===
 
Wir sagen: Ein Ereignis <math>A</math> tritt genau dann ein, wenn das Ergebnis <math>s \in S</math> des Zufallsexperiments (bzw. einer konkreten Durchführung des Zufallsexperiments) in <math>A</math> liegt, falls also <math>s \in A</math> gilt.
 
Sei nun <math>s \in S</math> ein beliebiges Ergebnis des Zufallsexperiments. Dann gilt:
 
* wenigstens eines tritt ein <math>\begin{aligned}
&\Leftrightarrow \text{$A$ tritt ein oder $B$ tritt ein oder $C$ tritt ein} \\
&\Leftrightarrow s \in A \text{ oder } s \in B \text{ oder } s \in C \\
&\Leftrightarrow s \in A \cup B \cup C. \tag{Definiton von ``$\cup$''}\end{aligned}</math> Veranschaulichung:
* nur <math>A</math> eintritt (d.h. <math>B</math> und <math>C</math> treten nicht ein) <math>\begin{aligned}
&\Leftrightarrow \text{$A$ tritt ein und $B$ tritt nicht ein und $C$ tritt nicht ein} \\
&\Leftrightarrow s \in A \text{ und } s \notin B \text{ und } s \notin C \\
&\Leftrightarrow s \in A \text{ und } s \in \bar{B} \text{ und } s \in \bar{C} \tag{Definition von Komplement}\\
&\Leftrightarrow s \in A \cap \bar{B} \cap \bar{C}. \tag{Definiton von ``$\cap$''}\end{aligned}</math> Alternativ: <math>\begin{aligned}
&\Leftrightarrow s \in A \text{ und } s \notin B \text{ und } s \notin C \\
&\Leftrightarrow s \in A \text{ und } s \notin B \cup C \\
&\Leftrightarrow s \in A \setminus ( B \cup C ). \tag{Definiton von ``$\setminus$''}\end{aligned}</math> Oder: <math>\begin{aligned}
&\Leftrightarrow s \in A \text{ und } s \notin B \text{ und } s \notin C \\
&\Leftrightarrow s \in A \text{ und } s \notin B \cup C \\
&\Leftrightarrow s \in A \text{ und } s \in \overline{B \cup C} \\
&\Leftrightarrow s \in A \cap \overline{B \cup C}.\end{aligned}</math> Veranschaulichung:
* <math>A</math> und <math>B</math> treten ein, aber nicht <math>C</math> <math>\begin{aligned}
&\Leftrightarrow \text{$A$ tritt ein und $B$ tritt ein und $C$ tritt nicht ein} \\
&\Leftrightarrow s \in A \text{ und } s \in B \text{ und } s \notin C \\
&\Leftrightarrow s \in A \text{ und } s \in B \text{ und } s \in \bar{C} \\
&\Leftrightarrow s \in A \cap B \cap \bar{C}.\end{aligned}</math> Alternativ: <math>\begin{aligned}
&\Leftrightarrow s \in A \text{ und } s \in B \text{ und } s \notin C \\
&\Leftrightarrow s \in ( A \cap B ) \setminus C.\end{aligned}</math> Veranschaulichung:
* alle drei treten ein <math>\begin{aligned}
&\Leftrightarrow \text{$A$ tritt ein und $B$ tritt ein und $C$ tritt ein} \\
&\Leftrightarrow s \in A \text{ und } s \in B \text{ und } s \in C \\
&\Leftrightarrow s \in A \cap B \cap C.\end{aligned}</math> Veranschaulichung:
* keines tritt ein <math>\begin{aligned}
&\Leftrightarrow \text{$A$ tritt nicht ein und $B$ tritt nicht ein und $C$ tritt nicht ein} \\
&\Leftrightarrow s \notin A \text{ und } s \notin B \text{ und } s \notin C \\
&\Leftrightarrow s \in \bar{A} \text{ und } s \in \bar{B} \text{ und } s \in \bar{C}\\
&\Leftrightarrow s \in \bar{A} \cap \bar{B} \cap \bar{C}.\end{aligned}</math> Alternativ: <math>\begin{aligned}
&\Leftrightarrow s \notin A \text{ und } s \notin B \text{ und } s \notin C \\
&\Leftrightarrow s \notin A \cup B \cup C\\
&\Leftrightarrow s \in \overline{A \cup B \cup C}.\end{aligned}</math> Veranschaulichung:
* es tritt genau eines ein <math>\Leftrightarrow</math> es tritt wenigstens eines ein (siehe a)) aber nicht zwei (vgl. c)) und auch nicht alle drei (siehe d)) <math>\begin{aligned}
&\Leftrightarrow s \in A \cup B \cup C \text{ und }
s \notin A \cap B \text{ und }
s \notin B \cap C \text{ und } \\
& \phantom{\,\,\Leftrightarrow s \in A \cup B \cup C } \text{ und }s \notin A \cap C \text{ und }
s \notin A \cap B \cap C \\
&\Leftrightarrow s \in A \cup B \cup C \text{ und }
s \notin A \cap B \text{ und }
s \notin B \cap C \text{ und } \\
&\phantom{\,\,\Leftrightarrow s \in A \cup B \cup C } \text{ und }s \notin A \cap C
%\tag{da $A\cap B \cap C \subseteq A\capC$} \\
\\
&\Leftrightarrow s \in A \cup B \cup C \text{ und } s \notin (A \cap B) \cup (B \cap C) \cup (A \cap C) \\
&\Leftrightarrow
s \in \left[A \cup B \cup C \right]\setminus \left[(A \cap B) \cup (B \cap C) \cup (A \cap C)\right].\end{aligned}</math> ''Bemerkung.'' Dieses Ereignis lässt sich auch noch auf andere Arten darstellen, die Herleitung kann aber recht mühsam werden. Veranschaulichung:
* es treten h&quot;<span>o</span>chstens zwei eintreten <math>\Leftrightarrow</math> alle drei treten nicht gleichzeitig ein (siehe d)) <math>\begin{aligned}
&\Leftrightarrow s \notin A \cap B \cap C \\
&\Leftrightarrow s \in \overline{A \cap B \cap C}.\end{aligned}</math> Alternativ: <math>\begin{aligned}
&\Leftrightarrow s \notin A \cap B \cap C \\
&\Leftrightarrow s \in \overline{A \cap B \cap C} \\
&\Leftrightarrow s \in S\setminus(A \cap B \cap C) \\
&\Leftrightarrow s \in S\setminus A \text{ oder } s \in S\setminus B \text{ oder } s \in S\setminus C \\
&\Leftrightarrow s \in \bar{A} \text{ oder } s \in \bar{B} \text{ oder } s \in \bar{C} \\
&\Leftrightarrow s \in \bar{A} \cup \bar{B} \cup \bar{C}. \end{aligned}</math> Veranschaulichung:
 
===Öffentliche Verkehrsmittel===
 
* <math>P(\overline{U}) = 1 - P(U) = 1 - 0,4 = 0,6</math>
* <math>P(S \cup B) = 0,4 </math>
* <math>P(\overline{U \cup S \cup B}) = 0,29</math>
* <math>P(\overline{U \cap S \cap B}) = 0,99</math>
 
===Papierstreifen===
 
<math>P(A_{1}) = P(A_{2}) = P(A_{3}) = 1/2</math>
 
* <math>A = A_{1} \cap A_{2} \cap A_{3} =\emptyset {\rightarrow} P(A) = 0</math><br />
<math> P(A_{1})P(A_{2})P(A_{3}) = \frac{1}{2} \cdot \frac{1}{2}\cdot \frac{1}{2} = 1/8 \neq 0</math><br />
Die 3 Ereignisse sind nicht voneinander unabhängig.
* Die Ereignisse sind paarweise unabhängig. z.B. für <math>A_{1}</math>, <math>A_{2}</math>: <math>P(A_{2}|A_{1}) = \frac{1}{2} = P(A_{1})</math> und <math>P(A_{1}|A_{2}) = \frac{1}{2} = P(A_{2})</math>
 
===Produktionshalle===
 
* <math>A = A_{1} \cup A_{2} \cup A_{3} = (A_{1} \cap \overline{A}_{2} \cap \overline{A}_{3}) \cup (\overline{A}_{1} \cap A_{2} \cap  \overline{A}_{3})
                        \cup (\overline{A}_{1} \cap \overline{A}_{2}\cap A_{3})
                        \cup (A_{1} \cap A_{2} \cap A_{3})\\
            \cup (\overline{A}_{1} \cap A_{2} \cap A_{3})\cup (A_{1} \cap \overline{A}_{2} \cap A_{3})\cup (A_{1} \cap A_{2} \cap \overline{A}_{3}),</math><br />
<math>B = A_{1} \cap A_{2} \cap A_{3}</math>,<br />
<math>C = A_1 \cap A_{2} \cap \overline{A}_{3}</math>,<br />
<math>D = \overline{A}_{1} \cap \overline{A}_{2} \cap \overline{A}_{3}</math>,<br />
<math>E = (\overline{A}_{1} \cap A_{2} \cap A_{3})
            \cup (A_{1} \cap \overline{A}_{2} \cap
            A_{3}) \cup (A_{1} \cap A_{2}
            \cap \overline{A}_{3}) </math><br />
 
* <math>A = \overline{D}</math> oder <math>D = \overline{A}</math>,<br />
<math>B \subset A</math>, <math>C \subset A</math>, <math>E \subset A</math>, <math>D \subset \overline{B}</math>, <math>C \subset E</math>
 
===RealProfit===
 
Gegeben:<br />
<math>P(X\leq 0)=1-0.75=0.25</math><br />
Gesucht: <math>\begin{aligned}
P(X\leq 0)&=&P(X=-10000)+P(X=0) \\
&=&P(X=-10000)+0,2=0.25\\
&\Leftrightarrow& P(X=-10000)=0.05\\
P(X=20000)&=&1-P(X=-10000)-P(X=0)-P(X=5000)\\
                    &-&P(X=10000)-P(X=15000) \\
                    &=&0,2\end{aligned}</math>
 
===Regal===
 
<math>A = </math>{Bände stehen in richtiger Reihenfolge von rechts nach links oder von links nach rechts}<br />
<math>P(4) = 4! = 24 </math> mögliche Reihenfolgen der 4 Bände, zwei davon günstig<br />
<math>P(A) = 2/24 = 1/12</math><br />
===Reitturnier===
 
Ereignisse:
 
* S: Hindernis ist Steilsprung
* O: Hindernis ist Oxer
* G: Hindernis ist Graben
* F: Pferd macht Fehler am Hindernis
 
Wahrscheinlichkeiten: <math>\begin{aligned}
P(S)&=0,6 \Rightarrow P(\overline{S})=0,4\\
P(O)&=0,3 \Rightarrow P(\overline{O})=0,7\\
P(G)&=0,1 \Rightarrow P(\overline{G})=0,1\\
P(F|S)&=0,03 \Rightarrow P(\overline{F}|S)=0,97\\
P(F|O)&=0,04 \Rightarrow P(\overline{F}|O)=0,96\\
P(F|G)&=0,05 \Rightarrow P(\overline{F}|G)=0,95\\\end{aligned}</math>
 
* Gesucht ist die Wahrscheinlichkeit <math>P(F)</math>, die wir mit dem Satz von der totalen Wahrscheinlichkeit berechnen: <math>\begin{aligned}
P(F)&=P((F\cap S)\cup(F\cap O)\cup(F\cap G))\\ 
&=P(F\cap S)+P(F\cap O)+P(F\cap G)\\ 
&=P(F|S)P(S)+P(F|O)P(O)+P(F|G)P(G)\\
&=0,03\cdot 0,6 + 0,04 \cdot 0,3 + 0,05 \cdot 0,1 \\
&=0,035\end{aligned}</math>
* Wir betrachten die Ereignisse: <math>O_i</math> Fehler am <math>i</math>ten Oxer mit <math>P(O_i)=0,96</math>. Gesucht ist die Wahrscheinlichkeit <math>P(\overline{O}_1\cap \overline{O}_2 \cap O_3)</math>. Wir verwenden die Unabhängigkeit der <math>O_i</math> und erhalten <math>\begin{aligned}
P(\overline{O}_1\cap \overline{O}_2 \cap O_3)
&= P(\overline{O}_1)\cdot P(\overline{O}_2) \cdot P(O_3)\\
&=0,96 \cdot 0,96 \cdot 0,04 \\
&=\frac{576}{15625} \approx 0,04.\end{aligned}</math>
 
===Schachbrett===
 
<math>A = </math>{Plazieren von 8 Türmen, so dass keiner den anderen schlagen kann}<br />
Anzahl der möglichen Fälle: <math>K(n,k) = K(64,8)</math><br />
Anzahl der für <math>A</math> günstigen Fälle: <math>P(k) = P(8) = 8!</math><br />
<math>P(A) =\frac{P(k)}{K(n,k)}=\frac{8!8!56!}{64!} = 9,1\cdot 10^{-6}</math><br />
===Schummelei===
 
* Ereignisse: <math>S</math> - Student schummelt, <math>V</math> - Maschine sagt Student schummelt (Schummelverdacht) <math>\begin{aligned}
P(V|S)&=0,9 \Rightarrow P(\overline{V}|S) = 0,1\\
P(\overline{V}|\overline{S})&=0,9 \Rightarrow P(V|\overline{S}) = 0,1\\
P(S)&=0,1 \Rightarrow P(\overline{S}) = 0,9\\\end{aligned}</math>
* Gesucht ist <math>P(V)</math>. Wir verwenden den Satz von der totalen Wahrscheinlichkeit und erhalten <math>\begin{aligned}
P(V)&= P(V\cap S)+ P(V\cap \overline{S}) \\
&=P(V|S)\cdot P(S)+P(V|\overline{S})\cdot P(\overline{S})\\
&=0,9 \cdot 0,1+0,1\cdot 0,9 \\
&=0,18\end{aligned}</math>
* Gesucht ist die Wahrscheinlichkeit <math>P(S|V)</math>. Wir verwenden den Satz von Bayes, der sich aus der Definition der bedingten Wahrscheinlichkeit und dem Satz von der totalen Wahrscheinlichkeit ergibt. Wir haben den Satz von der totalen Wahrscheinlichkeit aber bereits in der vorherigen Teilaufgabe angewandt und erhalten daher: <math>\begin{aligned}
P(S|V)&= \dfrac{P(S \cap V) }{P(V)}\\
&=\dfrac{P(V|S)\cdot P(S)}{P(V)}\\
&=\frac{0,9 \cdot 0,1}{0,18} \\
&=0,5\end{aligned}</math>
 
===Spiel 4 aus 20===
 
Es gibt <math>\displaystyle\binom{4}{2}</math> Möglichkeiten 2 aus den 4 geratenen Kugeln zu ziehen und <math>\displaystyle\binom{16}{2}</math> für die übrigen. Da jede Kombination mit jeder verknüpft werden kann gibt es <math>\displaystyle\binom{4}{2}\displaystyle\binom{16}{2}</math> günstige Möglichkeiten. Also ist die Wahrscheinlichkeit für 2 richtige:<math>\frac{\displaystyle\binom{4}{2}\binom{16}{2}}{\displaystyle\binom{20}{4}}=14,86\%</math>
 
===Summe von Augenzahlen===
 
Summe der Augenzahlen für alle möglichen Kombinationen:<br />
<br />
 
 
 
{|class="wikitable"
!align="right"|
 
!align="right"| '''1'''
!align="right"| '''2'''
!align="right"| '''3'''
!align="right"| '''4'''
!align="right"| '''5'''
!align="right"| '''6'''
|-
|align="right"| '''1'''
|align="right"| 2
|align="right"| 3
|align="right"| 4
|align="right"| ''5''
|align="right"| 6
|align="right"| 7
|-
|align="right"| '''2'''
|align="right"| 3
|align="right"| 4
|align="right"| ''5''
|align="right"| 6
|align="right"| 7
|align="right"| 8
|-
|align="right"| '''3'''
|align="right"| 4
|align="right"| ''5''
|align="right"| 6
|align="right"| 7
|align="right"| 8
|align="right"| 9
|-
|align="right"| '''4'''
|align="right"| ''5''
|align="right"| 6
|align="right"| 7
|align="right"| 8
|align="right"| 9
|align="right"| 10
|-
|align="right"| '''5'''
|align="right"| 6
|align="right"| 7
|align="right"| 8
|align="right"| 9
|align="right"| 10
|align="right"| 11
|-
|align="right"| '''6'''
|align="right"| 7
|align="right"| 8
|align="right"| 9
|align="right"| 10
|align="right"| 11
|align="right"| 12
|}
 
<math>P(\{2,3\}|\mbox{Summe}=5)=\displaystyle\frac{P(\{2,3\})}{P(\sum=5)}=\displaystyle\frac{2/36}{4/36}=\displaystyle\frac{1}{2}</math>
 
===Systemausfallrisiko===
 
A: Ausfall des Computers A im Verlaufe eines Arbeitstages; <math>P(A)=0,05</math><br />
B: Ausfall des Computers B im Verlaufe eines Arbeitstages; <math>P(B)=0,04</math><br />
C: <math>A\cap B=</math> “Ausfall beider Computer im Verlaufe eines Arbeitstages” = “Systemausfall”<br />
<math>\overline{C}=\mbox{"`Computer A und B fallen nicht gleichzeitig aus"'}=\mbox{"`kein Systemausfall"'}</math><br />
A und B unabhängige Ereignisse; Multiplikationssatz für unabhängige Ereignisse:<br />
<math>P(C)=P(A\cap B)=P(A)\cdot P(B)=0,002</math><br />
Gesucht: <math>P(\overline{C})</math><br />
Möglichkeit 1:<br />
<math>P(\overline{C})=1-P(C)=0,998</math><br />
Möglichkeit 2:<br />
<math>\overline{C}=\overline{A\cap B}=(\overline{A}\cap \overline{B})\cup(\overline{A}\cap B)\cup(A\cap \overline{B})</math>;<br />
<math>\begin{aligned}
P(\overline{C}) & = & P(\overline{A})\cdot P(\overline{B})+P(\overline{A})\cdot P(B)+P(A)\cdot P(\overline{B})\\
& = & 0,95\cdot0,96+0,95\cdot0,04+0,05\cdot0,96\\
& = & 0,912+0,038+0,048\\
& = & 0,998\end{aligned}</math>
 
===Tagesproduktion===
 
<math>M_{i} = </math>{Stück stammt von Maschine <math>i</math>}; <math>i = 1,2,3</math><br />
<math>P(M_{1}) = 0,1</math>; <math>P(M_{2}) = 0,4</math>; <math>P(M_{3}) = 0,5</math><br />
<math>A = </math>{Ausschussstück}<br />
<math>P(A) = 0,031</math>; Formel für totale Wahrscheinlichkeit<br />
<math>P(A|M_{1}) = 0,05</math>; <math>P(A|M_{2}) = 0,04</math>; <math>P(A|M_{3}) = 0,02</math><br />
Satz von Bayes: <math>P(M_{1}|A) = 0,1613</math>; <math>P(M_{2}|A) = 0,5161</math>; <math>P(M_{3}|A) = 0,3226</math><br />
===Tageszeitungen===
 
<math>Z_{i}</math> = {Bewohner liest Zeitung <math>i</math>}, <math>i = 1,2</math><br />
<math>P(Z_{1}) = 0,6</math>; <math>P(Z_{2}) = 0,8</math>; <math>P(\overline{Z}_{1}\cap \overline{Z}_{2}) = 0,1
= P(\overline{Z_{1} \cup Z_{2}})</math> <math>\Rightarrow</math> <math>P({Z_{1} \cup Z_{2}})=0,9</math>
 
* <math>P(Z_{1} \cap Z_{2}) = 0,5</math>; allgemeiner Additionssatz
* <math>P(Z_{1} \cap \overline{Z}_{2}) = P(Z_{1}) - P(Z_{1} \cap Z_{2}) =
  0,1</math>
* <math>P(Z_{2} | \overline{Z}_{1}) = 0,75</math>; Formel für bedingte Wahrscheinlichkeit
* <math>P[(\overline{Z}_{1} \cap \overline{Z}_{2}) \cup (\overline{Z}_{1}
\cap Z_{2}) \cup (Z_{1} \cap \overline{Z}_{2})]  = 1 - P(Z_{1} \cap Z_{2}) = 0,5</math>
* <math>P(\overline{Z}_{1}) = 0,4    </math>
 
===Tennis===
 
A: Assistent geht spielen, d.h. kann nicht angetroffen werden; <math>P(A)=8/20=0,4</math>;<br />
B: Chef sucht ihn auf oder ruft an; <math>P(B)=0,1</math><br />
Da A und B unabhängig voneinander sind, folgt <math>P(A\cap B)=P(A)\cdot P(B)</math>.<br />
Wenn <math>P(A\cap B)=P(A)\cdot P(B)\leq0,01</math> sein soll, und <math>P(B)=0,1</math> ist, muss <math>P(A)\leq0,1=2/20</math> sein, so dass der Assistent nur an höchstens 2 von 20 Arbeitstagen spielen gehen darf.
 
===Unabhängige Ereignisse===
 
Wir betrachten den Ereignisraum <math>S</math> mit der Borelalgebra als Menge der Ereignisse. Entsprechend der Abbildung gilt: <math>P[A]>0</math> und <math>P[B_i]>0</math> für <math>i=1,2,3,4</math>. Nach Definition sind zwei Ereignisse C und D unabhängig, wenn gilt<br />
<math>P[C\cap D]=P[C] \cdot P[B].</math>
 
* Zwei Ereignisse <math>C</math> und <math>D</math> mit <math>P[C]>0</math> und <math>P[D]>0</math>, die disjunkt sind, sind immer abhängig: <math>P[C \cap D]=0 < P[C] \cdot P[D]</math>.Es fallen also als Lösungen heraus: a) – g).
* Zwei Ereignisse, von denen eines das andere enthält, sind immer abhängig, wenn das kleinere Ereignis eine positive Wahrscheinlichkeit hat und das grössere nicht Wahrscheinlichkeit 1: Für <math>B_3\subset A</math> folgt: <math>P[A \cap B_3]=P[B_3]>P[B_3] \cdot P[A].</math>Damit fällt i) als Lösung weg.
* Das Ereignis <math>B_2</math> liegt mit seiner halben Fläche in <math>A</math>. Auf <math>A</math> liegt <math>\frac{1}{4}</math> der Wahrscheinlichkeitsmasse, insbesondere ist die Wahrscheinlichkeitsmasse kleiner als <math>\frac{1}{2}</math>. Deshalb gilt <math>P[A \cap B_2]=\frac{P[A]\cdot P[B_2]}{2}<P[A]\cdot P[B_2].</math> Damit fällt h) als Lösung weg.
* <math>B_4</math> und der Ereignisraum <math>S</math> sind durch konzentrische Kreise dargestellt. Der Anteil von <math>A\cap B_4</math> an <math>B_4</math> ist somit gleich dem Anteil von A an S. Folglich gilt: <math>P[A|B_4]=P[A\cap B_4]/P[B_4]=P[A]/P[S]=P[A].</math> <math>A</math> und <math>B_4</math> sind also unabhängig (Fall j).
 
===Verkehrsunfälle===
 
Wir betrachten den Ereignisraum <math>S := \{K, \overline{K}\} \times \{G, \overline{G}\}</math> mit der Potenzmenge als Ereignismenge. Die Zufallsvariable <math>V</math> (Verletzung) gibt an, ob eine schwere Kopfverletzung eingetreten ist (<math>V=K</math>), oder nicht (<math>V=\overline{K}</math>). Die Zufallsvariable <math>S</math> (Sicherheit) gibt an, ob ein Gurt angelegt worden ist (<math>S=G</math>), oder nicht (<math>S=\overline{G}</math>). Gesucht ist die Wahrscheinlichkeit <math>P[\{S=\overline{G}\} \mid \{V=K\}]=\dfrac{P[\{S=\overline{G}\} \cap \{V=K\}]}{P[\{V=K\}]}.</math> Gegeben sind die Wahrscheinlichkeiten <math>\begin{aligned}
P[\{S=G\}] &=0,85\\
P[\{V=K\} \mid \{S=\overline{G}\}] &= 0,62 \\
P[\{V=K\} \mid \{S=G\}] &= 0,08\end{aligned}</math> Anwenden des Satzes von Bayes im ersten und der Definition der bedingten Wahrscheinlichkeit im zweiten Schritt ergibt: <math>\begin{aligned}
&P[\{S=\overline{G}\} \mid \{V= K\}] \\
&= \dfrac{ P[\{V=K\} \cap \{S=\overline{G}\}]\cdot P[\{S=\overline{G}\}]}{P[\{V=K\} \mid \{S=\overline{G}\}]\cdot P[\{S=\overline{G}\}]+P[\{V=K\} \mid \{S=G\}]\cdot P[\{S=G\}]}
\intertext{Um die Wahrscheinlichkeit im Zähler mit den gegebenen Informationen zu berechnen, verwenden wir die Definition der bedingten Wahrscheinlichkeit:}
&= \dfrac{ P[\{V=K\} \mid \{S=\overline{G}\}]\cdot P[\{S=\overline{G}\}]}{P[\{V=K\} \mid \{S=\overline{G}\}]\cdot P[\{S=\overline{G}\}]+P[\{V=K\} \mid \{S=G\}]\cdot P[\{S=G\}]}\\
&=\dfrac{0,62\cdot 0,15}{0,62 \cdot 0,15 + 0,08 \cdot 0,85}\\
&=\dfrac{93}{161} \approx 0,578.\end{aligned}</math>
 
===Waldbrand===
 
<math>A = </math>{Förster entdeckt Brand zu spät};<br />
<math>B = </math>{Feuermelder funktioniert bei Betätigung nicht};<br />
<math>P(A) = 0,05</math>; <math>P(B) = 0,03</math><br />
<math>A \cup B = </math>{Förster entdeckt Brand zu spät oder Feuermelder funktioniert nicht}<br />
<math>P(A \cup B) = P(A)+P(B)-P(A\cap B)= 0,0785</math>; allgemeiner Additionssatz<br />
===Webstühle===
 
Wir definieren zunächst den Ereignisraum <math>\{A,\overline{A}\}^3</math> mit der Potenzmenge als Menge der Ereignisse. Die Zufallsvariable <math>{A}_{i} </math> gibt an, ob Webstuhl <math>i</math> Aufmerksamkeit beansprucht (<math>A_i=A</math>), oder nicht (<math>A_i=\overline{A}</math>), <math>i=1,2,3.</math> Nach Aufgabenstellung gilt: <math>\begin{aligned}
P[\{A_1=\overline{A}\}] &= 0,9, \\
P[\{A_2=\overline{A}\}] &= 0,8, \\
P[\{A_3=\overline{A}\}] &= 0,85. \end{aligned}</math>
 
* Gesucht ist die Wahrscheinlichkeit des Ereignisses <math>\{A_1=\overline{A}\} \cap \{A_2=\overline{A}\} \cap \{A_3=\overline{A}\}</math>. Wir nutzen die Unabhängigkeit dieser Ereignisse, um den Multiplikationssatz für unabhängige Ereignisse anzuwenden: <math>\begin{aligned}
&P[\{A_1=\overline{A}\} \cap \{A_2=\overline{A}\} \cap \{A_3=\overline{A}\}] \\
&=P[\{A_1=\overline{A}\}] \cdot P[\{A_2=\overline{A}\}] \cdot P[\{A_3=\overline{A}\}]\\
&=0,9 \cdot 0,8 \cdot 0,85 \\
&=0,612 \end{aligned}</math>
* Gesucht ist die Wahrscheinlichkeit des Ereignisses <math>\{A_1=\overline{A}\} \cup \{A_2=\overline{A}\} \cup \{A_3=\overline{A}\}</math>. Wir verwenden den Satz von de Morgan, um die Wahrscheinlichkeit des Ereignisses auf die Wahrscheinlichkeit des Gegenereignisses zurückzuführen und nutzen die Unabhängigkeit der <math>A_i's</math>, und erhalten: <math>\begin{aligned}
&P[\{ A_1=\overline{A}\} \cup \{A_2=\overline{A}\} \cup \{A_3=\overline{A}\}] \\
&= 1-P[\{A_1=A\} \cap \{A_2=A\} \cap \{A_3=A\}]\\
&=1-P[\{A_1=A\}] \cdot P[\{A_2=A\}] \cdot P[\{A_3=A\}]\\
&=1-0,1\cdot 0,2 \cdot 0,15=0,997.\end{aligned}</math>
 
===Wochenendgrundstück===
 
Wir betrachten den Ereignisraum <math>\{D, F\} \times \{R, \overline{R}\} \times \{S, \overline{S}\}</math> mit der Potenzmenge als Menge der Ereignisse.<br />
Die Zufallsvariable <math>M</math> (Münze) gibt an, ob Familie Sommer die Fähre (<math>M=F</math>) oder den Damm (<math>M=D</math>) nutzt. Die Zufallsvariable <math>W</math> (Wetter) gibt an,<br />
ob es regnet <math>(W=R)</math> oder nicht <math>(W=\overline{R})</math>. Die Zufallsvariable <math>S</math> gibt an, ob es bei der Fahrt zu einem Stau kommt (<math>S=St</math>) oder<br />
nicht (<math>S=\overline{St}</math>).
 
Familie Sommer steht genau dann nicht im Stau, wenn sie gar nicht losfährt (bei Regen) oder bei gutem Wetter ohne Stau über den Damm bzw. die Fähre nach Rügen fahren kann. D.h. die folgende Wahrscheinlichkeit ist gesucht: <math>P[\{W=R ~ \text{oder} ~ (W=\overline{R} ~ \text{und} ~ S=\overline{St})\}]</math> Wir berechnen: <math>\begin{aligned}
& P[\{W=R ~ \text{oder} ~ (W=\overline{R} ~ \text{und} ~ S=\overline{St})\}]\\
&= P[\{W=R\}]+ P[\{W=\overline{R} ~ \text{und} ~ S=\overline{St}\}] \\
&-P[\{W=R ~ \text{und} ~ W=\overline{R} ~ \text{und} ~ S=\overline{St}\}].
\intertext{Offenbar ist der Schnitt in der letzten Wahrscheinlichkeit leer, denn es kann nicht gleichzeitig regnen und nicht regnen. Also vereinfacht sich die gesuchte Wahrscheinlichkeit zu}
&=P[\{W=R\}]+ P[\{W=\overline{R} ~ \text{und} ~ S=\overline{St}\}].
\intertext{
Jetzt benutzen wir die Unabhängigkeit von Wetter $W$ und Stau $S$, um diesen Ausdruch noch weiter zu vereinfachen:}
&=P[\{W=R\}]+ P[\{W=\overline{R}\}] \cdot P[\{S=\overline{St}\}].
\intertext{Zuletzt wenden wir noch den Satz von der totalen Wahrscheinlichkeit an, um die Wahrscheinlichkeit von Stau auszurechnen und erhalten:}
&=P[\{W=R\}] \\
&P[\{W=\overline{R}\}] \cdot (P[\{S=\overline{St}\} \mid \{M=D\}] \\
&\cdot P[\{M=D\}]+P[\{S=\overline{St}\} \mid \{M=F\}]\cdot P[\{M=F\}])\\
&=0.2+0.8 \cdot (0.5 \cdot 0,75 + 0.5 \cdot 0,9 ) \\
&=0,86.\end{aligned}</math>
 
===Wurf eines Würfels===
 
* Wir fassen das zweimalige Würfeln als ''ein'' Zufallsexperiment auf. Ein Ergebnis ist dann durch das geordnete Paar bzw. 2-Tupel <math>(a,b)</math> gegeben, wobei <math>a</math> das Ergebnis im ersten Wurf und <math>b</math> das Ergebnis im zweiten Wurf angibt. Die Menge aller Ergebnisse lässt sich dann schreiben als: <math>\begin{aligned}
        S &= \{1,2,3,4,5,6\}^{2} = \{(a,b)\mid a,b \in \{1,2,3,4,5,6\}\}
        \\&= \{(1,1),(1,2),(1,3),(1,4),(1,5),(1,6),
        \\&\phantom{= \{\,\,} (2,1),(2,2),(2,3),(2,4),(2,5),(2,6),
        \\&\phantom{= \{\,\,} (3,1),(3,2),(3,3),(3,4),(3,5),(3,6),
        \\&\phantom{= \{\,\,} (4,1),(4,2),(4,3),(4,4),(4,5),(4,6),
        \\&\phantom{= \{\,\,} (5,1),(5,2),(5,3),(5,4),(5,5),(5,6),
        \\&\phantom{= \{\,\,} (6,1),(6,2),(6,3),(6,4),(6,5),(6,6)\}.
    \end{aligned}</math>
* Nun wollen wir das zweimalige Würfeln als das zweimalige Ziehen aus einer Urne mit 6 “Kugeln”, die für die Ergebnisse <math>1,\dots,6</math> stehen, betrachten. Wir wählen also <math>k=2</math> Kugeln aus <math>n=6</math> vielen aus, wobei die Reihenfolge wichtig ist (1. oder 2. Wurf) und Wiederholung möglich ist (beispielsweise ist <math>(1,1) \in S</math>). Daher gilt: <math>\begin{aligned}
        \#S&=V^{W}(6,2) = 6^{2}=6\cdot 6 = 36.
    \end{aligned}</math>
* Die Ereignisse <math>A</math> und <math>B</math> lassen sich dann folgendermaßen darstellen: <math>\begin{aligned}
        A &= \{6\}\times\{1,2,3,4,5,6\} \\
        &= \{(6,b)\mid b \in \{1,2,3,4,5,6\}\} \\
        &= \{(6,1),(6,2),(6,3),(6,4),(6,5),(6,6)\}, \\
        \\
        B &= \{1,2,3,4,5,6\}\times\{6\} \\
        &= \{(a,6) \mid a \in \{1,2,3,4,5,6\} \} \\
        &= \{(1,6),(2,6),(3,6),(4,6),(5,6),(6,6)\}.
    \end{aligned}</math>
* Die Vereinigung und der Durchschnitt der Ereignisse <math>A</math> und <math>B</math> sind gegeben durch: <math>\begin{aligned}
        A \cup B &=
        \{(a,b) \in S \mid (a,b) \in A \text{ oder } (a,b) \in B \}
        \\
        &= \{(a,b) \in S \mid a=6 \text{ oder } b=6\} \\
        &= \{(6,1),(6,2),(6,3),(6,4),(6,5),(6,6), \\
        &\phantom{= \{\,\,} (1,6),(2,6),(3,6),(4,6),(5,6)\},\\
        \\
        A \cap B &=
        \{(a,b) \in S \mid (a,b) \in A \text{ und } (a,b) \in B \} \\
        &= \{(a,b) \in S \mid a=6 \text{ und } b=6\} \\
        &= \{(6,6)\}.
    \end{aligned}</math>
* Veranschaulichung durch Venn-Diagramm:
* Die leere Menge <math>\emptyset</math> ist ein unmögliches Ereignis in jedem Zufallsexperiment.
* Die Komplementärereignisse <math>\bar{A}</math> und <math>\bar{B}</math> lassen sich darstellen als: <math>\begin{aligned}
        \bar{A} &= S\setminus A = \{(a,b) \in S \mid (a,b) \notin A\} \\
        &= \{(a,b) \in S \mid a \neq 6\} \\
        &= \{1,2,3,4,5\}\times\{1,2,3,4,5,6\}, \\
        \\
        \bar{B} &= S\setminus B = \{(a,b) \in S \mid (a,b) \notin B\} \\
        &= \{(a,b) \in S \mid b \neq 6\} \\
        &= \{1,2,3,4,5,6\}\times\{1,2,3,4,5\}.
    \end{aligned}</math>
* Nein. Denn beispielsweise <math>(6,3) \in A</math>, aber <math>(6,3) \notin B</math>.
* Nein, weil <math>A \cap B = \{(6,6)\}\neq \emptyset</math>.
 
===Zerlegung===
 
Voraussetzung für eine vollständige Zerlegung:<br />
<math>A_i \cap A_j = \varnothing </math> (Paarweise disjunkt)<br />
<math>A_1 \cup A_2 \cup \ldots \cup A_n = S</math> (Vereinigung ergibt S)<br />
<math>P(A_i) \neq 0 \Rightarrow A_i \neq \varnothing</math>
 
* Nein: <math>A_3 \cap A_5 \neq \varnothing</math>
* Nein: <math>A_4 \cap A_6 \neq \varnothing</math>
* Nein: <math>A_1 \cup A_2 \cup A_4 \neq S</math>
* Nein: <math>A_2 \cap A_5 \neq \varnothing</math>
* Nein: <math>A_5 \cap A_6 \neq \varnothing</math>
* Ja: <math>A_2 \cap A_3 = \varnothing, A_3 \cap A_4 = \varnothing, A_2 \cap A_4 = \varnothing, A_2 \cup A_3 \cup A_4 = S</math>
 
===Zufällige Ziehung einer Karte===
 
* <math>A = </math>{Pique-Karte}, <math>P(A) = 8/32 </math>
* <math>B = </math>{As}, <math>P(B) = 4/32</math>
* <math>C = </math>{Pique-Karte oder As}, <math>C = A \cup B</math>, <math>P(C) = P(A \cup B)</math><br />
<math>P(A \cup B) = P(A) + P(B) - P(A \cap B) = 11/32 </math>
 
===Zufallsexperiment===
 
* <math>A = \{3\}</math>; <math>P(A) = 1/6</math>
* <math>B = \{1,5\}</math>; <math>P(B) = 1/3</math>
* <math>C = \{2,4,6\}</math>; <math>P(C) = 1/2</math>
* klassische Definition der Wahrscheinlichkeit nach Laplace
 
===Zwei Würfel===
 
<math>A = \{(1,6), (2,5), (3,4), (4,3), (5,2), (6,1)\}</math><br />

Aktuelle Version vom 15. Juli 2020, 14:19 Uhr

15 Cent

  • {weniger als 15 Cent bei zweimaligem Ziehen mit Zurücklegen}

  • {weniger als 15 Cent bei zweimaligem Ziehen ohne Zurücklegen}

1950–2000

= {keine Person erlebt das Jahr 2000}
= {eine Person erlebt das Jahr 2000}

= {alle 10 Personen erleben das Jahr 2000}
, ,
und

Altbauwohnung

  • Wir betrachten die Ereignisse:

    • F: Wasserzufuhr friert ein

    • S: Strom fällt aus

    • W: Es ist Winterzeit.

    Aus dem Aufgabentext lassen sich folgende Informationen entnehmen:

    1. Sowohl im Winter (i.e. gegeben Winter) als auch im Sommer treten die beiden Missstände unabhängig voneinander auf.

    2. So friert natürlich das Wasser nur ein, wenn es Winter ist, und zwar mit 80%iger Wahrscheinlichkeit.

    3. Der Strom fällt aber, selbst wenn es nicht Winter ist, mit 40%iger Wahrscheinlichkeit aus. Das entspricht der gleichen Wahrscheinlichkeit, mit der der Strom, wenn es Winter ist, nicht ausfällt.

    4. Gehen Sie davon aus, dass die Winterzeit 30% der gesamten Jahreszeit ausmacht.

  • Gesucht ist . Um diese unbekannte Wahrscheinlichkeit auf die bekannten zurückzuführen, verwenden wir den Satz von der totalen Wahrscheinlichkeit:

  • Gesucht ist . Wieder verwenden wir den Satz von der totalen Wahrscheinlichkeit

  • Gesucht ist :

  • Gesucht ist die Wahrscheinlichkeit . Mit der Formel für die bedingte Wahrscheinlichkeit können wir die gesuchte Wahrscheinlichkeit auf die gerade berechneten Wahrscheinlichkeiten zurückführen:

  • Gesucht ist die Wahrscheinlichkeit . Wieder mit der Definition der bedingten Wahrscheinlichkeit gilt

  • Gesucht ist die Wahrscheinlichkeit . Mit der Formel für die Vereinigung zweier Ereignisse gilt unter Verwendung der Ergebnisse der vorherigen Teilaufgaben

  • Gesucht ist die Wahrscheinlichkeit . Wir nutzen die Berechnung über die Gegenwahrscheinlichkeit und erhalten

Alter

{ein Zehnjähriger wird 40 Jahre alt};
{ein Zehnjähriger wird 70 Jahre alt};
; ( !); Formel für bedingte Wahrscheinlichkeit

Angler

= {Angeln am See i}; ;
{Angler hat etwas gefangen}; ; ;
; Formel für totale Wahrscheinlichkeit
; Satz von Bayes

Antriebswellen

  • Für die Überprüfung der -ten Welle, mit , bezeichne

das Ergebnis des -ten Durchgangs des Zufallsexperiments. Damit ist die Menge aller Ergebnisse des Zufallsexperiments für die Überprüfung einer Welle gegeben durch mit den Elementarereignissen Nun bestimmen wir mithilfe der absoluten Häufigkeiten die relativen Häufigkeiten für die beiden Ergebnisse “kein Auschuss” und “Auschuss” in unserer Stichprobe vom Umfang 10000. Die relativen Häufigkeiten ziehen wir heran, um die jeweiligen Wahrscheinlichkeiten zu schätzen:

  • Von Mises, Pearson, Fisher, u. a., fassten Wahrscheinlichkeiten als den Grenzwert der relativen Häufigkeiten auf, wenn die Anzahl unabhängiger Wiederholungen des Zufallsexperiments gegen unendlich strebt (frequentistischer Wahrscheinlichkeitsbegriff). In unserem Beispiel bedeutet dies: wobei die relative Häufigkeit in Bezug auf eine Stichprobe vom Umfang angibt. Da hier relativ groß ist, gehen wir davon aus, dass die relativen Häufigkeiten annähernd den Wahrscheinlichkeiten entsprechen.

Aufzug

  • Ergebnisse: mit Person 1 steigt in Etage aus, Person 2 in Etage und Person 3 in Etage
  • Elementarereignisse: mit
  • Ereignisraum:
  • Anzahl der Elementarereignisse:

Formal: Ziehe dreimal aus einer Urne mit sechs Kugeln mit Wiederholung und die Anordnung spielt eine Rolle:


Formal: Ziehe dreimal aus einer Urne mit sechs Kugeln ohne Wiederholung und die Anordnung spielt eine Rolle:

Augenzahl eines Würfels

,

Ausschussteile

Anwendung des Satzes der totalen Wahrscheinlichkeit: