Wahrscheinlichkeitsrechnung/Lösungen: Unterschied zwischen den Versionen

Aus MM*Stat

Wechseln zu: Navigation, Suche
(Wurf eines Würfels)
 
Zeile 1: Zeile 1:
 +
[[Kategorie:Aufgaben]]
 
===15 Cent===
 
===15 Cent===
  
Zeile 343: Zeile 344:
 
<li><p><math>\overline{A}</math>: Kein Gast hat an meinem Geburtstag Geburtstag</p></li></ul>
 
<li><p><math>\overline{A}</math>: Kein Gast hat an meinem Geburtstag Geburtstag</p></li></ul>
  
<p>Wenn die Geburtstage unabhängig sind, dann gilt: <math>\begin{aligned}
+
<p>Wenn die
    P(A)&=1- P(\overline{A})\\
 
        &=1-\left(\frac{364}{365}\right)^3=0,0082
 
        \end{aligned}</math></p></li>
 
<li><p>Dafür muss man die Gegenwahrscheinlichkeit benutzen:</p>
 
<ul>
 
<li><p><math>B</math>: Min. zwei Gäste haben am gleichten Tag Geburtstag</p></li>
 
<li><p><math>\overline{B}</math>: Alle Gäste haben an unterschiedlichen Tagen Geburtstag</p></li></ul>
 
 
 
<p>Die Anzahl aller möglichen Geburtstagskombination berechnet sich als Variation mit Wiederholung: <math>V^W(365;3)= 365^3</math>. Die Anzahl der für <math>\overline{B}</math> günstige Ereignisse berechnet sich als Variation ohne Wiederholung: <math>V(365;3)=\frac{365!}{362!}=365\cdot364\cdot363</math>. <math>P(B)=1-P(\overline{B})=1-\frac{365}{365}\frac{364}{365}\frac{363}{365}=0,0082</math></p></li>
 
<li><p><math>\begin{aligned}
 
    P(A)&=1-\left(\frac{364}{365}\right)^{23}=0,0651\\
 
    P(B)&=1-\frac{365}{365}\ldots\frac{343}{365}=0,5073
 
    \end{aligned}</math></p></li>
 
<li><p>Der Unterschied liegt darin, dass bei <math>A</math> einer der Gäste am gleichen Tag wie ich Geburtstag haben muss. Bei <math>B</math> müssen zwei Gäste am gleichen Tag im Jahr Geburtstag haben, jedoch nicht notwendigerweise am gleichen Tag wie ich.</p></li></ul>
 
 
 
===Hörer/innen einer Statistik–Vorlesung===
 
 
 
<math>M = </math>{männlicher Hörer}, <math>F = </math>{weiblicher Hörer},<br />
 
<math>V = </math>{Hörer ist Student VWL}, <math>B = </math>{Hörer ist Student BWL}
 
 
 
* <math>P(M) = 0,4</math>
 
* <math>P(W) = 0,6    </math>
 
* <math>P(M \cup V) = 0,71 </math>
 
* <math>P(W \cap B)= 0,29 </math>
 
* <math>P(B|W) = 0,483</math>
 
* <math>P(M|V) = 0,31  </math>
 
 
 
===Jeeps===
 
 
 
<math>A=\mbox{Jeep 1 startet}</math>, <math>B=\mbox{Jeep 2 startet}</math><br />
 
<math>P(\mbox{kein Jeep startet})=P(\overline{A}\cap\overline{B})=P(\overline{A})\cdot P(\overline{B})=(1-P(A))\cdot(1-P(B))=0,2\cdot0,5=0,1</math><br />
 
 
 
===Kartenspiel===
 
 
 
<math>A \cap C = \emptyset</math>; <math> A \cap D = \emptyset</math><br />
 
<math>B \cap D = \emptyset</math>; <math> C \cap D = \emptyset</math>
 
 
 
===Kfz–Händler===
 
 
 
<math>K = </math>{PKW weist Karosseriemängel auf}, <math>M =</math>{PKW weist Motormängel auf}<br />
 
<math>M \cap K = </math>{PKW weist Karosserie- und Motormängel auf}<br />
 
Gesucht <math>P(\overline{M}\cap \overline{K})</math><br />
 
<math>P(\overline{M}\cap \overline{K}) = 1 - P(M \cup K )</math><br />
 
<math>P(M \cup K ) = P(M) + P(K) - P(M \cap K) = </math>0,6 + 0,8 - 0,4 = 1<br />
 
<math>P(\overline{M}\cap\overline{K}) = 1 - 1 = 0</math>
 
 
 
===Kugeln===
 
 
 
<math>A_{1}</math> = {die 1. Ziehung liefert eine rote Kugel}<br />
 
<math>A_{2}</math> = {die 2. Ziehung liefert eine weiße Kugel}<br />
 
<math>A_{3}</math> = {die 3. Ziehung liefert eine rote Kugel}<br />
 
<math>P(A_{1}) = 2/10</math>; <math>P(A_{2}|A_{1}) = 3/9</math>; <math>P(A_{3}|A_{1} \cap A_{2}) = 1/8</math><br />
 
<math>P(A_{1}\cap A_{2}\cap A_{3}) = 1/120</math>; Multiplikationssatz<br />
 
===Kundenbesuche===
 
 
 
Ereignisse:<br />
 
<math>G=\mbox{ M. nimmt Übergang Guben}</math>;<br />
 
<math>F=\mbox{ M. nimmt Übergang Forst}</math><br />
 
<math>W=\mbox{ M. muss am Übergang sehr lange warten}</math><br />
 
Gegeben:<br />
 
* <math>P(G)=0,6</math>
 
* <math>P(F)=0,4</math>
 
* <math>P(G\cap W)=0,3</math><br />
 
Gesucht:<br />
 
<math>P(W|G)=\displaystyle\frac{P(G\cap W)}{P(G)}=\frac{0,3}{0,6}=0,5</math>
 
 
 
===Last===
 
 
 
<math>A_{1}</math> = {Seil 1 hält}; <math>A_{2}</math> = {Seil 2 hält}; <math>P(A_{1}) = P(A_{2}) = 0,99</math><br />
 
<math>P(A_{1} \cup A_{2}) = 0,9999</math>; allgemeiner Additionssatz<br />
 
===Lebenserwartung der US–Bürger===
 
 
 
<math>X</math>: “Alter”<br />
 
Gegeben: <math>P(X\geq25)=0,98</math> und <math>P(X\geq65)=0,8</math><br />
 
Gesucht: <math>P(X<65|X\geq25)</math><br />
 
Mit den gegebenen Wahrscheinlichkeiten kann berechnet werden:<br />
 
<math>P(X\geq65|X\geq25)=P(\{X\geq65\}\cap\{X\geq25\})/P(X\geq25)</math><br />
 
Da das Ergeignis <math>\{X\geq65\}</math> in dem Ereignis <math>\{X\geq25\}</math> enthalten ist, folgt für den Durchschnitt der beiden Ereignisse <math>\{X\geq65\}\cap\{X\geq25\}=\{X\geq65\}</math> und somit<br />
 
<math>P(X\geq65|X\geq25)=P(\{X\geq65\}\cap\{X\geq25\})/P(X\geq25)=P(X\geq65)/P(X\geq25)=0,8/0,98=0,81632653</math>.<br />
 
Es folgt: <math>P(X<65|X\geq25)=1-P(X\geq65|X\geq25)=1-0,81632653=0,18367347</math><br />
 
===Münzwurf===
 
 
 
Wir definieren die Ereignisse:
 
 
 
* <math>H</math>: Hinz fährt mit der Strassenbahn
 
* <math>K</math>: Kunz fährt mit der Strassenbahn
 
* <math>M</math>: Die Münze von Hinz zeigt Kopf
 
* <math>M_1</math>: Die Münze 1 von Kunz zeigt Zahl
 
* <math>M_2</math>: Die Münze 2 von Kunz zeigt Zahl
 
 
 
Die Wahrscheinlichkeit, dass beide mit der Straßenbahn fahren ist damit gegeben durch <math>\begin{aligned}
 
P(H\cap K) &=P(H) \cdot P(K)\\
 
&=P(M)\cdot (1-P(M_1) \cdot P(M_2))\\
 
&=0,5\cdot(1-0,5\cdot 0,5)=\frac{3}{8}\\
 
&=37,5\%\end{aligned}</math> Im ersten Schritt haben wir die Unabhängigkeit der Entscheidungen von Hinz und Kunz verwendet, im zweiten Schritt die Gegenwahrscheinlichkeit (Wk. Strassenbahn zu fahren = 1- Wk. Fahrrad zu fahren), im dritten Schritt noch einmal die Unabhängigkeit der beiden Münzwürfe von Kunz.
 
 
 
===Musikkassette===
 
 
 
<math>A_1 = \mbox{ Kassette wird im Auto benutzt }, P(A_1) = 0,7</math>;<br />
 
<math>A_2 = \mbox{ Kassette wird im Haus benutzt }, P(A_2) = 0,3</math>;<br />
 
<math>B = \mbox{ Kassette besitzt eine Lebensdauer von mehr als 500 Stunden}</math>;<br />
 
<math>P(B| A_1) = 0,75, P(B| A_2) = 0,95; A_1\cap A_2 = \varnothing, A_1\cup A_2 = S</math>;<br />
 
<math>P(B) = \sum_i^n P(B| A_i)P(A_i) = 0,81</math> (Satz von Bayes)<br />
 
 
 
===Nicht–disjunkte Teilmengen===
 
 
 
* <math>A \cup B \cup C  </math>
 
* <math>A \cap \overline{B} \cap \overline{C}</math>
 
* <math>A \cap B \cap \overline{C}</math>
 
* <math>A \cap B \cap C          </math>
 
* <math>\overline{A} \cap \overline{B} \cap \overline{C}</math>
 
* <math>(A \cup B \cup C)\ \backslash\ [(A \cap B) \cup (B \cap C)
 
\cup (A \cap C)]  </math>
 
* <math>\overline{A \cap B \cap C}</math>
 
 
 
===Nicht–disjunkte Teilmengen===
 
 
 
Wir sagen: Ein Ereignis <math>A</math> tritt genau dann ein, wenn das Ergebnis <math>s \in S</math> des Zufallsexperiments (bzw. einer konkreten Durchführung des Zufallsexperiments) in <math>A</math> liegt, falls also <math>s \in A</math> gilt.
 
 
 
Sei nun <math>s \in S</math> ein beliebiges Ergebnis des Zufallsexperiments. Dann gilt:
 
 
 
* wenigstens eines tritt ein
 
<math>
 
\begin{aligned}
 
&\Leftrightarrow \text{A tritt ein oder B tritt ein oder C tritt ein} \\
 
&\Leftrightarrow s \in A \text{ oder } s \in B \text{ oder } s \in C \\
 
&\Leftrightarrow s \in A \cup B \cup C. \text{Definiton von } \cup
 
\end{aligned}
 
 
 
</math> Veranschaulichung:
 
* nur <math>A</math> eintritt (d.h. <math>B</math> und <math>C</math> treten nicht ein) <math>\begin{aligned}
 
&\Leftrightarrow \text{A tritt ein und B tritt nicht ein und C tritt nicht ein} \\
 
&\Leftrightarrow s \in A \text{ und } s \notin B \text{ und } s \notin C \\
 
&\Leftrightarrow s \in A \text{ und } s \in \bar{B} \text{ und } s \in \bar{C} \text{Definition von Komplement}\\
 
&\Leftrightarrow s \in A \cap \bar{B} \cap \bar{C}. \text{Definiton von } \cap \end{aligned}
 
</math>
 
Alternativ:
 
<math>
 
\begin{aligned}
 
&\Leftrightarrow s \in A \text{ und } s \notin B \text{ und } s \notin C \\
 
&\Leftrightarrow s \in A \text{ und } s \notin B \cup C \\
 
&\Leftrightarrow s \in A \setminus ( B \cup C ). \text{Definiton von } \setminus
 
\end{aligned}
 
</math>
 
Oder:
 
<math>
 
\begin{aligned}
 
&\Leftrightarrow s \in A \text{ und } s \notin B \text{ und } s \notin C \\
 
&\Leftrightarrow s \in A \text{ und } s \notin B \cup C \\
 
&\Leftrightarrow s \in A \text{ und } s \in \overline{B \cup C} \\
 
&\Leftrightarrow s \in A \cap \overline{B \cup C}.\end{aligned}</math> Veranschaulichung:
 
* <math>A</math> und <math>B</math> treten ein, aber nicht <math>C</math> <math>
 
\begin{aligned}
 
&\Leftrightarrow \text{A tritt ein und B tritt ein und C tritt nicht ein} \\
 
&\Leftrightarrow s \in A \text{ und } s \in B \text{ und } s \notin C \\
 
&\Leftrightarrow s \in A \text{ und } s \in B \text{ und } s \in \bar{C} \\
 
&\Leftrightarrow s \in A \cap B \cap \bar{C}.
 
\end{aligned}
 
</math>
 
 
 
Alternativ:
 
<math>
 
\begin{aligned}
 
&\Leftrightarrow s \in A \text{ und } s \in B \text{ und } s \notin C \\
 
&\Leftrightarrow s \in ( A \cap B ) \setminus C.
 
\end{aligned}
 
</math>
 
 
 
Veranschaulichung:
 
* alle drei treten ein
 
<math>
 
\begin{aligned}
 
&\Leftrightarrow \text{A tritt ein und B tritt ein und C tritt ein} \\
 
&\Leftrightarrow s \in A \text{ und } s \in B \text{ und } s \in C \\
 
&\Leftrightarrow s \in A \cap B \cap C.
 
\end{aligned}
 
</math>
 
 
 
Veranschaulichung:
 
* keines tritt ein
 
<math>
 
\begin{aligned}
 
&\Leftrightarrow \text{A tritt nicht ein und B tritt nicht ein und C tritt nicht ein} \\
 
&\Leftrightarrow s \notin A \text{ und } s \notin B \text{ und } s \notin C \\
 
&\Leftrightarrow s \in \bar{A} \text{ und } s \in \bar{B} \text{ und } s \in \bar{C}\\
 
&\Leftrightarrow s \in \bar{A} \cap \bar{B} \cap \bar{C}.
 
\end{aligned}
 
</math>
 
 
 
Alternativ:
 
<math>
 
\begin{aligned}
 
&\Leftrightarrow s \notin A \text{ und } s \notin B \text{ und } s \notin C \\
 
&\Leftrightarrow s \notin A \cup B \cup C\\
 
&\Leftrightarrow s \in \overline{A \cup B \cup C}.
 
\end{aligned}
 
</math>
 
 
 
Veranschaulichung:
 
* es tritt genau eines ein <math>\Leftrightarrow</math> es tritt wenigstens eines ein (siehe a)) aber nicht zwei (vgl. c)) und auch nicht alle drei (siehe d))
 
<math>
 
\begin{aligned}
 
&\Leftrightarrow s \in A \cup B \cup C \text{ und }
 
s \notin A \cap B \text{ und }
 
s \notin B \cap C \text{ und } \\
 
& {\,\,\Leftrightarrow s \in A \cup B \cup C } \text{ und }s \notin A \cap C \text{ und }
 
s \notin A \cap B \cap C \\
 
&\Leftrightarrow s \in A \cup B \cup C \text{ und }
 
s \notin A \cap B \text{ und }
 
s \notin B \cap C \text{ und } \\
 
& {\,\,\Leftrightarrow s \in A \cup B \cup C } \text{ und }s \notin A \cap C \\
 
&\Leftrightarrow s \in A \cup B \cup C \text{ und } s \notin (A \cap B) \cup (B \cap C) \cup (A \cap C) \\
 
&\Leftrightarrow
 
s \in \left[A \cup B \cup C \right]\setminus \left[(A \cap B) \cup (B \cap C) \cup (A \cap C)\right].\end{aligned}</math> ''Bemerkung.'' Dieses Ereignis lässt sich auch noch auf andere Arten darstellen, die Herleitung kann aber recht mühsam werden. Veranschaulichung:
 
* es treten h&quot;<span>o</span>chstens zwei eintreten <math>\Leftrightarrow</math> alle drei treten nicht gleichzeitig ein (siehe d)) <math>\begin{aligned}
 
&\Leftrightarrow s \notin A \cap B \cap C \\
 
&\Leftrightarrow s \in \overline{A \cap B \cap C}.\end{aligned}</math> Alternativ: <math>\begin{aligned}
 
&\Leftrightarrow s \notin A \cap B \cap C \\
 
&\Leftrightarrow s \in \overline{A \cap B \cap C} \\
 
&\Leftrightarrow s \in S\setminus(A \cap B \cap C) \\
 
&\Leftrightarrow s \in S\setminus A \text{ oder } s \in S\setminus B \text{ oder } s \in S\setminus C \\
 
&\Leftrightarrow s \in \bar{A} \text{ oder } s \in \bar{B} \text{ oder } s \in \bar{C} \\
 
&\Leftrightarrow s \in \bar{A} \cup \bar{B} \cup \bar{C}. \end{aligned}</math> Veranschaulichung:
 
 
 
===Öffentliche Verkehrsmittel===
 
 
 
* <math>P(\overline{U}) = 1 - P(U) = 1 - 0,4 = 0,6</math>
 
* <math>P(S \cup B) = 0,4 </math>
 
* <math>P(\overline{U \cup S \cup B}) = 0,29</math>
 
* <math>P(\overline{U \cap S \cap B}) = 0,99</math>
 
 
 
===Papierstreifen===
 
 
 
<math>P(A_{1}) = P(A_{2}) = P(A_{3}) = 1/2</math>
 
 
 
* <math>A = A_{1} \cap A_{2} \cap A_{3} =\emptyset {\rightarrow} P(A) = 0</math><br />
 
<math> P(A_{1})P(A_{2})P(A_{3}) = \frac{1}{2} \cdot \frac{1}{2}\cdot \frac{1}{2} = 1/8 \neq 0</math><br />
 
Die 3 Ereignisse sind nicht voneinander unabhängig.
 
* Die Ereignisse sind paarweise unabhängig. z.B. für <math>A_{1}</math>, <math>A_{2}</math>: <math>P(A_{2}|A_{1}) = \frac{1}{2} = P(A_{1})</math> und <math>P(A_{1}|A_{2}) = \frac{1}{2} = P(A_{2})</math>
 
 
 
===Produktionshalle===
 
 
 
<math>
 
\begin{align}
 
A &= A_{1} \cup A_{2} \cup A_3 \\
 
  &= (A_1 \cap \overline{A}_2 \cap \overline{A}_{3})
 
    \cup (\overline{A}_{1} \cap A_2 \cap  \overline{A}_3)
 
    \cup (\overline{A}_1 \cap \overline{A}_2\cap A_3)
 
    \cup (A_1 \cap A_2 \cap A_3) \\
 
  &\quad  \cup (\overline{A}_1 \cap A_2 \cap A_3)
 
    \cup (A_1 \cap \overline{A}_2 \cap A_3)
 
    \cup (A_1 \cap A_2 \cap \overline{A}_3)
 
\end{align}
 
 
 
</math><br />
 
<math>B = A_{1} \cap A_{2} \cap A_{3}</math>,<br />
 
<math>C = A_1 \cap A_{2} \cap \overline{A}_{3}</math>,<br />
 
<math>D = \overline{A}_{1} \cap \overline{A}_{2} \cap \overline{A}_{3}</math>,<br />
 
<math>E = (\overline{A}_{1} \cap A_{2} \cap A_{3})
 
            \cup (A_{1} \cap \overline{A}_{2} \cap
 
            A_{3}) \cup (A_{1} \cap A_{2}
 
            \cap \overline{A}_{3}) </math><br />
 
 
 
* <math>A = \overline{D}</math> oder <math>D = \overline{A}</math>,<br />
 
<math>B \subset A</math>, <math>C \subset A</math>, <math>E \subset A</math>, <math>D \subset \overline{B}</math>, <math>C \subset E</math>
 
 
 
===RealProfit===
 
 
 
Gegeben:<br />
 
<math>P(X\leq 0)=1-0.75=0.25</math><br />
 
Gesucht: <math>\begin{aligned}
 
P(X\leq 0)&=&P(X=-10000)+P(X=0) \\
 
&=&P(X=-10000)+0,2=0.25\\
 
&\Leftrightarrow& P(X=-10000)=0.05\\
 
P(X=20000)&=&1-P(X=-10000)-P(X=0)-P(X=5000)\\
 
                    &-&P(X=10000)-P(X=15000) \\
 
                    &=&0,2\end{aligned}</math>
 
 
 
===Regal===
 
 
 
<math>A = </math>{Bände stehen in richtiger Reihenfolge von rechts nach links oder von links nach rechts}<br />
 
<math>P(4) = 4! = 24 </math> mögliche Reihenfolgen der 4 Bände, zwei davon günstig<br />
 
<math>P(A) = 2/24 = 1/12</math><br />
 
===Reitturnier===
 
 
 
Ereignisse:
 
 
 
* S: Hindernis ist Steilsprung
 
* O: Hindernis ist Oxer
 
* G: Hindernis ist Graben
 
* F: Pferd macht Fehler am Hindernis
 
 
 
Wahrscheinlichkeiten: <math>\begin{aligned}
 
P(S)&=0,6 \Rightarrow P(\overline{S})=0,4\\
 
P(O)&=0,3 \Rightarrow P(\overline{O})=0,7\\
 
P(G)&=0,1 \Rightarrow P(\overline{G})=0,1\\
 
P(F|S)&=0,03 \Rightarrow P(\overline{F}|S)=0,97\\
 
P(F|O)&=0,04 \Rightarrow P(\overline{F}|O)=0,96\\
 
P(F|G)&=0,05 \Rightarrow P(\overline{F}|G)=0,95\\\end{aligned}</math>
 
 
 
* Gesucht ist die Wahrscheinlichkeit <math>P(F)</math>, die wir mit dem Satz von der totalen Wahrscheinlichkeit berechnen: <math>\begin{aligned}
 
P(F)&=P((F\cap S)\cup(F\cap O)\cup(F\cap G))\\ 
 
&=P(F\cap S)+P(F\cap O)+P(F\cap G)\\ 
 
&=P(F|S)P(S)+P(F|O)P(O)+P(F|G)P(G)\\
 
&=0,03\cdot 0,6 + 0,04 \cdot 0,3 + 0,05 \cdot 0,1 \\
 
&=0,035\end{aligned}</math>
 
* Wir betrachten die Ereignisse: <math>O_i</math> Fehler am <math>i</math>ten Oxer mit <math>P(O_i)=0,96</math>. Gesucht ist die Wahrscheinlichkeit <math>P(\overline{O}_1\cap \overline{O}_2 \cap O_3)</math>. Wir verwenden die Unabhängigkeit der <math>O_i</math> und erhalten <math>\begin{aligned}
 
P(\overline{O}_1\cap \overline{O}_2 \cap O_3)
 
&= P(\overline{O}_1)\cdot P(\overline{O}_2) \cdot P(O_3)\\
 
&=0,96 \cdot 0,96 \cdot 0,04 \\
 
&=\frac{576}{15625} \approx 0,04.\end{aligned}</math>
 
 
 
===Schachbrett===
 
 
 
<math>A = </math>{Plazieren von 8 Türmen, so dass keiner den anderen schlagen kann}<br />
 
Anzahl der möglichen Fälle: <math>K(n,k) = K(64,8)</math><br />
 
Anzahl der für <math>A</math> günstigen Fälle: <math>P(k) = P(8) = 8!</math><br />
 
<math>P(A) =\frac{P(k)}{K(n,k)}=\frac{8!8!56!}{64!} = 9,1\cdot 10^{-6}</math><br />
 
===Schummelei===
 
 
 
* Ereignisse: <math>S</math> - Student schummelt, <math>V</math> - Maschine sagt Student schummelt (Schummelverdacht) <math>\begin{aligned}
 
P(V|S)&=0,9 \Rightarrow P(\overline{V}|S) = 0,1\\
 
P(\overline{V}|\overline{S})&=0,9 \Rightarrow P(V|\overline{S}) = 0,1\\
 
P(S)&=0,1 \Rightarrow P(\overline{S}) = 0,9\\\end{aligned}</math>
 
* Gesucht ist <math>P(V)</math>. Wir verwenden den Satz von der totalen Wahrscheinlichkeit und erhalten <math>\begin{aligned}
 
P(V)&= P(V\cap S)+ P(V\cap \overline{S}) \\
 
&=P(V|S)\cdot P(S)+P(V|\overline{S})\cdot P(\overline{S})\\
 
&=0,9 \cdot 0,1+0,1\cdot 0,9 \\
 
&=0,18\end{aligned}</math>
 
* Gesucht ist die Wahrscheinlichkeit <math>P(S|V)</math>. Wir verwenden den Satz von Bayes, der sich aus der Definition der bedingten Wahrscheinlichkeit und dem Satz von der totalen Wahrscheinlichkeit ergibt. Wir haben den Satz von der totalen Wahrscheinlichkeit aber bereits in der vorherigen Teilaufgabe angewandt und erhalten daher: <math>\begin{aligned}
 
P(S|V)&= \dfrac{P(S \cap V) }{P(V)}\\
 
&=\dfrac{P(V|S)\cdot P(S)}{P(V)}\\
 
&=\frac{0,9 \cdot 0,1}{0,18} \\
 
&=0,5\end{aligned}</math>
 
 
 
===Spiel 4 aus 20===
 
 
 
Es gibt <math>\displaystyle\binom{4}{2}</math> Möglichkeiten 2 aus den 4 geratenen Kugeln zu ziehen und <math>\displaystyle\binom{16}{2}</math> für die übrigen. Da jede Kombination mit jeder verknüpft werden kann gibt es <math>\displaystyle\binom{4}{2}\displaystyle\binom{16}{2}</math> günstige Möglichkeiten. Also ist die Wahrscheinlichkeit für 2 richtige:<math>\frac{\displaystyle\binom{4}{2}\binom{16}{2}}{\displaystyle\binom{20}{4}}=14,86\%</math>
 
 
 
===Summe von Augenzahlen===
 
 
 
Summe der Augenzahlen für alle möglichen Kombinationen:<br />
 
<br />
 
 
 
 
 
 
 
{|class="wikitable"
 
!align="right"|
 
 
 
!align="right"| '''1'''
 
!align="right"| '''2'''
 
!align="right"| '''3'''
 
!align="right"| '''4'''
 
!align="right"| '''5'''
 
!align="right"| '''6'''
 
|-
 
|align="right"| '''1'''
 
|align="right"| 2
 
|align="right"| 3
 
|align="right"| 4
 
|align="right"| ''5''
 
|align="right"| 6
 
|align="right"| 7
 
|-
 
|align="right"| '''2'''
 
|align="right"| 3
 
|align="right"| 4
 
|align="right"| ''5''
 
|align="right"| 6
 
|align="right"| 7
 
|align="right"| 8
 
|-
 
|align="right"| '''3'''
 
|align="right"| 4
 
|align="right"| ''5''
 
|align="right"| 6
 
|align="right"| 7
 
|align="right"| 8
 
|align="right"| 9
 
|-
 
|align="right"| '''4'''
 
|align="right"| ''5''
 
|align="right"| 6
 
|align="right"| 7
 
|align="right"| 8
 
|align="right"| 9
 
|align="right"| 10
 
|-
 
|align="right"| '''5'''
 
|align="right"| 6
 
|align="right"| 7
 
|align="right"| 8
 
|align="right"| 9
 
|align="right"| 10
 
|align="right"| 11
 
|-
 
|align="right"| '''6'''
 
|align="right"| 7
 
|align="right"| 8
 
|align="right"| 9
 
|align="right"| 10
 
|align="right"| 11
 
|align="right"| 12
 
|}
 
 
 
<math>P(\{2,3\}|\mbox{Summe}=5)=\displaystyle\frac{P(\{2,3\})}{P(\sum=5)}=\displaystyle\frac{2/36}{4/36}=\displaystyle\frac{1}{2}</math>
 
 
 
===Systemausfallrisiko===
 
 
 
A: Ausfall des Computers A im Verlaufe eines Arbeitstages; <math>P(A)=0,05</math><br />
 
B: Ausfall des Computers B im Verlaufe eines Arbeitstages; <math>P(B)=0,04</math><br />
 
C: <math>A\cap B=</math> “Ausfall beider Computer im Verlaufe eines Arbeitstages” = “Systemausfall”<br />
 
<math>\overline{C}=\mbox{Computer A und B fallen nicht gleichzeitig aus}=\mbox{kein Systemausfall}</math><br />
 
A und B unabhängige Ereignisse; Multiplikationssatz für unabhängige Ereignisse:<br />
 
<math>P(C)=P(A\cap B)=P(A)\cdot P(B)=0,002</math><br />
 
Gesucht: <math>P(\overline{C})</math><br />
 
Möglichkeit 1:<br />
 
<math>P(\overline{C})=1-P(C)=0,998</math><br />
 
Möglichkeit 2:<br />
 
<math>\overline{C}=\overline{A\cap B}=(\overline{A}\cap \overline{B})\cup(\overline{A}\cap B)\cup(A\cap \overline{B})</math>;<br />
 
<math>\begin{aligned}
 
P(\overline{C}) & = & P(\overline{A})\cdot P(\overline{B})+P(\overline{A})\cdot P(B)+P(A)\cdot P(\overline{B})\\
 
& = & 0,95\cdot0,96+0,95\cdot0,04+0,05\cdot0,96\\
 
& = & 0,912+0,038+0,048\\
 
& = & 0,998\end{aligned}</math>
 
 
 
===Tagesproduktion===
 
 
 
<math>M_{i} = </math>{Stück stammt von Maschine <math>i</math>}; <math>i = 1,2,3</math><br />
 
<math>P(M_{1}) = 0,1</math>; <math>P(M_{2}) = 0,4</math>; <math>P(M_{3}) = 0,5</math><br />
 
<math>A = </math>{Ausschussstück}<br />
 
<math>P(A) = 0,031</math>; Formel für totale Wahrscheinlichkeit<br />
 
<math>P(A|M_{1}) = 0,05</math>; <math>P(A|M_{2}) = 0,04</math>; <math>P(A|M_{3}) = 0,02</math><br />
 
Satz von Bayes: <math>P(M_{1}|A) = 0,1613</math>; <math>P(M_{2}|A) = 0,5161</math>; <math>P(M_{3}|A) = 0,3226</math><br />
 
===Tageszeitungen===
 
 
 
<math>Z_{i}</math> = {Bewohner liest Zeitung <math>i</math>}, <math>i = 1,2</math><br />
 
<math>P(Z_{1}) = 0,6</math>; <math>P(Z_{2}) = 0,8</math>; <math>P(\overline{Z}_{1}\cap \overline{Z}_{2}) = 0,1
 
= P(\overline{Z_{1} \cup Z_{2}})</math> <math>\Rightarrow</math> <math>P({Z_{1} \cup Z_{2}})=0,9</math>
 
 
 
* <math>P(Z_{1} \cap Z_{2}) = 0,5</math>; allgemeiner Additionssatz
 
* <math>P(Z_{1} \cap \overline{Z}_{2}) = P(Z_{1}) - P(Z_{1} \cap Z_{2}) =
 
  0,1</math>
 
* <math>P(Z_{2} | \overline{Z}_{1}) = 0,75</math>; Formel für bedingte Wahrscheinlichkeit
 
* <math>P[(\overline{Z}_{1} \cap \overline{Z}_{2}) \cup (\overline{Z}_{1}
 
\cap Z_{2}) \cup (Z_{1} \cap \overline{Z}_{2})]  = 1 - P(Z_{1} \cap Z_{2}) = 0,5</math>
 
* <math>P(\overline{Z}_{1}) = 0,4    </math>
 
 
 
===Tennis===
 
 
 
A: Assistent geht spielen, d.h. kann nicht angetroffen werden; <math>P(A)=8/20=0,4</math>;<br />
 
B: Chef sucht ihn auf oder ruft an; <math>P(B)=0,1</math><br />
 
Da A und B unabhängig voneinander sind, folgt <math>P(A\cap B)=P(A)\cdot P(B)</math>.<br />
 
Wenn <math>P(A\cap B)=P(A)\cdot P(B)\leq0,01</math> sein soll, und <math>P(B)=0,1</math> ist, muss <math>P(A)\leq0,1=2/20</math> sein, so dass der Assistent nur an höchstens 2 von 20 Arbeitstagen spielen gehen darf.
 
 
 
===Unabhängige Ereignisse===
 
 
 
Wir betrachten den Ereignisraum <math>S</math> mit der Borelalgebra als Menge der Ereignisse. Entsprechend der Abbildung gilt: <math>P[A]>0</math> und <math>P[B_i]>0</math> für <math>i=1,2,3,4</math>. Nach Definition sind zwei Ereignisse C und D unabhängig, wenn gilt<br />
 
<math>P[C\cap D]=P[C] \cdot P[B].</math>
 
 
 
* Zwei Ereignisse <math>C</math> und <math>D</math> mit <math>P[C]>0</math> und <math>P[D]>0</math>, die disjunkt sind, sind immer abhängig: <math>P[C \cap D]=0 < P[C] \cdot P[D]</math>.Es fallen also als Lösungen heraus: a) – g).
 
* Zwei Ereignisse, von denen eines das andere enthält, sind immer abhängig, wenn das kleinere Ereignis eine positive Wahrscheinlichkeit hat und das grössere nicht Wahrscheinlichkeit 1: Für <math>B_3\subset A</math> folgt: <math>P[A \cap B_3]=P[B_3]>P[B_3] \cdot P[A].</math>Damit fällt i) als Lösung weg.
 
* Das Ereignis <math>B_2</math> liegt mit seiner halben Fläche in <math>A</math>. Auf <math>A</math> liegt <math>\frac{1}{4}</math> der Wahrscheinlichkeitsmasse, insbesondere ist die Wahrscheinlichkeitsmasse kleiner als <math>\frac{1}{2}</math>. Deshalb gilt <math>P[A \cap B_2]=\frac{P[A]\cdot P[B_2]}{2}<P[A]\cdot P[B_2].</math> Damit fällt h) als Lösung weg.
 
* <math>B_4</math> und der Ereignisraum <math>S</math> sind durch konzentrische Kreise dargestellt. Der Anteil von <math>A\cap B_4</math> an <math>B_4</math> ist somit gleich dem Anteil von A an S. Folglich gilt: <math>P[A|B_4]=P[A\cap B_4]/P[B_4]=P[A]/P[S]=P[A].</math> <math>A</math> und <math>B_4</math> sind also unabhängig (Fall j).
 
 
 
===Verkehrsunfälle===
 
 
 
Wir betrachten den Ereignisraum <math>S := \{K, \overline{K}\} \times \{G, \overline{G}\}</math> mit der Potenzmenge als Ereignismenge. Die Zufallsvariable <math>V</math> (Verletzung) gibt an, ob eine schwere Kopfverletzung eingetreten ist (<math>V=K</math>), oder nicht (<math>V=\overline{K}</math>). Die Zufallsvariable <math>S</math> (Sicherheit) gibt an, ob ein Gurt angelegt worden ist (<math>S=G</math>), oder nicht (<math>S=\overline{G}</math>). Gesucht ist die Wahrscheinlichkeit <math>P[\{S=\overline{G}\} \mid \{V=K\}]=\dfrac{P[\{S=\overline{G}\} \cap \{V=K\}]}{P[\{V=K\}]}.</math> Gegeben sind die Wahrscheinlichkeiten <math>\begin{aligned}
 
P[\{S=G\}] &=0,85\\
 
P[\{V=K\} \mid \{S=\overline{G}\}] &= 0,62 \\
 
P[\{V=K\} \mid \{S=G\}] &= 0,08\end{aligned}</math> Anwenden des Satzes von Bayes im ersten und der Definition der bedingten Wahrscheinlichkeit im zweiten Schritt ergibt: <math>\begin{aligned}
 
&P[\{S=\overline{G}\} \mid \{V= K\}] \\
 
&= \dfrac{ P[\{V=K\} \cap \{S=\overline{G}\}]\cdot P[\{S=\overline{G}\}]}{P[\{V=K\} \mid \{S=\overline{G}\}]\cdot P[\{S=\overline{G}\}]+P[\{V=K\} \mid \{S=G\}]\cdot P[\{S=G\}]}
 
\text{Um die Wahrscheinlichkeit im Zähler mit den gegebenen Informationen zu berechnen, verwenden wir die Definition der bedingten Wahrscheinlichkeit:}
 
&= \dfrac{ P[\{V=K\} \mid \{S=\overline{G}\}]\cdot P[\{S=\overline{G}\}]}{P[\{V=K\} \mid \{S=\overline{G}\}]\cdot P[\{S=\overline{G}\}]+P[\{V=K\} \mid \{S=G\}]\cdot P[\{S=G\}]}\\
 
&=\dfrac{0,62\cdot 0,15}{0,62 \cdot 0,15 + 0,08 \cdot 0,85}\\
 
&=\dfrac{93}{161} \approx 0,578.\end{aligned}</math>
 
 
 
===Waldbrand===
 
 
 
<math>A = </math>{Förster entdeckt Brand zu spät};<br />
 
<math>B = </math>{Feuermelder funktioniert bei Betätigung nicht};<br />
 
<math>P(A) = 0,05</math>; <math>P(B) = 0,03</math><br />
 
<math>A \cup B = </math>{Förster entdeckt Brand zu spät oder Feuermelder funktioniert nicht}<br />
 
<math>P(A \cup B) = P(A)+P(B)-P(A\cap B)= 0,0785</math>; allgemeiner Additionssatz<br />
 
===Webstühle===
 
 
 
Wir definieren zunächst den Ereignisraum <math>\{A,\overline{A}\}^3</math> mit der Potenzmenge als Menge der Ereignisse. Die Zufallsvariable <math>{A}_{i} </math> gibt an, ob Webstuhl <math>i</math> Aufmerksamkeit beansprucht (<math>A_i=A</math>), oder nicht (<math>A_i=\overline{A}</math>), <math>i=1,2,3.</math> Nach Aufgabenstellung gilt: <math>\begin{aligned}
 
P[\{A_1=\overline{A}\}] &= 0,9, \\
 
P[\{A_2=\overline{A}\}] &= 0,8, \\
 
P[\{A_3=\overline{A}\}] &= 0,85. \end{aligned}</math>
 
 
 
* Gesucht ist die Wahrscheinlichkeit des Ereignisses <math>\{A_1=\overline{A}\} \cap \{A_2=\overline{A}\} \cap \{A_3=\overline{A}\}</math>. Wir nutzen die Unabhängigkeit dieser Ereignisse, um den Multiplikationssatz für unabhängige Ereignisse anzuwenden: <math>\begin{aligned}
 
&P[\{A_1=\overline{A}\} \cap \{A_2=\overline{A}\} \cap \{A_3=\overline{A}\}] \\
 
&=P[\{A_1=\overline{A}\}] \cdot P[\{A_2=\overline{A}\}] \cdot P[\{A_3=\overline{A}\}]\\
 
&=0,9 \cdot 0,8 \cdot 0,85 \\
 
&=0,612 \end{aligned}</math>
 
* Gesucht ist die Wahrscheinlichkeit des Ereignisses <math>\{A_1=\overline{A}\} \cup \{A_2=\overline{A}\} \cup \{A_3=\overline{A}\}</math>. Wir verwenden den Satz von de Morgan, um die Wahrscheinlichkeit des Ereignisses auf die Wahrscheinlichkeit des Gegenereignisses zurückzuführen und nutzen die Unabhängigkeit der <math>A_i's</math>, und erhalten: <math>\begin{aligned}
 
&P[\{ A_1=\overline{A}\} \cup \{A_2=\overline{A}\} \cup \{A_3=\overline{A}\}] \\
 
&= 1-P[\{A_1=A\} \cap \{A_2=A\} \cap \{A_3=A\}]\\
 
&=1-P[\{A_1=A\}] \cdot P[\{A_2=A\}] \cdot P[\{A_3=A\}]\\
 
&=1-0,1\cdot 0,2 \cdot 0,15=0,997.\end{aligned}</math>
 
 
 
===Wochenendgrundstück===
 
 
 
Wir betrachten den Ereignisraum <math>\{D, F\} \times \{R, \overline{R}\} \times \{S, \overline{S}\}</math> mit der Potenzmenge als Menge der Ereignisse.<br />
 
Die Zufallsvariable <math>M</math> (Münze) gibt an, ob Familie Sommer die Fähre (<math>M=F</math>) oder den Damm (<math>M=D</math>) nutzt. Die Zufallsvariable <math>W</math> (Wetter) gibt an,<br />
 
ob es regnet <math>(W=R)</math> oder nicht <math>(W=\overline{R})</math>. Die Zufallsvariable <math>S</math> gibt an, ob es bei der Fahrt zu einem Stau kommt (<math>S=St</math>) oder<br />
 
nicht (<math>S=\overline{St}</math>).
 
 
 
Familie Sommer steht genau dann nicht im Stau, wenn sie gar nicht losfährt (bei Regen) oder bei gutem Wetter ohne Stau über den Damm bzw. die Fähre nach Rügen fahren kann. D.h. die folgende Wahrscheinlichkeit ist gesucht: <math>P[\{W=R ~ \text{oder} ~ (W=\overline{R} ~ \text{und} ~ S=\overline{St})\}]</math> Wir berechnen: <math>\begin{aligned}
 
& P[\{W=R ~ \text{oder} ~ (W=\overline{R} ~ \text{und} ~ S=\overline{St})\}]\\
 
&= P[\{W=R\}]+ P[\{W=\overline{R} ~ \text{und} ~ S=\overline{St}\}] \\
 
&-P[\{W=R ~ \text{und} ~ W=\overline{R} ~ \text{und} ~ S=\overline{St}\}].
 
\end{aligned}
 
</math>
 
 
 
Offenbar ist der Schnitt in der letzten Wahrscheinlichkeit leer, denn es kann nicht gleichzeitig regnen und nicht regnen. Also vereinfacht sich die gesuchte Wahrscheinlichkeit zu
 
 
 
<math>
 
\begin{aligned}
 
&=P[\{W=R\}]+ P[\{W=\overline{R} ~ \text{und} ~ S=\overline{St}\}].
 
\end{aligned}
 
</math>
 
 
 
 
 
Jetzt benutzen wir die Unabhängigkeit von Wetter $W$ und Stau $S$, um diesen Ausdruch noch weiter zu vereinfachen:
 
 
 
<math>
 
\begin{aligned}
 
&=P[\{W=R\}]+ P[\{W=\overline{R}\}] \cdot P[\{S=\overline{St}\}].
 
\end{aligned}
 
</math>
 
 
 
Zuletzt wenden wir noch den Satz von der totalen Wahrscheinlichkeit an, um die Wahrscheinlichkeit von Stau auszurechnen und erhalten:
 
 
 
<math>
 
\begin{aligned}
 
&=P[\{W=R\}] \\
 
&P[\{W=\overline{R}\}] \cdot (P[\{S=\overline{St}\} \mid \{M=D\}] \\
 
&\cdot P[\{M=D\}]+P[\{S=\overline{St}\} \mid \{M=F\}]\cdot P[\{M=F\}])\\
 
&=0.2+0.8 \cdot (0.5 \cdot 0,75 + 0.5 \cdot 0,9 ) \\
 
&=0,86.\end{aligned}</math>
 
 
 
===Wurf eines Würfels===
 
 
 
* Wir fassen das zweimalige Würfeln als ''ein'' Zufallsexperiment auf. Ein Ergebnis ist dann durch das geordnete Paar bzw. 2-Tupel <math>(a,b)</math> gegeben, wobei <math>a</math> das Ergebnis im ersten Wurf und <math>b</math> das Ergebnis im zweiten Wurf angibt. Die Menge aller Ergebnisse lässt sich dann schreiben als:
 
 
 
<math>
 
\begin{aligned}
 
        S &= \{1,2,3,4,5,6\}^{2} = \{(a,b)\mid a,b \in \{1,2,3,4,5,6\}\} \\
 
          &= \{(1,1),(1,2),(1,3),(1,4),(1,5),(1,6), \\
 
          &\quad  (2,1),(2,2),(2,3),(2,4),(2,5),(2,6), \\
 
          &\quad  (3,1),(3,2),(3,3),(3,4),(3,5),(3,6), \\
 
          &\quad  (4,1),(4,2),(4,3),(4,4),(4,5),(4,6), \\
 
          &\quad  (5,1),(5,2),(5,3),(5,4),(5,5),(5,6), \\
 
          &\quad  (6,1),(6,2),(6,3),(6,4),(6,5),(6,6)\}.
 
    \end{aligned}
 
</math>
 
 
 
* Nun wollen wir das zweimalige Würfeln als das zweimalige Ziehen aus einer Urne mit 6 “Kugeln”, die für die Ergebnisse <math>1,\dots,6</math> stehen, betrachten. Wir wählen also <math>k=2</math> Kugeln aus <math>n=6</math> vielen aus, wobei die Reihenfolge wichtig ist (1. oder 2. Wurf) und Wiederholung möglich ist (beispielsweise ist <math>(1,1) \in S</math>). Daher gilt: <math>\begin{aligned}
 
        \#S&=V^{W}(6,2) = 6^{2}=6\cdot 6 = 36.
 
    \end{aligned}</math>
 
* Die Ereignisse <math>A</math> und <math>B</math> lassen sich dann folgendermaßen darstellen: <math>\begin{aligned}
 
        A &= \{6\}\times\{1,2,3,4,5,6\} \\
 
        &= \{(6,b)\mid b \in \{1,2,3,4,5,6\}\} \\
 
        &= \{(6,1),(6,2),(6,3),(6,4),(6,5),(6,6)\}, \\
 
        \\
 
        B &= \{1,2,3,4,5,6\}\times\{6\} \\
 
        &= \{(a,6) \mid a \in \{1,2,3,4,5,6\} \} \\
 
        &= \{(1,6),(2,6),(3,6),(4,6),(5,6),(6,6)\}.
 
    \end{aligned}</math>
 
* Die Vereinigung und der Durchschnitt der Ereignisse <math>A</math> und <math>B</math> sind gegeben durch:
 
<math>
 
\begin{aligned}
 
        A \cup B &=
 
        \{(a,b) \in S \mid (a,b) \in A \text{ oder } (a,b) \in B \}
 
        \\
 
        &= \{(a,b) \in S \mid a=6 \text{ oder } b=6\} \\
 
        &= \{(6,1),(6,2),(6,3),(6,4),(6,5),(6,6), \\
 
        & \quad (1,6),(2,6),(3,6),(4,6),(5,6)\},\\
 
        \\
 
        A \cap B &=
 
        \{(a,b) \in S \mid (a,b) \in A \text{ und } (a,b) \in B \} \\
 
        &= \{(a,b) \in S \mid a=6 \text{ und } b=6\} \\
 
        &= \{(6,6)\}.
 
    \end{aligned}</math>
 
* Veranschaulichung durch Venn-Diagramm:
 
* Die leere Menge <math>\emptyset</math> ist ein unmögliches Ereignis in jedem Zufallsexperiment.
 
* Die Komplementärereignisse <math>\bar{A}</math> und <math>\bar{B}</math> lassen sich darstellen als:
 
<math>
 
\begin{aligned}
 
\bar{A} &= S\setminus A = \{(a, b) \notin A \} \\
 
        &= \{(a, b) \in S \mid a \neq6 \} \\
 
        &= \{ 1, 2, 3, 4, 5 \} \times \{ 1, 2, 3, 4, 5, 6 \} \\
 
\\
 
\bar{B} &= S \setminus B = \{(a, b) \in S \mid (a, b) \notin B \} \\
 
        &= \{(a, b) \in S \mid b \neq 6\} \\
 
        &= \{ 1, 2, 3, 4, 5, 6 \} \times \{ 1, 2, 3, 4, 5\}.
 
\end{aligned}
 
</math>
 
 
 
* Nein. Denn beispielsweise <math>(6,3) \in A</math>, aber <math>(6,3) \notin B</math>.
 
* Nein, weil <math>A \cap B = \{(6,6)\}\neq \emptyset</math>.
 
 
 
===Zerlegung===
 
 
 
Voraussetzung für eine vollständige Zerlegung:<br />
 
<math>A_i \cap A_j = \varnothing </math> (Paarweise disjunkt)<br />
 
<math>A_1 \cup A_2 \cup \ldots \cup A_n = S</math> (Vereinigung ergibt S)<br />
 
<math>P(A_i) \neq 0 \Rightarrow A_i \neq \varnothing</math>
 
 
 
* Nein: <math>A_3 \cap A_5 \neq \varnothing</math>
 
* Nein: <math>A_4 \cap A_6 \neq \varnothing</math>
 
* Nein: <math>A_1 \cup A_2 \cup A_4 \neq S</math>
 
* Nein: <math>A_2 \cap A_5 \neq \varnothing</math>
 
* Nein: <math>A_5 \cap A_6 \neq \varnothing</math>
 
* Ja: <math>A_2 \cap A_3 = \varnothing, A_3 \cap A_4 = \varnothing, A_2 \cap A_4 = \varnothing, A_2 \cup A_3 \cup A_4 = S</math>
 
 
 
===Zufällige Ziehung einer Karte===
 
 
 
* <math>A = </math>{Pique-Karte}, <math>P(A) = 8/32 </math>
 
* <math>B = </math>{As}, <math>P(B) = 4/32</math>
 
* <math>C = </math>{Pique-Karte oder As}, <math>C = A \cup B</math>, <math>P(C) = P(A \cup B)</math><br />
 
<math>P(A \cup B) = P(A) + P(B) - P(A \cap B) = 11/32 </math>
 
 
 
===Zufallsexperiment===
 
 
 
* <math>A = \{3\}</math>; <math>P(A) = 1/6</math>
 
* <math>B = \{1,5\}</math>; <math>P(B) = 1/3</math>
 
* <math>C = \{2,4,6\}</math>; <math>P(C) = 1/2</math>
 
* klassische Definition der Wahrscheinlichkeit nach Laplace
 
 
 
===Zwei Würfel===
 
 
 
<math>A = \{(1,6), (2,5), (3,4), (4,3), (5,2), (6,1)\}</math><br />
 

Aktuelle Version vom 25. April 2019, 12:08 Uhr

15 Cent

  • A = {weniger als 15 Cent bei zweimaligem Ziehen mit Zurücklegen}

 P(A) = 3/8

  • B = {weniger als 15 Cent bei zweimaligem Ziehen ohne Zurücklegen}

P(B) = 0,333

1950–2000

E_{0} = {keine Person erlebt das Jahr 2000}
E_{1} = {eine Person erlebt das Jahr 2000}

E_{10} = {alle 10 Personen erleben das Jahr 2000}
A = E_{2}, B_{1} = \{E_{2}, E_{3},\ldots, E_{10}\}, B_{2} = E_{1}
A \cap B_{2} = \emptyset und B_{1} \cap B_{2} = \emptyset

Altbauwohnung

  • Wir betrachten die Ereignisse:

    • F: Wasserzufuhr friert ein

    • S: Strom fällt aus

    • W: Es ist Winterzeit.

    Aus dem Aufgabentext lassen sich folgende Informationen entnehmen:

    1. Sowohl im Winter (i.e. gegeben Winter) als auch im Sommer treten die beiden Missstände unabhängig voneinander auf. P(F\cap S|W) = P(F|W)\cdot P(S|W) \mbox{ und }  P(F\cap S|\overline{W}) = P(F|\overline{W})\cdot P(S|\overline{W})

    2. So friert natürlich das Wasser nur ein, wenn es Winter ist, und zwar mit 80%iger Wahrscheinlichkeit. P(F|W) = 0,8 \mbox{ und }  P(F|\overline{W}) = 0

    3. Der Strom fällt aber, selbst wenn es nicht Winter ist, mit 40%iger Wahrscheinlichkeit aus. Das entspricht der gleichen Wahrscheinlichkeit, mit der der Strom, wenn es Winter ist, nicht ausfällt. P(S|\overline{W}) = 0,4 \mbox{ und }  P(\overline{S}|W) = 0,4

    4. Gehen Sie davon aus, dass die Winterzeit 30% der gesamten Jahreszeit ausmacht. P(W) = 0,3

  • Gesucht ist P(F). Um diese unbekannte Wahrscheinlichkeit auf die bekannten zurückzuführen, verwenden wir den Satz von der totalen Wahrscheinlichkeit: Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} P(F) &= P(F\cap W) + P(F\cap\overline{W})\\ &= P(F|W)P(W)+P(F|\overline{W})P(\overline{W})\\ &=0,8 \cdot 0,3 +0 \cdot 0,7 \\ &= 0,24. \end{aligned}

  • Gesucht ist P(S). Wieder verwenden wir den Satz von der totalen Wahrscheinlichkeit Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} P(S) &= P(S\cap W) + P(S\cap\overline{W})\\ &= P(S|W)P(W)+P(S|\overline{W})P(\overline{W})\\ &=0,6 \cdot 0,3 + 0,4 \cdot 0,7 \\ &= 0,46. \end{aligned}

  • Gesucht ist P(F\cap S): Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} P(F\cap S) &=P(F\cap S|W) P(W)+ P(F\cap S|\overline{W}) P(\overline{W})\\ &= P(F|W)\cdot P(S|W)\cdot P(W) + P(F|\overline{W})\cdot P(S|\overline{W}) P(\overline{W})\\ &=0,8\cdot 0,6 \cdot 0,3 + 0 \cdot 0,6 \cdot 0,7\\ &=0,144 \end{aligned}

  • Gesucht ist die Wahrscheinlichkeit P(F|S). Mit der Formel für die bedingte Wahrscheinlichkeit können wir die gesuchte Wahrscheinlichkeit auf die gerade berechneten Wahrscheinlichkeiten zurückführen: Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} P(F|S)&=\dfrac{P(F\cap S)}{P(S)}\\ &=\frac{0,144}{0,46}\approx 0,313.\end{aligned}

  • Gesucht ist die Wahrscheinlichkeit P(S|F). Wieder mit der Definition der bedingten Wahrscheinlichkeit gilt Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} P(S|F)]&=\dfrac{P(F\cap S)}{P(F)}\\ &=\frac{0,144}{0,24}=0,6.\end{aligned}

  • Gesucht ist die Wahrscheinlichkeit P(S\cup F). Mit der Formel für die Vereinigung zweier Ereignisse gilt unter Verwendung der Ergebnisse der vorherigen Teilaufgaben Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} P(S\cup F) &= P(S)+P(F)-P(S\cap F)\\ &=0,24+0,46-0,144 \\ &=0,556.\end{aligned}

  • Gesucht ist die Wahrscheinlichkeit P(\overline{S\cap F}). Wir nutzen die Berechnung über die Gegenwahrscheinlichkeit und erhalten Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} P(\overline{S\cap F}) &=1-P(S\cap F)\\ &=1-0,144 \\ &=0,856. \end{aligned}

Alter

A = {ein Zehnjähriger wird 40 Jahre alt}; P(A) = 0,82277
B = {ein Zehnjähriger wird 70 Jahre alt}; P(B) = 0,37977
P(B|A) = 0,4616; (B \subset A !); Formel für bedingte Wahrscheinlichkeit

Angler

A_{i} = {Angeln am See i}; i = 1,2,3; P(A_{i}) = 1/3
B = {Angler hat etwas gefangen}; P(B|A_{1}) = 2/3; P(B|A_{2}) = 3/4;
P(B|A_{3}) = 4/5 \rightarrow P(B) = 133/180; Formel für totale Wahrscheinlichkeit
P(A_{2}|B) = 0,3383; Satz von Bayes

Antriebswellen

  • Für die Überprüfung der i-ten Welle, mit i=1,\dots,10000, bezeichne

x_i = {\left \{ 
        \begin{array}{ll}
            0 & \text{falls Welle i kein Ausschuss} \\
            1 & \text{falls Welle i Ausschuss}
        \end{array}
        \right .}

das Ergebnis des i-ten Durchgangs des Zufallsexperiments. Damit ist die Menge aller Ergebnisse des Zufallsexperiments für die Überprüfung einer Welle gegeben durch Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} S=\{0,1\} \end{aligned} mit den Elementarereignissen Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} \{0\} &= \text{``Kein Ausschuss wird produziert''}, \\ \{1\} &= \text{``Ausschuss wird produziert''}. \end{aligned} Nun bestimmen wir mithilfe der absoluten Häufigkeiten h die relativen Häufigkeiten \hat{f} für die beiden Ergebnisse “kein Auschuss” und “Auschuss” in unserer Stichprobe vom Umfang 10000. Die relativen Häufigkeiten ziehen wir heran, um die jeweiligen Wahrscheinlichkeiten zu schätzen:

Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} h(0) &= \sum\limits_{i=1}^{10000}I(x_i = 0 ) = 4500 + 5200 = 9700, \\ h(1) &= 10000 - h(0) = 300, \text{da alle } x_i \text{ binär} \\ \hat{f}(0) &= \frac{h(0)}{10000} = 0.97 \approx P(\{0\}), \\ \hat{f}(1) &= \frac{h(1)}{10000} = 0.03 \approx P(\{1\}) = P(\text{Ausschuss wird produziert}). \end{aligned}

  • Von Mises, Pearson, Fisher, u. a., fassten Wahrscheinlichkeiten als den Grenzwert der relativen Häufigkeiten auf, wenn die Anzahl unabhängiger Wiederholungen des Zufallsexperiments gegen unendlich strebt (frequentistischer Wahrscheinlichkeitsbegriff). In unserem Beispiel bedeutet dies: Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} P(\{0\}) = \lim_{n\rightarrow\infty}\hat{f}_{n}(0),\\ P(\{1\}) = \lim_{n\rightarrow\infty}\hat{f}_{n}(1), \end{aligned} wobei \hat{f}_{n} die relative Häufigkeit in Bezug auf eine Stichprobe vom Umfang n angibt. Da hier n=10000 relativ groß ist, gehen wir davon aus, dass die relativen Häufigkeiten annähernd den Wahrscheinlichkeiten entsprechen.

Aufzug

  • Ergebnisse: (i,j,k) mit Person 1 steigt in Etage i aus, Person 2 in Etage j und Person 3 in Etage k
  • Elementarereignisse: \{(i,j,k)\} mit 2\leq i,j,k \leq 7
  • Ereignisraum: S=\{(2,2,2), (2,2,3), \ldots, (7,7,7)\}
  • Anzahl der Elementarereignisse: 6\cdot6\cdot6=216

Formal: Ziehe dreimal aus einer Urne mit sechs Kugeln mit Wiederholung und die Anordnung spielt eine Rolle: V^W(6;3)=6^3=216

  • A = \{(4,4,4)\} \rightarrow P(A) = 1/216
  • B = \{(2,2,2), \ldots, (7,7,7)\}\Rightarrow P(B) = 6/216 = 1/36
  • C = \{(2,3,4), (2,3,5), \ldots, (7, 6, 5) \}

Formal: Ziehe dreimal aus einer Urne mit sechs Kugeln ohne Wiederholung und die Anordnung spielt eine Rolle: V(6;3)=\frac{6!}{3!}=120\Rightarrow P(C) = 120/216 = 5/9

Augenzahl eines Würfels

A = \emptyset, B =\emptyset \quad {\rightarrow}  A = B

Ausschussteile

Anwendung des Satzes der totalen Wahrscheinlichkeit: Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} P(B)&=&P(B|C)P(C)+P(B|\overline{C})(1-P(C)) \\ &=&0,95\cdot0,05+0,1\cdot0,95 \\ &=&0,1425\\ \\ P(B)&=&P(B|A_1)P(A_1)+P(B|A_2)P(A_2)+P(B|A_3)P(A_3)\\ \Leftrightarrow P(B|A_2)P(A_2)&=&P(B)-P(B|A_1)P(A_1)-P(B|A_3)P(A_3)\\ \Leftrightarrow P(B|A_2)&=&[P(B)-P(B|A_1)P(A_1)-P(B|A_3)P(A_3)]/P(A_2)\\ &=&(0,1425-0,8\cdot0,1-0,6\cdot0,05)/0,0422 \\ &=&0,0325/0,0422=0,77014 \end{aligned}

Banknoten

Es sei E: Bankangestellter erkennt gefälschte Banknote und B: Die Banknote ist echt.
Gegeben: P(E|\overline{B})=0,9; P(E|B)=0,05; P(\overline{B})=0,002.
Gesucht: P(B|E)
Anwendung des Satzes von Bayes:
P(B|E)=\frac{P(B\cap B)}{P(E)}=\frac{P(E|B)\cdot P(B)}{P(E|B)\cdot P(B)+P(E|\overline{B})\cdot P(\overline{B})} =0,9652

Bauernwirtschaft

  • Wir interessieren uns dafür, ob ein Bauernhof 0, 1 oder 2 Traktoren und, ob er 0, 1 oder 2 Pflüge zur Verfügung hat. Gegeben die Interpretation des Ereignisraum als Menge der Ereignisse, die wir unterscheiden, definieren wir daher S=\{e_1,...,e_9 \}, mit e_{1} = {0,0}, e_{2} = {0,1}, e_{3} = {0,2}, e_{4} = {1,0}, e_{5} = {1,1}, e_{6} = {1,2}, e_{7} = {2,0}, e_{ 8} = {2,1}, e_{9} = \{2,2\} .
  • Da wir ein karteisches Produkt zweier jeweils 3-elementiger Wahrscheinlichkeitsräume betrachten,und dementsprechend Reihenfolge und Wiederholung möglich ist, können wir die folgende Formel verwenden: V^{W}(3,2) = 3^2= 9.
  • A \cap B = \{1,1\}  Es sind genau ein Traktor und ein Pflug vorhanden.

Biergärten

Gegeben:

A= {Gast aus Biergarten A},\quad P(A)=0,6
B= {Gast aus Biergarten B}, \quad  P(B)=0,3
C= {Gast aus Biergarten C}, \quad  P(C)=0,1
U= {unzufriedener Gast } mit
P(U|A)=0,1;\;P(U|B)=0,4;\;P(U|C)=0,7
Gesucht:
P(B|U)
Theorem von Bayes: P(B|U)=\frac{P(U|B)P(B)}{P(U|A)P(A)+P(U|B)P(B)+P(U|C)P(C)}

Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} P(U|A)P(A)&=0,1\cdot0,6=0,06\\ P(U|B)P(B)&=0,4\cdot0,3=0,12\\ P(U|C)P(C)&=0,7\cdot0,1=0,07\\ \sum P(U|i)P(i)&=0,25\\ P(B|U)&=0,12/0,25=0,48\\\end{aligned}

Blumen

R = {Rose, Rose}, N = {Narzisse, Narzisse}, L =  {Lilie, Lilie}
A = {zwei Blumen gleicher Art} = R \cup N \cup L
P(A) = P(R \cup N \cup L) = P(R) + P(N) + P(L) = 6/66 + 15/66 + 1/66 = 1/3

Bus

F = {Besuch bei der Freundin}, U = {Erscheinen in der Universität}
F = \overline{U}, P(U) = 1/10, P(F) = 1 - P(U) = 9/10
U = {Ankunft an der Bushaltestelle zu einer Minute, so dass der Bus B_{U} zur Universität als erster kommt}
F = {Ankunft an der Bushaltestelle zu einer Minute, so dass der Bus B_{F} zur Freundin als erster kommt}
U = {m_{1}, m_{2}, …, m_{k}} mit m_{i} für B_{U} günstige Minute
P(U) = \frac{\mbox{Zahl der für Uni. günstigen Minuten}}{\mbox{Gesamtzahl der Minuten}}=\frac{k}{20} = \frac{1}{10}= \frac{2}{20}

Abfahrtszeiten zur Universität sind somit ^{\underline{02}}, ^{\underline{22}} und ^{ \underline{42}}
Die Universität hat somit nicht die gleiche Chance, da nur 2 Minuten Wartezeit auf den Bus zur Universität und bei allen anderen Minuten kommt der Bus zur Freundin zuerst.
Gleiche Chance wäre bei Abfahrtszeiten des Bus B_{U} ^{\underline{10}}, ^{\underline{30}} und ^{\underline{50}} gegeben.

Eigener PKW

A_1 = "Bürokraft ist weiblich"
A_2 = "Bürokraft ist männlich"
B = "Bürokraft kommt mit dem PKW zur Arbeit"
P(A_1) = 0,6, \quad  P(A_2) = 0,4, \quad P(B| A_1) = 0,7, \quad P(B| A_2) = 0,8;

A_1\cap A_2 = \varnothing, \quad A_1\cup A_2 = S;

 P(A_1 \| B) = [P(B\| A_1)P(A_1)]/[P(B| A_1)P(A_1)+P(B| A_2)P(A_2)] = 0,42/0,74= 05676 \approx 0,57

Eignungstest

Die Ereignisse A_1=\mbox{Bewerber besteht Eignungstest} und
A_2=\mbox{Bewerber besteht Eignungstest nicht} bilden eine vollständige Zerlegung des Ereignisraums S. Gegeben ist P(A_1)=0,25. Aufgrund von A_2=\overline{A_1} folgt P(A_2)=1-P(A_1)=0,75.
Ferner sind ein zufälliges Ereignis B=\mbox{Bewerber ist für die Tätigkeit geeignet} und die bedingten Wahrscheinlichkeiten dieses Ereignisses P(B|A_1)=0,95 und P(B|A_2)=0,10 gegeben.
Gesucht wird die bedingte Wahrscheinlichkeit P(A_1|B). Diese lässt sich nach dem Theorem von BayesP(A_1|B)=\frac{P(A_1\cap B)}{P(B)}=\frac{P(B|A_1)P(A_1)}{P(B|A_1)P(A_1)+P(B|A_2)P(A_2)}berechnen. Für P(B) resultiert:P(B)=P(B|A_1)\cdot P(A_1)+P(B|A_2)\cdot P(A_2)=0,3125\rightarrow P(A_1|B)=0,76

Elemente eines Ereignisraumes

  • Für eine Zerlegung von S muss u.a. gelten: A_1\cup\ldots\cup A_n=S, d.h. es müsste A\cup B=S sein und somit P(A\cup B)=1. Da P(A\cup B)=3/4 ist, gilt diese Behauptung nicht. Außerdem müssten die Ereignisse A und B disjunkt sein, was nicht der Fall ist (siehe c).
  • Wenn A und B komplementär wären, müsste gelten: A\cup B=S und somit P(A\cup B)=1. Da P(A\cup B)=3/4 ist, gilt diese Behauptung nicht.
  • Für disjunkte Ereignisse gilt A\cap B=\varnothing und somit P(A\cap B)=0 (Berechnung unter d).
  • P(A\cup B)=P(A)+P(B)-P(A\cap B)

P(A\cap B)=P(A)+P(B)-P(A\cup B)=1/2+1/2-3/4=1/4
P(A\cap B)=P(A)\cdot P(B)=1/2\cdot1/2=1/4
oder
P(A|B)=P(A|\overline{B}) mit P(A|B)=P(A\cap B)/P(B)=(1/4)/(1/2)=1/2 und P(A|\overline{B})=P(A\cap B)/P(\overline{B})=(1/4)/(1/2)=1/2
Die Ereignisse A und B sind unabhängig.

Entwicklungsabteilung

  • A_{1} = {Entwicklungsabteilung ist für Markteinführung des neuen Produkts}

A_{2} = {Marketingabteilung ist für Markteinführung des neuen Produkts}
A_{3} = {Geschäftsleitung ist für Markteinführung des neuen Produkts}
P(A_{1} ) = 0,9;
P(A_{2}|A_{1}) = 0,7;
P(\overline{A}_{3}|A_{1} \cap A_{2}) = 0,2;
P(A_{3}|A_{1} \cap \overline{A}_{2}) = 0,4

  • P(A_{1} \cap A_{2} \cap A_{3}) = P(A_{1})
         \cdot P(A_{2}|A_{1})\cdot[1 - P(\overline{A}_{3}|A_{1}
         \cap A_{2})]   = 0,504
  • P(A_{1} \cap A_{3}) = P(A_{1}\cap
         A_{2} \cap A_{3}) + P(A_{1} \cap
         \overline{A}_{2} \cap A_{ 3}) = 0,612

Ereignisoperationen

A \cup A = A; A \cup \emptyset = A; A \cap A = A  A \cap \emptyset = \emptyset; \emptyset \cap S = \emptyset
A \cup S = S; A \cup \overline{A} = S; A \cap S = A; A \cap \overline{A} = \emptyset

Ereignisraum

Allgemein gilt: P(A\cup B)= P(A)+P(B)-P(A \cap B) \Rightarrow P(A \cap B)= \frac{1}{4}

  • falsch: P(A \cup B)\neq 1 und P(A \cap B)\neq \varnothing
  • falsch: P(\overline{A})=P(B) aber P(A \cap B)\neq \varnothing
  • falsch: P(A \cap B)\neq \varnothing
  • richtig: P(A|B)=\frac{P(A \cap B)}{P(B)}=\frac{1/4}{1/2}=\frac{1}{2}=P(A)

Erregertest

I: Mit Bazillus infiziert; E: Erkennen des Bazillus durch Test (positiver Befund)
Gegeben:

  • P(E| I)=0,95
  • P(E|\overline{I})=0,03
  • P(I)=0,02


Daraus ergeben sich:
P(\overline{E}| I)=0,05; P(\overline{E}|\overline{I})=0,97; P(\overline{I})=0,98
Gesucht: P(I| E)=P(E\cap I)/P(E)
P(E\cap I)=P(E| I)P(I)=0,019
P(E)=P(E\cap I)+P(E\cap\overline{I})=P(E|I)P(I)+P(E|\overline{I})P(\overline{I}) =0,0484
P(I| E)=0,39256 \approx 0,3926

Fachbereichsrat

A = {drei Professoren werden gewählt}
Anzahl mögliche Fälle: K(n,k) = K(8,3) = 56
Anzahl günstiger Fälle für A: K(4,3) = 4
P(A) = 4/56 = 1/14

Fahrrad oder Straßenbahn

Ereignisse:
A=\mbox{Fritzi braucht mehr als 30 Min. bis in die Uni}
B_1=\mbox{Fritzi nimmt das Fahrrad}
B_2=\mbox{Fritzi nimmt die Straßenbahn}

Gegeben:

  • P(B_1)=0,8
  • P(B_2)=0,2
  • P(A|B_1)=0,3
  • P(A|B_2)=0,6

Gesucht:
Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} P(B_2|A)&=&\frac{P(A|B_2)\cdot P(B_2)}{P(A|B_1)\cdot P(B_1)+P(A|B_2)\cdot P(B_2)}\\ &=& 0,\overline{333}\end{aligned}

Felgen

  • P(4) = 24
  • A = {(2,1,4,3), (2,3,4,1), (2,4,1,3), (3,1,4,2), (3,4,1,2), (3,4,2,1), (4,1,2,3), (4,3,1,2), (4,3,2,1)}

Fernschreiben

A_{1} = {Fehler bei 1. übertragung}; A_{2} = {Fehler bei 2. übertragung}
A_{1}\cap A_{2}={Fehler bei 1. und 2. übertragung}; P(A_{1})=0,01; P(A_{2}|A_{1}) = 0,1
P(A_{1}\cap A_{2}) = P(A_{1}) \cdot P(A_{2}|A_{1}) = 0,001

Fernsehshow

W=\{\mbox{weiße Kugel}\};\quad U_i= \{\mbox{Urne i}\}\quad i=1,2
Anwendung des Satzes der totalen Wahrscheinlichkeit auf jedes Verfahren:
P(W)=P(W|U_1)\cdot P(U_1)+P(W|U_2)\cdot P(U_2)
P(U_1)=P(U_2)=1/2
1. Verfahren:
U_1: 6W, 2S \quad \Rightarrow P(W|U_1)=6/8
U_2: 6W, 10S \quad \Rightarrow P(W|U_2)=6/16
P(W)=6/8\cdot1/2+6/16\cdot1/2=9/16=0,5625
2. Verfahren:
U_1: 6W, 6S \quad \Rightarrow P(W|U_1)=6/12
U_2: 6W, 6S \quad  \Rightarrow P(W|U_2)=6/12
P(W)=6/12\cdot1/2+6/12\cdot1/2=1/2=0,5

Fußballmannschaft

A = {Gewinn beim 1. Spiel}; B = {Gewinn beim 2. Spiel}; C = {Gewinn beim 3. Spiel};
P(A) = P(B) = P(C) = 0,7
D = {Gewinnspiele überwiegen} = [(A \cap B \cap \overline{C}) \cup (A \cap \overline{B} \cap C)
    \cup (\overline{A} \cap B \cap C) \cup (A \cap B \cap C)]
P(D) = 0,784

Gangsterbande

Ereignisse:
D=\mbox{Donnerstag};\overline{D}=\mbox{nicht Donnerstag}
Y=\mbox{Scotland Yard fasst Täter am selben Tag},
H=\mbox{Sherlock Holmes fasst Täter am selben Tag}
G=\mbox{Täter am selben Tag im Gefängnis}

Gegeben:
P(Y)=P(Y|D)=P(Y|\overline{D})=0,25;\quad P(H|D)=0,00;\quad P(H|\overline{D})=0,35;
P(D)=1/6;\quad P(\overline{D})=5/6

Gesucht:
Fehler beim Parsen (Unbekannte Funktion „\begin“): \begin{aligned} P(G|D)&=&P(Y|D)=0,25\\ P(G|\overline{D})&=&P(Y\cup H|\overline{D})\\ &=&P(Y|\overline{D})+P(H|\overline{D})-P(Y\cap H|\overline{D})\\ &=&0,25+0,35-0,25\cdot0,35=0,5125\\ P(G)&=&P(G|D)\cdot P(D)+P(G|\overline{D})\cdot P(\overline{D})\\ &=&0,25\cdot1/6+0,5125\cdot5/6=0,46875\approx0,47 \end{aligned}

Garderobe

Es gibt 5! Möglichkeiten, jedem Mann einen Hut zuzuordnen. Eine davon ist im Sinne der Aufgabe nur günstig.
A = {jeder Mann bekommt seinen Hut}, P(A) = 1/120

Geburtstag

  • Dafür muss man die Gegenwahrscheinlichkeit benutzen:

    • A: Min. ein Gast hat an meinem Geburtstag Geburtstag

    • \overline{A}: Kein Gast hat an meinem Geburtstag Geburtstag

    Wenn die