Binomialverteilung

Aus MM*Stat

Wechseln zu: Navigation, Suche

Verteilungsmodelle

Diskrete Gleichverteilung • Binomialverteilung • Hypergeometrische Verteilung • Poisson-Verteilung • Stetige Gleichverteilung • Exponentialverteilung • Normalverteilung • Standardnormalverteilung • Schwankungsintervall • Zentraler Grenzwertsatz • Chi-Quadrat-Verteilung • t-Verteilung • F-Verteilung • Approximation von Verteilungen • Multiple Choice • Video • Aufgaben • Lösungen
Approximation • Approximation der Binomialverteilung • Approximation der hypergeometrischen Verteilung • Approximation der Poisson-Verteilung • Bernoulli-Experiment • Endlichkeitskorrektur • Freiheitsgrad • Gauß-Verteilung • Gauß'sche Glockenkurve • Gedächtnislosigkeit der Exponentialverteilung • Gleichverteilung (diskret) • Gleichverteilung (stetig) • Poisson-Prozess • Sicherheitswahrscheinlichkeit • Standardnormalverteilung • Stetigkeitskorrektur • Student'sche t-Verteilung • Überschreitungswahrscheinlichkeit • Zentrales Schwankungsintervall

Grundbegriffe

Bernoulli-Experiment

Ein Zufallsexperiment ist durch folgende Eigenschaften gekennzeichnet:

Ein derartiges Zufallsexperiment heißt Bernoulli-Experiment.

Binomialverteilung

Der Binomialverteilung liegt ein Bernoulli-Experiment zugrunde, bei dem entweder ein Ereignis A mit konstanter Wahrscheinlichkeit p oder das zu A komplementäre Ereignis \bar A mit der Wahrscheinlichkeit 1 - p eintreten kann.

Dieses Zufallsexperiment wird n-mal wiederholt.

Die diskrete Zufallsvariable, welche die Anzahl des Eintretens von A bei n-maliger Durchführung des Zufallsexperimentes beinhaltet, heißt binomialverteilt mit den Parametern n und p, wenn ihre Wahrscheinlichkeitsfunktion durch

f_{B}(x;n,p)=\begin{cases}{n \choose x} \cdot p^{x}\cdot (1-p)^{n-x}\quad & \mbox{, wenn } x=0,1,\dots ,n \\
0\quad & \mbox{, sonst}\end{cases}

gegeben ist. In Kurzform schreibt man X \sim B(n;p)\,

Für die Verteilungsfunktion folgt

F_{B}(x;n,p) = \begin{cases}\sum\limits_{k=0}^x {n\choose k} \cdot p^k \cdot (1 - p)^{n-k} \quad & \mbox{, wenn }x \geq 0 \\
0 \quad & \mbox{, wenn } x < 0
\end{cases}

Erwartungswert und Varianz der Binomialverteilung B(n;p):

E[X] = n \cdot p

Var(X) = n \cdot p \cdot (1 - p)

Zusatzinformationen

Eigenschaften der Binomialverteilung

  • Reproduktivitätseigenschaft:
Sind X \sim B(n;p)\, und Y \sim B(m;p)\, unabhängige Zufallsvariablen, so ist die Zufallsvariable Z = X + Y\, ebenfalls binomialverteilt mit den Parametern n + m und p, d.h. Z \sim B(n+m;p)\,.
  • Symmetrieeigenschaft:
Ist X \sim B(n;p)\, und Y = n - X\, dann gilt Y \sim B(n;1-p)\,.

Für ausgewählte Werte der Parameter n und p (mit p\leq 0.5) liegt die Binomialverteilung tabelliert vor (z.B. Formelsammlung Statistik I+II).

Graphische Darstellung der Binomialverteilung

Da die Binomialverteilung eine diskrete Verteilung ist, erfolgt die grafische Darstellung der Wahrscheinlichkeitsfunktion als Stabdiagramm und die der Verteilungsfunktion als Treppenfunktion.

Die folgende Abbildung zeigt zu verschiedenen Werten von p, bei gleichem n, die Wahrscheinlichkeitsfunktion der Binomialverteilung.

Man erkennt, dass die Verteilung für p< 0,5 linkssteil ist und zwar umso deutlicher, je kleiner p ist.

Für p = 0,5 ist die Verteilung symmetrisch zum Wert x = np.

Für p> 0,5 erhält man rechtssteile Verteilungen als "Spiegelbild" zu den entsprechenden linkssteilen Verteilungen.


Approximation der Binomialverteilung durch Normalverteilung

Für sehr große Werte von n lässt sich die Wahrscheinlichkeitsfunktion durch die Dichtefunktion einer Normalverteilung mit \mu = n\cdot p und \sigma^2 = n\cdot p\cdot (1-p) approximieren.

Diese Approximation ist umso besser, je näher p bei 0,5 liegt, und wird schlechter, je näher p bei 0 oder 1 liegt.

Die theoretische Rechtfertigung liefert der zentrale Grenzwertsatz.

Herleitung der Binomialverteilung

Für jeden Versuch eines Bernoulli-Experimentes wird eine Zufallsvariable X_{i}(i=1,\dots,n) definiert, die nur die Werte 0 (für das Eintreten von \bar{A}) und 1 (für das Eintreten von \,A) annehmen kann.

Gemäß den gegebenen Wahrscheinlichkeiten \,P(A) = p und P(\bar{A})=1-p weist jede Zufallsvariable X_{i} die Wahrscheinlichkeitsfunktion (Bernoulli-Verteilung)

f(x;p)=\begin{cases}p^{x}\cdot (1-p)^{1-x} & \mbox{, wenn } x=0,\;1 \\
0 & \mbox{, sonst}\end{cases}

mit E[X_i] = p\, und Var(X_i)=p\cdot (1-p) auf.

Bei n-maliger Durchführung der Versuche interessiert die Gesamtzahl des Eintretens von A, so dass die Zufallsvariable

X =\{\mbox{Anzahl des Auftretens von A bei n Versuchen}\} betrachtet wird:

X = \sum\limits_{i=1}^n X_i

X ist eine Funktion (Linearkombination) von n Zufallsvariablen.

Das Ereignis X = x tritt ein, wenn in der Folge der Versuche genau x-mal das Ereignis A und (n - x)-mal das Ereignis \bar{A} eintritt z.B.

A_{1}\cap A_{2}\cap \dots \cap A_{x}\cap \bar{A}_{x+1}\cap \bar{A}_{x+2}\cap\dots \cap \bar{A}_{n}, also x-mal A und (n-x)-mal \bar{A}.

Die Indizierung der Ereignisse gibt die Nummer des Versuchs an.

Die Wahrscheinlichkeit, dass die Zufallsvariable X die Realisation x bei dieser Ereignisfolge annimmt, ist wegen der Unabhängigkeit der Versuche

f(x)\, =P(X=x)=P(A_{1}\cap A_{2}\cap \dots \cap A_{x}\cap \bar{A}_{x+1}\cap \bar{A}_{x+2}\cap \dots \cap \bar{A}_{n})
=P(A_{1})\cdot P(A_{2})\cdot \ldots \cdot P(A_{x})\cdot P(\bar{A}_{x+1})\cdot P(\bar{A}_{x+2})\cdot \dots \cdot P(\bar{A}_{n})
=p\cdot p\cdot \ldots \cdot p\cdot (1-p)\cdot (1-p)\cdot \ldots \cdot (1-p)
=p^{x}\cdot (1-p)^{n-x}

Es gibt jedoch nicht nur eine Folge von Versuchen, bei der genau x-mal das Ereignis A und (n - x)-mal das Ereignis \bar{A} eintritt.

Die Wahrscheinlichkeit jeder dieser Folgen ist ebenfalls f(x) = p^{x}\cdot (1-p)^{n-x}.

Die Anzahl der verschiedenen Ereignisfolgen lässt sich mithilfe des Binomialkoeffizienten ermitteln, ist also durch die Anzahl der Kombinationen ohne Wiederholung gegeben:

{n \choose x}=\frac{n!}{x!\cdot (n-x)!}

Aufgrund der Unabhängigkeit der Ereignisfolgen resultiert die Wahrscheinlichkeitsfunktion

P(X=x)=f(x)={n \choose x }\cdot p^{x}\cdot (1-p)^{n-x}