Parameter eindimensionaler Verteilungen (stochastisch)

Aus MM*Stat

Wechseln zu: Navigation, Suche

Grundbegriffe

Erwartungswert

Der Erwartungswert einer Zufallsvariablen X, symbolisiert mit E[X] oder \mu, ist das stochastische Pendant zum arithmetischen Mittel einer empirischen Häufigkeitsverteilung.

Er ist derjenige Wert der Zufallsvariablen, dessen Eintreffen vor der Durchführung des Zufallsexperimentes im Mittel zu erwarten ist.

Wenn das Zufallsexperiment sehr oft wiederholt wird, ist E[X] der Wert, der bei einer großen Zahl von x-Werten als Durchschnitt zu "erwarten" ist.

Erwartungswert einer diskreten Zufallsvariable

Sei X eine diskrete Zufallsvariable mit den Realisationen x_{i} und der zugehörigen Wahrscheinlichkeitsfunktion f(x_{i}).

Dann ist der Erwartungswert der Zufallsvariablen X bzw. der Verteilung von X gegeben durch

\, E[X]=\mu =\sum\nolimits_{i}x_{i}\cdot f(x_{i})

Seien X und Y zwei diskrete Zufallsvariablen mit den Realisationen x_{i},y_{j} und der zugehörigen zweidimensionalen Wahrscheinlichkeitsfunktion f(x_i,y_j).

Dann sind die Erwartungswerte der Randverteilungen von X und Y gegeben durch

E[X]=\sum\nolimits_{i} \sum\nolimits_{j} x_i \cdot f(x_i,y_j) = \sum\nolimits_{i} x_i \cdot \sum\nolimits_{j} f(x_i,y_j) =\sum\nolimits_{i} x_i\cdot f(x_i)

E[Y] = \sum\nolimits_{j} \sum\nolimits_{i} y_j \cdot f(x_i,y_j) = \sum\nolimits_{j} y_j \cdot \sum\nolimits_{i} f(x_i,y_j) =\sum\nolimits_{j} y_j \cdot f(y_j)

Seien X und Y zwei diskrete Zufallsvariablen mit den Realisationen x_{i},y_{j} und den zugehörigen bedingten Verteilungen f(x_i|y_j) und f(y_j|x_i).

Dann sind die Erwartungswerte der bedingten Verteilungen von X und Y gegeben durch

E[X|y_j] = \sum\nolimits_{i} x_i\cdot f(x_i|y_j)

E[Y|x_i] = \sum\nolimits_{j} y_j\cdot f(y_j|x_i)

Erwartungswert einer stetigen Zufallsvariable

Sei X eine stetige Zufallsvariable mit den Realisationen x und der zugehörigen Dichtefunktion f(x).

Dann ist der Erwartungswert der Zufallsvariablen X bzw. der Verteilung von X gegeben durch

E[X]=\mu =\int\nolimits_{-\infty }^{+\infty }x\cdot f(x)\,dx

Seien X und Y zwei stetige Zufallsvariablen mit den Realisationen x,y und der zugehörigen zweidimensionalen Dichtefunktion f(x,y).

Dann sind die Erwartungswerte der Randverteilungen von X und Y gegeben durch

E[X] = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} x\cdot f(x,y) \, dx\, dy= \int_{-\infty}^{+\infty} x \left( \int_{-\infty}^{+\infty} f(x,y) \, dy \right) \,dx=\int_{-\infty}^{+\infty} x\cdot f(x)\,dx

E[Y] = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} y\cdot f(x,y) \, dx \,dy = \int_{-\infty}^{+\infty} y \left( \int_{-\infty}^{+\infty} f(x,y) \, dx\right) \, dy = \int_{-\infty}^{+\infty} y\cdot f(y) \, dy

Seien X und Y zwei stetige Zufallsvariablen mit den Realisationen x,y und den zugehörigen bedingten Verteilungen f(x|y) und f(y|x).

Dann sind die Erwartungswerte der bedingten Verteilungen von X und Y gegeben durch

E[X|y] = \int_{-\infty}^{+\infty} x\cdot f(x|y) \, dx \,

E[Y|x] =\int_{-\infty}^{+\infty} y\cdot f(y|x) \, dx

Varianz

Die Varianz, symbolisiert mit Var(X) oder \sigma^{2}, ist im allgemeinen als Erwartungswert der quadrierten Abweichungen der Zufallsvariablen von ihrem Erwartungswert definiert:

\begin{align} Var(X) = &
= E\left[(X-E[X])^2\right] \\&
= E\left[X^2 - 2 \cdot X \cdot E[X] + E[X]^2\right]\\  & 
= E \left[ X^2 \right] - E \left[ 2\cdot X\cdot E[X] \right] + E \left[ E[X]^2 \right]\\&
= E\left[X^2\right] - 2 \cdot E[X] \cdot E[X] + E[X]^2\\&
= E\left[X^2\right] - E\left[X\right]^2.\end{align}

Varianz einer diskreten Zufallsvariable

Sei X eine diskrete Zufallsvariable mit den Realisationen x_{i} und der zugehörigen Wahrscheinlichkeitsfunktion f(x_{i}).

Dann ist die Varianz der Zufallsvariablen X bzw. der Verteilung von X gegeben durch

 Var(X)=\sigma ^{2}=\sum\nolimits_{i}(x_{i}-E[X])^{2}\cdot f(x_{i})=\sum\nolimits_{i}x_{i}^{2}\cdot f(x_{i})-(E[X])^{2}

Seien X und Y zwei diskrete Zufallsvariablen mit den Realisationen x_{i},y_{j} und der zugehörigen zweidimensionalen Wahrscheinlichkeitsfunktion f(x_i,y_j).

Dann sind die Varianzen der Randverteilungen von X und Y gegeben durch

Var (X) = E[(X - E[X])^2] = \sum\nolimits_i \sum\nolimits_j (x_i - E[X])^2\cdot f(x_i, y_j) =\sum\nolimits_i (x_i - E[X])^2\cdot \sum\nolimits_j f(x_i,y_j) = \sum\nolimits_i (x_i - E[X])^2\cdot f(x_i) = \sum\nolimits_i x_i^2\cdot f(x_i) - (E[X])^2

Var (Y) = E[(Y - E[Y])^2] = \sum\nolimits_j \sum\nolimits_i (y_j - E[Y])^2\cdot f(x_i, y_j) =\sum\nolimits_j (y_j - E[Y])^2\cdot \sum\nolimits_i f(x_i,y_j)= \sum\nolimits_j (y_j - E[Y])^2\cdot f(y_j) = \sum\nolimits_j y_j^2\cdot f(y_j) - (E[Y])^2

Seien X und Y zwei diskrete Zufallsvariablen mit den Realisationen x_{i},y_{j} und den zugehörigen bedingten Verteilungen f(x_i|y_j) und f(y_j|x_i).

Dann sind die Varianzen der bedingten Verteilungen von X und Y gegeben durch

Var(X|y_j) = \sum\nolimits_i (x_i - E[X|y_j])^2\cdot f(x_i|y_j) = \sum\nolimits_i x_i^2\cdot f(x_i|y_j)- (E[X|y_j])^2

Var(Y|x_i) = \sum\nolimits_j (y_j - E[Y|x_i])^2\cdot f(y_j|x_i) = \sum\nolimits_j y_j^2\cdot f(y_j|x_i)- (E[Y|x_i])^2

Varianz einer stetigen Zufallsvariable

Sei X eine stetige Zufallsvariable mit den Realisationen x und der zugehörigen Dichtefunktion f(x).

Dann ist die Varianz der Zufallsvariablen X bzw. der Verteilung von X gegeben durch

 Var(X)=\sigma ^{2}=\int\nolimits_{-\infty }^{+\infty }(x-E[X])^{2}\cdot f(x)\,dx=\int\nolimits_{-\infty }^{+\infty }x^{2}\cdot f(x)\,dx-(E[X])^{2}

Seien X und Y zwei stetige Zufallsvariablen mit den Realisationen x,y und der zugehörigen zweidimensionalen Dichtefunktion f(x,y).

Dann sind die Varianzen der Randverteilungen von X und Y gegeben durch

Var (X) = \int_{-\infty}^{+\infty} (x - E[X])^2 \cdot f(x) \, dx =\int_{-\infty}^{+\infty} x^2\cdot f(x) \, dx - (E[X])^2

Var (Y) = \int_{-\infty}^{+\infty} (y - E[Y])^2 \cdot f(y) \, dy =\int_{-\infty}^{+\infty} y^2\cdot f(y) \, dy - (E[Y])^2

Seien X und Y zwei stetige Zufallsvariablen mit den Realisationen x,y und den zugehörigen bedingten Verteilungen f(x|y) und f(y|x).

Dann sind die Varianzen der bedingten Verteilungen von X und Y gegeben durch

Var(X|y) = \int_{-\infty}^{+\infty} (x - E[X|y])^2 \cdot f(x|y) \, dx

Var(Y|x) = \int_{-\infty}^{+\infty} (y - E[Y|x])^2 \cdot f(y|x) \, dy

Standardabweichung

Als Standardabweichung \sigma wird die Wurzel aus der Varianz bezeichnet, also

\sigma = \sqrt{Var(X)} = \sqrt{\sigma^2}.

Sie ist ein Parameter, der die Streuung der Wahrscheinlichkeitsverteilung von X beschreibt.

Ein großer Wert der Standardabweichung weist darauf hin, dass die Zufallsvariable X Werte in einem großen Bereich um den Erwartungswert annehmen kann.

Ein kleiner Wert der Standardabweichung bedeutet, dass die Werte von X hauptsächlich nahe am Erwartungswert liegen.

Standardisierung

Vielfach erweist sich eine Transformation, durch die sowohl eine Zentrierung als auch eine Normierung erreicht wird, als günstig.

Eine derart standardisierte Zufallsvariable Z ist definiert durch

Z=\frac{X-E[X]}{\sigma_{X}}

Sie hat den Erwartungswert E[Z]=0 und die Varianz Var(Z)=1.

Tschebyschev-Ungleichung

Die Tschebyschev-Ungleichung gibt eine Abschätzung für die Wahrscheinlichkeit an, dass die Zufallsvariable X einen Wert innerhalb bzw. außerhalb eines zentralen Bereiches um den Erwartungswert annimmt.

Dafür ist nur die Kenntnis des Erwartungswertes und der Varianz von X, jedoch nicht die Kenntnis der Verteilung von X erforderlich.

Ausgegangen wird von einem zentralen Schwankungsintervall um \mu:

[\mu -k\cdot\sigma ;\mu +k\cdot \sigma ]

Definition:

Für eine Zufallsvariable X mit Erwartungswert \mu und Varianz \sigma^2 gilt bei beliebigem k>0

P(\mu - k \cdot \sigma \leq X \leq \mu + k \cdot \sigma) \geq 1 - \frac{1}{k^2}

Für k \cdot \sigma = a, folgt

P(\mu - a \leq X \leq \mu + a) \geq 1 - \frac{\sigma^2}{k^2}

Für das Komplementärereignis, dass die Zufallsvariable X einen Wert außerhalb des k-fachen zentralen Schwankungsintervalls \{|X-\mu |>k\cdot \sigma \} annimmt, gilt gemäß den Regeln der Wahrscheinlichkeitsrechnung:

P(|X-\mu |>k\cdot \sigma )<1/k^{2}

bzw. für k\cdot \sigma =a

P(|X-\mu |>a)\leq \sigma ^{2}/a^{2}\mbox{.}

Die tatsächlichen Wahrscheinlichkeiten der Ereignisse \{|X-\mu |>k\cdot \sigma \} und \{|X-\mu |\leq k\cdot \sigma \} hängen von der konkreten Verteilung von X ab.

Zusatzinformationen

Erwartungswert von Linearkombinationen

Seien X und Y zwei Zufallsvariablen mit den Erwartungswerten E[X], E[Y] und a,b beliebig. Dann gilt

  • für \,Y = a+bX
\,E[Y] = E[a+bX] = a + bE[X]
  • für \,Z=X+Y
\,E[Z] = E[X + Y] = E[X] + E[Y]
\,E[X\cdot Y] = E[X]\cdot E[Y]

Varianz von Linearkombinationen

Seien X und Y zwei Zufallsvariablen mit den Varianzen Var(X), Var(Y) und a,b beliebige reelle Zahlen. Dann gilt:

  • für \,Y=a+bX
\,Var(Y)=Var(a+bX)=b^{2}\cdot Var(X)
\, Var(Z)=Var(X)+Var(Y)
 \sigma_{Z}=\sigma _{X+Y}=\sqrt{\sigma_{X}^{2}+\sigma _{Y}^{2}}

Linearkombinationen von Zufallsvariablen

Erwartungswerte und Varianzen von Linearkombinationen von Zufallsvariablen

\,Z \,E[Z] \,Var(Z)
a\cdot X \pm b\cdot Y a\cdot E[X]\pm b \cdot E[Y] a^2\cdot Var(X) + b^2\cdot Var(Y) \pm 2\cdot a\cdot b\cdot Cov(X,Y)
X + Y\; (a=b=1) \,E[X] + E[Y] \,Var(X) + Var(Y) + 2\cdot Cov(X,Y)
X - Y \;( a=1, \quad b= -1) \,E[X] - E[Y] \,Var(X) +Var(Y) - 2\cdot Cov(X,Y)
\frac{1}{2}\cdot (X + Y)\; ( a=b=\frac{1}{2}) \,\frac{1}{2}\cdot (E[X] + E[Y]) \,\frac{1}{4}\cdot Var(X) + \frac{1}{4}\cdot Var(Y) + \frac{1}{2}\cdot Cov(X,Y)

Beispiele

Autounfälle

Die Zufallsvariable X\; bezeichne die Anzahl der Autounfälle pro Woche an einer Straßenkreuzung einer Stadt.

Aufgrund langjähriger Registrierung sind die folgenden Wahrscheinlichkeiten für die einzelnen Ausprägungen von X\; bekannt:

\,x_{i} 0 1 2 3 4 5
\,f(x_{i}) 0,08 0,18 0,32 0,22 0,14 0,06

Der Erwartungswert von X, d.h. die im Mittel erwartete Anzahl von Autounfällen über sehr viele Wochen, ergibt sich mittels folgender Berechnungen:

\,x_{i} 0 1 2 3 4 5
\,f(x_{i}) 0,08 0,18 0,32 0,22 0,14 0,06
\,x_{i} \cdot f(x_{i}) 0 0,18 0,64 0,66 0,56 0,30

Damit ist:

E[X]=\mu =\sum x_{i}f(x_{i})=2,34

Natürlich kann eine solche Anzahl von Autounfällen nicht tatsächlich auftreten.

E[X] = 2,34 gibt jedoch an, wo die Wahrscheinlichkeitsfunktion von X ihr Zentrum hat.

Für die Ermittlung der Standardabweichung von X sind weitere Berechnung notwendig:

x_{i}^{2} 0 1 4 9 16 25
 x_{i}^{2}f(x_{i}) 0 0,18 1,28 1,98 2,24 1,50

Var(X)=\sigma ^{2}=\sum x_{i}^{2}f(x_{i})-\mu^{2}=7,18-2,34^{2}=1,7044\ \Rightarrow \sigma =1,306

Es ist somit zu erwarten, dass an der betrachteten Straßenkreuzung im Mittel pro Woche 2,34 Autounfälle mit einer Streuung von 1,306 auftreten.

Stetige Zufallsvariable

X sei eine stetige Zufallsvariable mit der Dichtefunktion

f(x)=\begin{cases}
0,25x-0,5 & \mbox{, wenn } 2<x\leq 4 \\
-0,25x+1,5  & \mbox{, wenn } 4<x\leq 6 \\
 0 & \mbox{, sonst}\end{cases}.

Für den Erwartungswert von X ergibt sich:

 E[X] = \mu \, = \int_{- \infty}^{\infty} x\cdot f(x)\, dx
\, =  \int_2^4 x\cdot (0,25 x - 0,5)\, dx + \int_4^6 x\cdot (-0,25 x +1,5)\, dx
\, =  \int_2^4 (0,25 x^2 - 0,5 x)\, dx + \int_4^6 (-0,25 x^2 + 1,5 x)\, dx
 \,=  \left[ 0,25 \frac{1}{3} x^3 - 0,5 \frac{1}{2} x^2 \right]_2^4 + \left[-0,25 \frac{1}{3} x^3 + 1,5 \frac{1}{2} x^2 \right]_4^6
\, = \, 4

Die Varianz berechnet sich als:

 Var(X) = \sigma^2  = \int_{- \infty}^{\infty} x^2\cdot f(x)\, dx - (E[X])^2
 = \int_2^4 x^2\cdot (0,25 x - 0,5)\, dx + \int_4^6 x^2\cdot (-0,25 x +1,5)\, dx - 4^2
 = \int_2^4 (0,25 x^3 - 0,5 x^2)\, dx + \int_4^6 (-0,25 x^3 + 1,5 x^2)\,dx - 4^2
 = \left[0,25 \frac{1}{4} x^4 - 0,5 \frac{1}{3} x^3\right]_2^4 + \left[-0,25 \frac{1}{4} x^4 + 1,5 \frac{1}{3} x^3\right]_4^6 - 16
\, = 0,6667.

Die Standardabweichung \sigma ist demzufolge 0,8165.

Für die stetige Zufallsvariable X mit der oben gegebenen Dichtefunktion ist somit im Mittel ein Wert von 4 bei einer Streuung von 0,8165 zu erwarten.