Parameter eindimensionaler Verteilungen (stochastisch): Unterschied zwischen den Versionen

Aus MM*Stat

Wechseln zu: Navigation, Suche
(Erwartungswert)
 
Zeile 1: Zeile 1:
 +
{{Zufallsvariable}}
 +
{{SubpageToc|Beispiel: Autounfälle|Beispiel: Stetige Zufallsvariable}}
 +
 
=={{Vorlage:Überschrift}}==
 
=={{Vorlage:Überschrift}}==
{{SubpageToc|Beispiel: Autounfälle|Beispiel: Stetige Zufallsvariable}}
+
 
 
===Erwartungswert===
 
===Erwartungswert===
  

Aktuelle Version vom 7. April 2019, 17:03 Uhr

Zufallsvariable

Zufallsvariable • Wahrscheinlichkeitsfunktion • Wahrscheinlichkeitsdichtefunktion • Verteilungsfunktion (stochastisch) • Randverteilung (stochastisch) • Bedingte Verteilung (stochastisch) • Stochastische Unabhängigkeit • Parameter eindimensionaler Verteilungen (stochastisch) • Parameter zweidimensionaler Verteilungen (stochastisch) • Multiple Choice • Video • Aufgaben • Lösungen
Bedingte Dichtefunktion • Bedingte Verteilungsfunktion • Bedingte Wahrscheinlichkeitsfunktion • Dichtefunktion (eindimensional) • Dichtefunktion (zweidimensional) • Diskrete Zufallsvariable • Erwartungswert • Erwartungswert (diskret) • Erwartungswert (stetig) • Korrelationskoeffizient (stochastisch) • Kovarianz (stochastisch) • Marginaldichte • Marginale Verteilung (stochastisch) • Randdichte • Randverteilungsfunktion • Realisation • Standardabweichung (stochastisch) • Standardisierung • Stetige Zufallsvariable • Tschebyschev-Ungleichung • Unabhängigkeit (stochastisch) • Varianz (stochastisch) • Varianz (stochastisch, diskret) • Varianz (stochastisch, stetig) • Verteilungsfunktion (stochastisch, eindimensional) • Verteilungsfunktion (stochastisch, zweidimensional) • Verteilungsfunktion der Randverteilung • Wahrscheinlichkeitsdichte (eindimensional) • Wahrscheinlichkeitsdichte (zweidimensional) • Wahrscheinlichkeitsfunktion (eindimensional) • Wahrscheinlichkeitsfunktion (zweidimensional) • Verteilung (stochastisch) • Wahrscheinlichkeitsverteilung

Grundbegriffe

Erwartungswert

Der Erwartungswert einer Zufallsvariablen X, symbolisiert mit E[X] oder \mu, ist das stochastische Pendant zum arithmetischen Mittel einer empirischen Häufigkeitsverteilung.

Er ist derjenige Wert der Zufallsvariablen, dessen Eintreffen vor der Durchführung des Zufallsexperimentes im Mittel zu erwarten ist.

Wenn das Zufallsexperiment sehr oft wiederholt wird, ist E[X] der Wert, der bei einer großen Zahl von x-Werten als Durchschnitt zu "erwarten" ist.

Erwartungswert einer diskreten Zufallsvariable

Sei X eine diskrete Zufallsvariable mit den Realisationen x_{i} und der zugehörigen Wahrscheinlichkeitsfunktion f(x_{i}).

Dann ist der Erwartungswert der Zufallsvariablen X bzw. der Verteilung von X gegeben durch

\, E[X]=\mu =\sum\nolimits_{i}x_{i}\cdot f(x_{i})

Seien X und Y zwei diskrete Zufallsvariablen mit den Realisationen x_{i},y_{j} und der zugehörigen zweidimensionalen Wahrscheinlichkeitsfunktion f(x_i,y_j).

Dann sind die Erwartungswerte der Randverteilungen von X und Y gegeben durch

E[X]=\sum\nolimits_{i} \sum\nolimits_{j} x_i \cdot f(x_i,y_j) = \sum\nolimits_{i} x_i \cdot \sum\nolimits_{j} f(x_i,y_j) =\sum\nolimits_{i} x_i\cdot f(x_i)

E[Y] = \sum\nolimits_{j} \sum\nolimits_{i} y_j \cdot f(x_i,y_j) = \sum\nolimits_{j} y_j \cdot \sum\nolimits_{i} f(x_i,y_j) =\sum\nolimits_{j} y_j \cdot f(y_j)

Seien X und Y zwei diskrete Zufallsvariablen mit den Realisationen x_{i},y_{j} und den zugehörigen bedingten Verteilungen f(x_i|y_j) und f(y_j|x_i).

Dann sind die Erwartungswerte der bedingten Verteilungen von X und Y gegeben durch

E[X|y_j] = \sum\nolimits_{i} x_i\cdot f(x_i|y_j)

E[Y|x_i] = \sum\nolimits_{j} y_j\cdot f(y_j|x_i)

Erwartungswert einer stetigen Zufallsvariable

Sei X eine stetige Zufallsvariable mit den Realisationen x und der zugehörigen Dichtefunktion f(x).

Dann ist der Erwartungswert der Zufallsvariablen X bzw. der Verteilung von X gegeben durch

E[X]=\mu =\int\nolimits_{-\infty }^{+\infty }x\cdot f(x)\,dx

Seien X und Y zwei stetige Zufallsvariablen mit den Realisationen x,y und der zugehörigen zweidimensionalen Dichtefunktion f(x,y).

Dann sind die Erwartungswerte der Randverteilungen von X und Y gegeben durch

E[X] = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} x\cdot f(x,y) \, dx\, dy= \int_{-\infty}^{+\infty} x \left( \int_{-\infty}^{+\infty} f(x,y) \, dy \right) \,dx=\int_{-\infty}^{+\infty} x\cdot f(x)\,dx

E[Y] = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} y\cdot f(x,y) \, dx \,dy = \int_{-\infty}^{+\infty} y \left( \int_{-\infty}^{+\infty} f(x,y) \, dx\right) \, dy = \int_{-\infty}^{+\infty} y\cdot f(y) \, dy

Seien X und Y zwei stetige Zufallsvariablen mit den Realisationen x,y und den zugehörigen bedingten Verteilungen f(x|y) und f(y|x).

Dann sind die Erwartungswerte der bedingten Verteilungen von X und Y gegeben durch

E[X|y] = \int_{-\infty}^{+\infty} x\cdot f(x|y) \, dx \,

E[Y|x] =\int_{-\infty}^{+\infty} y\cdot f(y|x) \, dx

Varianz

Die Varianz, symbolisiert mit Var(X) oder \sigma^{2}, ist im allgemeinen als Erwartungswert der quadrierten Abweichungen der Zufallsvariablen von ihrem Erwartungswert definiert:

\begin{align} Var(X) = &
= E\left[(X-E[X])^2\right] \\&
= E\left[X^2 - 2 \cdot X \cdot E[X] + E[X]^2\right]\\  & 
= E \left[ X^2 \right] - E \left[ 2\cdot X\cdot E[X] \right] + E \left[ E[X]^2 \right]\\&
= E\left[X^2\right] - 2 \cdot E[X] \cdot E[X] + E[X]^2\\&
= E\left[X^2\right] - E\left[X\right]^2.\end{align}

Varianz einer diskreten Zufallsvariable

Sei X eine diskrete Zufallsvariable mit den Realisationen x_{i} und der zugehörigen Wahrscheinlichkeitsfunktion f(x_{i}).

Dann ist die Varianz der Zufallsvariablen X bzw. der Verteilung von X gegeben durch

 Var(X)=\sigma ^{2}=\sum\nolimits_{i}(x_{i}-E[X])^{2}\cdot f(x_{i})=\sum\nolimits_{i}x_{i}^{2}\cdot f(x_{i})-(E[X])^{2}

Seien X und Y zwei diskrete Zufallsvariablen mit den Realisationen x_{i},y_{j} und der zugehörigen zweidimensionalen Wahrscheinlichkeitsfunktion f(x_i,y_j).

Dann sind die Varianzen der Randverteilungen von X und Y gegeben durch

Var (X) = E[(X - E[X])^2] = \sum\nolimits_i \sum\nolimits_j (x_i - E[X])^2\cdot f(x_i, y_j) =\sum\nolimits_i (x_i - E[X])^2\cdot \sum\nolimits_j f(x_i,y_j) = \sum\nolimits_i (x_i - E[X])^2\cdot f(x_i) = \sum\nolimits_i x_i^2\cdot f(x_i) - (E[X])^2

Var (Y) = E[(Y - E[Y])^2] = \sum\nolimits_j \sum\nolimits_i (y_j - E[Y])^2\cdot f(x_i, y_j) =\sum\nolimits_j (y_j - E[Y])^2\cdot \sum\nolimits_i f(x_i,y_j)= \sum\nolimits_j (y_j - E[Y])^2\cdot f(y_j) = \sum\nolimits_j y_j^2\cdot f(y_j) - (E[Y])^2

Seien X und Y zwei diskrete Zufallsvariablen mit den Realisationen x_{i},y_{j} und den zugehörigen bedingten Verteilungen f(x_i|y_j) und f(y_j|x_i).

Dann sind die Varianzen der bedingten Verteilungen von X und Y gegeben durch

Var(X|y_j) = \sum\nolimits_i (x_i - E[X|y_j])^2\cdot f(x_i|y_j) = \sum\nolimits_i x_i^2\cdot f(x_i|y_j)- (E[X|y_j])^2

Var(Y|x_i) = \sum\nolimits_j (y_j - E[Y|x_i])^2\cdot f(y_j|x_i) = \sum\nolimits_j y_j^2\cdot f(y_j|x_i)- (E[Y|x_i])^2

Varianz einer stetigen Zufallsvariable

Sei X eine stetige Zufallsvariable mit den Realisationen x und der zugehörigen Dichtefunktion f(x).

Dann ist die Varianz der Zufallsvariablen X bzw. der Verteilung von X gegeben durch

 Var(X)=\sigma ^{2}=\int\nolimits_{-\infty }^{+\infty }(x-E[X])^{2}\cdot f(x)\,dx=\int\nolimits_{-\infty }^{+\infty }x^{2}\cdot f(x)\,dx-(E[X])^{2}

Seien X und Y zwei stetige Zufallsvariablen mit den Realisationen x,y und der zugehörigen zweidimensionalen Dichtefunktion f(x,y).

Dann sind die Varianzen der Randverteilungen von X und Y gegeben durch

Var (X) = \int_{-\infty}^{+\infty} (x - E[X])^2 \cdot f(x) \, dx =\int_{-\infty}^{+\infty} x^2\cdot f(x) \, dx - (E[X])^2

Var (Y) = \int_{-\infty}^{+\infty} (y - E[Y])^2 \cdot f(y) \, dy =\int_{-\infty}^{+\infty} y^2\cdot f(y) \, dy - (E[Y])^2

Seien X und Y zwei stetige Zufallsvariablen mit den Realisationen x,y und den zugehörigen bedingten Verteilungen f(x|y) und f(y|x).

Dann sind die Varianzen der bedingten Verteilungen von X und Y gegeben durch

Var(X|y) = \int_{-\infty}^{+\infty} (x - E[X|y])^2 \cdot f(x|y) \, dx

Var(Y|x) = \int_{-\infty}^{+\infty} (y - E[Y|x])^2 \cdot f(y|x) \, dy

Standardabweichung

Als Standardabweichung \sigma wird die Wurzel aus der Varianz bezeichnet, also

\sigma = \sqrt{Var(X)} = \sqrt{\sigma^2}.

Sie ist ein Parameter, der die Streuung der Wahrscheinlichkeitsverteilung von X beschreibt.

Ein großer Wert der Standardabweichung weist darauf hin, dass die Zufallsvariable X Werte in einem großen Bereich um den Erwartungswert annehmen kann.

Ein kleiner Wert der Standardabweichung bedeutet, dass die Werte von X hauptsächlich nahe am Erwartungswert liegen.

Standardisierung

Vielfach erweist sich eine Transformation, durch die sowohl eine Zentrierung als auch eine Normierung erreicht wird, als günstig.

Eine derart standardisierte Zufallsvariable Z ist definiert durch

Z=\frac{X-E[X]}{\sigma_{X}}

Sie hat den Erwartungswert E[Z]=0 und die Varianz Var(Z)=1.

Tschebyschev-Ungleichung

Die Tschebyschev-Ungleichung gibt eine Abschätzung für die Wahrscheinlichkeit an, dass die Zufallsvariable X einen Wert innerhalb bzw. außerhalb eines zentralen Bereiches um den Erwartungswert annimmt.

Dafür ist nur die Kenntnis des Erwartungswertes und der Varianz von X, jedoch nicht die Kenntnis der Verteilung von X erforderlich.

Ausgegangen wird von einem zentralen Schwankungsintervall um \mu:

[\mu -k\cdot\sigma ;\mu +k\cdot \sigma ]

Definition:

Für eine Zufallsvariable X mit Erwartungswert \mu und Varianz \sigma^2 gilt bei beliebigem k>0

P(\mu - k \cdot \sigma \leq X \leq \mu + k \cdot \sigma) \geq 1 - \frac{1}{k^2}

Für k \cdot \sigma = a, folgt

P(\mu - a \leq X \leq \mu + a) \geq 1 - \frac{\sigma^2}{k^2}

Für das Komplementärereignis, dass die Zufallsvariable X einen Wert außerhalb des k-fachen zentralen Schwankungsintervalls \{|X-\mu |>k\cdot \sigma \} annimmt, gilt gemäß den Regeln der Wahrscheinlichkeitsrechnung:

P(|X-\mu |>k\cdot \sigma )<1/k^{2}

bzw. für k\cdot \sigma =a

P(|X-\mu |>a)\leq \sigma ^{2}/a^{2}\mbox{.}

Die tatsächlichen Wahrscheinlichkeiten der Ereignisse \{|X-\mu |>k\cdot \sigma \} und \{|X-\mu |\leq k\cdot \sigma \} hängen von der konkreten Verteilung von X ab.

Zusatzinformationen

Erwartungswert von Linearkombinationen

Seien X und Y zwei Zufallsvariablen mit den Erwartungswerten E[X], E[Y] und a,b beliebig. Dann gilt

  • für \,Y = a+bX
\,E[Y] = E[a+bX] = a + bE[X]
  • für \,Z=X+Y
\,E[Z] = E[X + Y] = E[X] + E[Y]
\,E[X\cdot Y] = E[X]\cdot E[Y]

Varianz von Linearkombinationen

Seien X und Y zwei Zufallsvariablen mit den Varianzen Var(X), Var(Y) und a,b beliebige reelle Zahlen. Dann gilt:

  • für \,Y=a+bX
\,Var(Y)=Var(a+bX)=b^{2}\cdot Var(X)
\, Var(Z)=Var(X)+Var(Y)
 \sigma_{Z}=\sigma _{X+Y}=\sqrt{\sigma_{X}^{2}+\sigma _{Y}^{2}}

Linearkombinationen von Zufallsvariablen

Erwartungswerte und Varianzen von Linearkombinationen von Zufallsvariablen

\,Z \,E[Z] \,Var(Z)
a\cdot X \pm b\cdot Y a\cdot E[X]\pm b \cdot E[Y] a^2\cdot Var(X) + b^2\cdot Var(Y) \pm 2\cdot a\cdot b\cdot Cov(X,Y)
X + Y\; (a=b=1) \,E[X] + E[Y] \,Var(X) + Var(Y) + 2\cdot Cov(X,Y)
X - Y \;( a=1, \quad b= -1) \,E[X] - E[Y] \,Var(X) +Var(Y) - 2\cdot Cov(X,Y)
\frac{1}{2}\cdot (X + Y)\; ( a=b=\frac{1}{2}) \,\frac{1}{2}\cdot (E[X] + E[Y]) \,\frac{1}{4}\cdot Var(X) + \frac{1}{4}\cdot Var(Y) + \frac{1}{2}\cdot Cov(X,Y)