Regressionsanalyse: Unterschied zwischen den Versionen

Aus MM*Stat

Wechseln zu: Navigation, Suche
(Lineare und quadratische Funktion)
 
Zeile 1: Zeile 1:
 
{{Regression}}
 
{{Regression}}
 +
{{SubpageToc|Beispiel: Quadratische Regression|Interaktives Beispiel: Kriminalitätsraten}}
  
 
=={{Vorlage:Überschrift}}==
 
=={{Vorlage:Überschrift}}==
Zeile 73: Zeile 74:
  
 
<iframe k="wiwi" p="examples/stat_LineareRegression_Lineare_Regression_R00480004800000000000000_plot.html" />
 
<iframe k="wiwi" p="examples/stat_LineareRegression_Lineare_Regression_R00480004800000000000000_plot.html" />
 
===Lineare und quadratische Funktion===
 
 
<math>n= 8</math> vergleichbare Städte
 
 
<math>X\;</math> - Anzahl der Bus-Streckenpläne, die am Beginn des Untersuchungszeitraumes kostenlos an die Einwohner verteilt wurden
 
 
<math>Y\;</math> - Zuwachs an Fahrgästen während des Untersuchungszeitraumes
 
 
{| border="1" cellpadding="3" style="text-align:center;margin:1em 1em 1em 0; background:#f9f9f9; border:1px #AAA solid; border-collapse:collapse; empty-cells:show;"
 
|align="center"|Stadt <math>i</math>
 
|align="center"|Fahrgastzuwachs <math>Y\;</math>
 
(in 1000)
 
|align="center"|Streckenpläne <math>X\;</math>
 
(in 1000)
 
|- align="right"
 
|1
 
|0,60
 
|80
 
|-  align="right"
 
|2
 
|6,70
 
|220
 
|-  align="right"
 
|3
 
|5,30
 
|140
 
|-  align="right"
 
|4
 
|4,00
 
|120
 
|-  align="right"
 
|5
 
|6,55
 
|180
 
|-  align="right"
 
|6
 
|2,15
 
|100
 
|-  align="right"
 
|7
 
|6,60
 
|200
 
|-  align="right"
 
|8
 
|5,75
 
|160
 
|}
 
 
====Lineare Regressionsfunktion====
 
 
<math>{\widehat{y_{i}}}={\widehat{b_{0}}}+{\widehat{b_{1}}}\cdot x_{i}=-1,82+0,0435\cdot x_{i}</math>
 
 
<math>{R_{yx}}^{2}=0,875</math>
 
 
<iframe k="wiwi" p="examples/stat_LineareRegression_Lineare_Regression_residuen_R00480004800000000000000_plot.html" />
 
 
Die [[Residuum|Residuen]] streuen nicht zufällig um den Wert Null, sondern zeigen eine deutliche nichtlineare Tendenz. Das führt zu der Überlegung, statt einer linearen eine nichtlineare [[Regressionsfunktion]] zu verwenden.
 
 
====Quadratische Regressionsfunktion====
 
 
<math>{\widehat{y_{i}}}={\widehat{b_{0}}}+{\widehat{b_{1}}}\cdot x_{i}+{\widehat{b_{2}}\cdot x_{i}}^{2}=-10,03+0,1642\cdot x_{i}-0,0004\cdot {x_{i}}^{2}</math>
 
 
<math>{R_{yx}}^{2}=0,995</math>
 
 
<iframe k="wiwi" p="examples/stat_LineareRegression_Lineare_Regression_nichtlinear_residuen_R00480004800000000000000_plot.html" />
 

Aktuelle Version vom 5. Juli 2020, 17:04 Uhr

Regression

Regressionsanalyse • Lineares Regressionsmodell • Schätzung der Regressionsparameter • Güte der Regression • Multiple Choice • Video • Aufgaben • Lösungen
Abhängige Variable • Bestimmtheit der Regression • Bestimmtheitsmaß • Einfache lineare Regressionsfunktion • Endogene Variable • Erklärende Variable • Erklärte Variable • Exogene Variable • Linearer Regressionskoeffizient • Methode der kleinsten Quadrate (Regression) • Multiple lineare Regression • Regressand • Regressionsfunktion • Regressionsgerade • Regressionskonstante • Regressionsparameter • Regressor • Regresswert • Residuum • Restgröße • Unabhängige Variable

Grundbegriffe

Regressionsanalyse

Das Ziel der Regressionsanalyse besteht in einer Beschreibung der mittleren Tendenz bzw. des durchschnittlichen Verlaufs der Abhängigkeit eines metrisch skalierten Merkmals Y\; von ebenfalls metrisch skalierten Merkmalen X_{1},X_{2},\ldots.

Es liegt eine einseitig gerichtete Abhängigkeit vor. Diese Abhängigkeit lässt sich in Form einer allgemeinen Regressionsfunktion wie folgt darstellen:

\hat{y}=f(x_{1},x_{2},\ldots )

Das verwendete \hat{y} bedeutet hierbei, dass die Regressionsfunktion den Beobachtungswerten x_{1},x_{2},\ldots nicht den wahren Beobachtungswert y zuordnet, sondern einen auf der Regressionsfunktion liegenden durchschnittlichen Wert \hat{y}.

Regressionsfunktion

Eine Regressionsfunktion ist die Darstellung der mittleren statistischen Abhängigkeit einer endogenen Variablen von einer (oder mehreren) exogenen Variablen mittels einer Funktion auf der Basis von n Beobachtungsdaten der Variablen.

Im Weiteren werden die Ausführungen auf den Fall beschränkt, dass das Merkmal Y\; nur von einem Merkmal X\; abhängt.

Die Festlegung des Typs der Regressionsfunktion f(x) erfolgt problemabhängig durch den Anwender.

Mögliche Funktionen sind beispielsweise:

Lineare Funktion: \hat{y}=b_{0}+b_{1}\cdot x
Quadratische Funktion: \hat{y}=b_{0}+b_{1}\cdot x+b_{2}\cdot x^{2}
Potenzfunktion: \hat{y}=a\cdot x^{b}
Exponentialfunktion: \hat{y}=b_{0}\cdot {b_{1}}^{x}
Logistische Funktion: \hat{y}= l\cdot (1+e^{a+b\cdot x})

Regressor, exogene, erklärende oder unabhängige Variable

Die Merkmale X_1,X_2,\ldots werden als Regressor, exogene, erklärende oder unabhängige Variable bezeichnet.

Regressand, endogene, erklärte oder abhängige Variable

Das Merkmal Y\; wird als Regressand, endogene, erklärte oder abhängige Variable bezeichnet.

Regresswert

Der Regresswert \hat{y_{i}} stellt den Wert des Merkmals Y\; dar, wenn die Abhängigkeit Y\; von X\; tatsächlich durch eine lineare Funktion repräsentiert werden kann.

Der Beobachtungswert ergibt sich zu:

y_{i}=\hat{y_{i}}+\hat{u_{i}}\quad i=1,\ldots ,n

Restgröße bzw. Residuum

Die Differenz zwischen dem wahren Wert y_{i} und dem Wert der Regressionsfunktion \hat{y_{i}} wird als Restgröße oder Residuum \hat{u_{i}} bezeichnet.

Sie enthält diejenigen Einflüsse, die nicht durch die Regressionsfunktion erfasst werden, d.h. diese Abweichung kann nicht durch die Einflüsse der exogenen Variablen erklärt werden.

\hat{u_{i}}=y_{i}-\hat{y_{i}} \quad (i=1,\ldots ,n)

Beispiele

Regressand und Regressor

Beispiel für eine lineares Regressionsmodell mit der Arbeitszeit als Regressand und der Losgröße als Regressor: