Regressionsanalyse

Aus MM*Stat

Version vom 14. Mai 2018, 21:50 Uhr von Germainf (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „{{Regression}} =={{Vorlage:Überschrift}}== ===Regressionsanalyse=== Das Ziel der ''Regressionsanalyse'' besteht in einer Beschreibung der mittleren Tendenz…“)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Wechseln zu: Navigation, Suche
Die druckbare Version wird nicht mehr unterstützt und kann Darstellungsfehler aufweisen. Bitte aktualisieren Sie Ihre Browser-Lesezeichen und verwenden Sie stattdessen die Standard-Druckfunktion des Browsers.

Regression

Regressionsanalyse • Lineares Regressionsmodell • Schätzung der Regressionsparameter • Güte der Regression • Multiple Choice • Video • Aufgaben • Lösungen
Abhängige Variable • Bestimmtheit der Regression • Bestimmtheitsmaß • Einfache lineare Regressionsfunktion • Endogene Variable • Erklärende Variable • Erklärte Variable • Exogene Variable • Linearer Regressionskoeffizient • Methode der kleinsten Quadrate (Regression) • Multiple lineare Regression • Regressand • Regressionsfunktion • Regressionsgerade • Regressionskonstante • Regressionsparameter • Regressor • Regresswert • Residuum • Restgröße • Unabhängige Variable

Grundbegriffe

Regressionsanalyse

Das Ziel der Regressionsanalyse besteht in einer Beschreibung der mittleren Tendenz bzw. des durchschnittlichen Verlaufs der Abhängigkeit eines metrisch skalierten Merkmals von ebenfalls metrisch skalierten Merkmalen .

Es liegt eine einseitig gerichtete Abhängigkeit vor. Diese Abhängigkeit lässt sich in Form einer allgemeinen Regressionsfunktion wie folgt darstellen:

Das verwendete bedeutet hierbei, dass die Regressionsfunktion den Beobachtungswerten nicht den wahren Beobachtungswert zuordnet, sondern einen auf der Regressionsfunktion liegenden durchschnittlichen Wert .

Regressionsfunktion

Eine Regressionsfunktion ist die Darstellung der mittleren statistischen Abhängigkeit einer endogenen Variablen von einer (oder mehreren) exogenen Variablen mittels einer Funktion auf der Basis von Beobachtungsdaten der Variablen.

Im Weiteren werden die Ausführungen auf den Fall beschränkt, dass das Merkmal nur von einem Merkmal abhängt.

Die Festlegung des Typs der Regressionsfunktion erfolgt problemabhängig durch den Anwender.

Mögliche Funktionen sind beispielsweise:

Lineare Funktion:
Quadratische Funktion:
Potenzfunktion:
Exponentialfunktion:
Logistische Funktion:

Regressor, exogene, erklärende oder unabhängige Variable

Die Merkmale werden als Regressor, exogene, erklärende oder unabhängige Variable bezeichnet.

Regressand, endogene, erklärte oder abhängige Variable

Das Merkmal wird als Regressand, endogene, erklärte oder abhängige Variable bezeichnet.

Regresswert

Der Regresswert stellt den Wert des Merkmals dar, wenn die Abhängigkeit von tatsächlich durch eine lineare Funktion repräsentiert werden kann.

Der Beobachtungswert ergibt sich zu:

Restgröße bzw. Residuum

Die Differenz zwischen dem wahren Wert und dem Wert der Regressionsfunktion wird als Restgröße oder Residuum bezeichnet.

Sie enthält diejenigen Einflüsse, die nicht durch die Regressionsfunktion erfasst werden, d.h. diese Abweichung kann nicht durch die Einflüsse der exogenen Variablen erklärt werden.

Beispiele

Regressand und Regressor

Beispiel für eine lineares Regressionsmodell mit der Arbeitszeit als Regressand und der Losgröße als Regressor:

<R output="display">

pdf(rpdf, width=7, height=7)

x = c(30,20,60,80,40,50,60,30,70,60) y = c(73,50,128,170,87,108,135,69,148,132) model = lm(y~x) plot(x, y, xlab=paste("Losgr", "\u00F6", "\u00DF", "e", sep=""), ylab="Arbeitszeit", pch=8, yaxt="n", main="Lineare Regression") axis(2, at=c(50,100,150)) abline(10, 2, col="green", lwd=2)

</R>

Lineare und quadratische Funktion

vergleichbare Städte

- Anzahl der Bus-Streckenpläne, die am Beginn des Untersuchungszeitraumes kostenlos an die Einwohner verteilt wurden

- Zuwachs an Fahrgästen während des Untersuchungszeitraumes

Stadt Fahrgastzuwachs

(in 1000)

Streckenpläne

(in 1000)

1 0,60 80
2 6,70 220
3 5,30 140
4 4,00 120
5 6,55 180
6 2,15 100
7 6,60 200
8 5,75 160

Lineare Regressionsfunktion

<R output="display">

pdf(rpdf, width=14, height=7)

x = c(80, 220, 140, 120, 180, 100, 200, 160) y = c(0.6, 6.7, 5.3, 4.0, 6.55, 2.15, 6.6, 5.75)

model = lm(y~x)

par(mfrow=c(1,2))

plot(x, y, xlab=paste("Streckenpl", "\u00E4", "ne (in 1000)", sep=""), ylab=paste("Zuwachs an Fahrg", "\u00E4", "sten (in 1000)", sep=""), pch=8, yaxt="n", xaxt="n", ylim=c(0,8), main="Lineare Regression") axis(1, at=c(100,150,200)) axis(2, at=c(0,2,4,6,8)) abline(-1.816071, 0.043482, col="green", lwd=2)

plot(x, model$resid, xlab=paste("Streckenpl", "\u00E4", "ne (in 1000)", sep=""), ylab="Residuen", xaxt="n", yaxt="n", main="Plot der Residuen", pch=8) axis(1, at=c(100,150,200)) axis(2, at=seq(-1,1,by=0.5)) abline(0, 0, col="green", lwd=2)

</R>

Die Residuen streuen nicht zufällig um den Wert Null, sondern zeigen eine deutliche nichtlineare Tendenz. Das führt zu der Überlegung, statt einer linearen eine nichtlineare Regressionsfunktion zu verwenden.

Quadratische Regressionsfunktion

<R output="display">

pdf(rpdf, width=14, height=7)

x = c(80, 220, 140, 120, 180, 100, 200, 160) w = x^2 y = c(0.6, 6.7, 5.3, 4.0, 6.55, 2.15, 6.6, 5.75)

model = lm(y~x+w)

fun = function(x) { -10.03 + 0.1642*x - 0.0004*x^2 }

par(mfrow=c(1,2))

plot(x, y, xlab=paste("Streckenpl", "\u00E4", "ne (in 1000)", sep=""), ylab=paste("Zuwachs an Fahrg", "\u00E4", "sten (in 1000)", sep=""), pch=8, yaxt="n", xaxt="n", ylim=c(0,8), main="Quadratische Regression") axis(1, at=c(100,150,200)) axis(2, at=c(0,2,4,6,8)) s = seq(50,250,by=0.01) points(s, fun(s), type="l", col="green", lwd=2)

plot(x, model$resid, xlab=paste("Streckenpl", "\u00E4", "ne (in 1000)", sep=""), ylab="Residuen", xaxt="n", yaxt="n", main="Plot der Residuen", ylim=c(-1,1), pch=8) axis(1, at=c(100,150,200)) axis(2, at=seq(-1,1,by=0.5)) abline(0, 0, col="green", lwd=2)

</R>