Regressionsanalyse
Aus MM*Stat
Grundbegriffe
Regressionsanalyse
Das Ziel der Regressionsanalyse besteht in einer Beschreibung der mittleren Tendenz bzw. des durchschnittlichen Verlaufs der Abhängigkeit eines metrisch skalierten Merkmals von ebenfalls metrisch skalierten Merkmalen .
Es liegt eine einseitig gerichtete Abhängigkeit vor. Diese Abhängigkeit lässt sich in Form einer allgemeinen Regressionsfunktion wie folgt darstellen:
Das verwendete bedeutet hierbei, dass die Regressionsfunktion den Beobachtungswerten nicht den wahren Beobachtungswert zuordnet, sondern einen auf der Regressionsfunktion liegenden durchschnittlichen Wert .
Regressionsfunktion
Eine Regressionsfunktion ist die Darstellung der mittleren statistischen Abhängigkeit einer endogenen Variablen von einer (oder mehreren) exogenen Variablen mittels einer Funktion auf der Basis von Beobachtungsdaten der Variablen.
Im Weiteren werden die Ausführungen auf den Fall beschränkt, dass das Merkmal nur von einem Merkmal abhängt.
Die Festlegung des Typs der Regressionsfunktion erfolgt problemabhängig durch den Anwender.
Mögliche Funktionen sind beispielsweise:
Lineare Funktion: | |
Quadratische Funktion: | |
Potenzfunktion: | |
Exponentialfunktion: | |
Logistische Funktion: |
Regressor, exogene, erklärende oder unabhängige Variable
Die Merkmale werden als Regressor, exogene, erklärende oder unabhängige Variable bezeichnet.
Regressand, endogene, erklärte oder abhängige Variable
Das Merkmal wird als Regressand, endogene, erklärte oder abhängige Variable bezeichnet.
Regresswert
Der Regresswert stellt den Wert des Merkmals dar, wenn die Abhängigkeit von tatsächlich durch eine lineare Funktion repräsentiert werden kann.
Der Beobachtungswert ergibt sich zu:
Restgröße bzw. Residuum
Die Differenz zwischen dem wahren Wert und dem Wert der Regressionsfunktion wird als Restgröße oder Residuum bezeichnet.
Sie enthält diejenigen Einflüsse, die nicht durch die Regressionsfunktion erfasst werden, d.h. diese Abweichung kann nicht durch die Einflüsse der exogenen Variablen erklärt werden.
Beispiele
Regressand und Regressor
Beispiel für eine lineares Regressionsmodell mit der Arbeitszeit als Regressand und der Losgröße als Regressor:
<R output="display">
pdf(rpdf, width=7, height=7) x = c(30,20,60,80,40,50,60,30,70,60) y = c(73,50,128,170,87,108,135,69,148,132) model = lm(y~x) plot(x, y, xlab=paste("Losgr", "\u00F6", "\u00DF", "e", sep=""), ylab="Arbeitszeit", pch=8, yaxt="n", main="Lineare Regression") axis(2, at=c(50,100,150)) abline(10, 2, col="green", lwd=2) </R> |
Lineare und quadratische Funktion
vergleichbare Städte
- Anzahl der Bus-Streckenpläne, die am Beginn des Untersuchungszeitraumes kostenlos an die Einwohner verteilt wurden
- Zuwachs an Fahrgästen während des Untersuchungszeitraumes
Stadt | Fahrgastzuwachs
(in 1000) |
Streckenpläne
(in 1000) |
1 | 0,60 | 80 |
2 | 6,70 | 220 |
3 | 5,30 | 140 |
4 | 4,00 | 120 |
5 | 6,55 | 180 |
6 | 2,15 | 100 |
7 | 6,60 | 200 |
8 | 5,75 | 160 |
Lineare Regressionsfunktion
<R output="display">
pdf(rpdf, width=14, height=7) x = c(80, 220, 140, 120, 180, 100, 200, 160) y = c(0.6, 6.7, 5.3, 4.0, 6.55, 2.15, 6.6, 5.75) model = lm(y~x) par(mfrow=c(1,2)) plot(x, y, xlab=paste("Streckenpl", "\u00E4", "ne (in 1000)", sep=""), ylab=paste("Zuwachs an Fahrg", "\u00E4", "sten (in 1000)", sep=""), pch=8, yaxt="n", xaxt="n", ylim=c(0,8), main="Lineare Regression") axis(1, at=c(100,150,200)) axis(2, at=c(0,2,4,6,8)) abline(-1.816071, 0.043482, col="green", lwd=2) plot(x, model$resid, xlab=paste("Streckenpl", "\u00E4", "ne (in 1000)", sep=""), ylab="Residuen", xaxt="n", yaxt="n", main="Plot der Residuen", pch=8) axis(1, at=c(100,150,200)) axis(2, at=seq(-1,1,by=0.5)) abline(0, 0, col="green", lwd=2) </R> |
Die Residuen streuen nicht zufällig um den Wert Null, sondern zeigen eine deutliche nichtlineare Tendenz. Das führt zu der Überlegung, statt einer linearen eine nichtlineare Regressionsfunktion zu verwenden.
Quadratische Regressionsfunktion
<R output="display">
pdf(rpdf, width=14, height=7) x = c(80, 220, 140, 120, 180, 100, 200, 160) w = x^2 y = c(0.6, 6.7, 5.3, 4.0, 6.55, 2.15, 6.6, 5.75) model = lm(y~x+w) fun = function(x) { -10.03 + 0.1642*x - 0.0004*x^2 } par(mfrow=c(1,2)) plot(x, y, xlab=paste("Streckenpl", "\u00E4", "ne (in 1000)", sep=""), ylab=paste("Zuwachs an Fahrg", "\u00E4", "sten (in 1000)", sep=""), pch=8, yaxt="n", xaxt="n", ylim=c(0,8), main="Quadratische Regression") axis(1, at=c(100,150,200)) axis(2, at=c(0,2,4,6,8)) s = seq(50,250,by=0.01) points(s, fun(s), type="l", col="green", lwd=2) plot(x, model$resid, xlab=paste("Streckenpl", "\u00E4", "ne (in 1000)", sep=""), ylab="Residuen", xaxt="n", yaxt="n", main="Plot der Residuen", ylim=c(-1,1), pch=8) axis(1, at=c(100,150,200)) axis(2, at=seq(-1,1,by=0.5)) abline(0, 0, col="green", lwd=2) </R> |