Chi-Quadrat-Unabhängigkeitstest: Unterschied zwischen den Versionen

Aus MM*Stat

Wechseln zu: Navigation, Suche
({{Vorlage:Überschrift_2}})
Zeile 176: Zeile 176:
 
Die [[Wahrscheinlichkeit]], dass die [[Teststatistik]] <math>V\;</math> eine [[Realisation]] aus dem [[Nichtablehnungsbereich der Nullhypothese|Nichtablehnungsbereich der]] <math>H_{0}</math> annimmt, ist <math>P(V \leq \chi_{1-\alpha;f}^{2} | H_{0})=1-\alpha</math>.
 
Die [[Wahrscheinlichkeit]], dass die [[Teststatistik]] <math>V\;</math> eine [[Realisation]] aus dem [[Nichtablehnungsbereich der Nullhypothese|Nichtablehnungsbereich der]] <math>H_{0}</math> annimmt, ist <math>P(V \leq \chi_{1-\alpha;f}^{2} | H_{0})=1-\alpha</math>.
  
{|
+
<iframe k="wiwi" p="examples/Chi-Quadrat_Chi-Quadrat-Unabh_R00480004800000000000000_plot.html" />
|<R output="display">
 
pdf(rpdf,width=7,height=7)
 
 
 
curve(from=0, to=35, dchisq(x, df=10), xaxt="n", ylab="f(v)", xlab="", col="red", ylim=c(0.0,0.12), lty=1, lwd=4, font.lab=2, "xaxs"="i" ,"yaxs"="i", bty="l")
 
abline(v=20, col="black", lwd=3, lty=1)
 
text(21, 0.003, expression(alpha), col = "black", cex=2)
 
text(9, 0.04, expression(paste("1-", alpha)), col = "black", cex=2)
 
text(20, -0.0014, , col = "black", cex=1.7)
 
axis( side=1, at=c(20, 35), labels=c(expression(paste(chi^2, ""[1-alpha], ""[";"], ""[f])), "v"), tick=FALSE, cex.axis=1.5)
 
 
 
</R>
 
|}
 
  
 
[[Nichtablehnungsbereich der Nullhypothese|Nichtablehnungsbereich der]] <math>H_{0}</math> | [[Ablehnungsbereich der Nullhypothese|Ablehnungsbereich der]] <math>H_{0}</math>
 
[[Nichtablehnungsbereich der Nullhypothese|Nichtablehnungsbereich der]] <math>H_{0}</math> | [[Ablehnungsbereich der Nullhypothese|Ablehnungsbereich der]] <math>H_{0}</math>

Version vom 29. Mai 2018, 13:39 Uhr

Testtheorie

Grundbegriffe der Testtheorie • Entscheidungsbereiche • Entscheidungssituationen • Zweiseitiger Test • Einseitiger Test • Gütefunktion • Test auf Mittelwert • Gauß-Test • Gütefunktion des Gauß-Tests • Einstichproben-t-Test • Test auf Anteilswert • Test auf Differenz zweier Mittelwerte • Zweistichproben-Gauß-Test • Zweistichproben-t-Test • Chi-Quadrat-Anpassungstest • Chi-Quadrat-Unabhängigkeitstest • Multiple Choice • Video • Aufgaben • Lösungen
Ablehnungsbereich der Nullhypothese • alpha-Fehler • Alternativhypothese • Anpassungstest • beta-Fehler • Entscheidungsbereiche (Chi-Quadrat-Anpassungstest) • Entscheidungsbereiche (Chi-Quadrat-Unabhängigkeitstest) • Entscheidungsbereiche (Einstichproben-t-Test) • Entscheidungsbereiche (Gauß-Test) • Entscheidungsbereiche (Test auf Anteilswert) • Entscheidungsbereiche (Zweistichproben-Gauß-Test) • Entscheidungsbereiche (Zweistichproben-t-Test) • Entscheidungssituationen (Chi-Quadrat-Anpassungstest) • Entscheidungssituationen (Chi-Quadrat-Unabhängigkeitstest) • Entscheidungssituationen (Einstichproben-t-Test) • Entscheidungssituationen (Gauß-Test) • Entscheidungssituationen (Test auf Anteilswert) • Entscheidungssituationen (Zweistichproben-Gauß-Test) • Entscheidungssituationen (Zweistichproben-t-Test) • Fehler 1. Art • Fehler 2. Art • Goodness-of-fit-Test • Gütefunktion des Tests auf Anteilswert • Hypothese • Kritischer Wert • Linksseitiger Test • Macht eines Tests • Nichtablehnungsbereich der Nullhypothese • Nullhypothese • OC-Kurve • Operationscharakteristik • Parametertest • Prüfgröße • Prüfwert • Prüfwert (Chi-Quadrat-Anpassungstest) • Prüfwert (Chi-Quadrat-Unabhängigkeitstest) • Prüfwert (Einstichproben-t-Test) • Prüfwert (Gauß-Test) • Prüfwert (Test auf Anteilswert) • Prüfwert (Zweistichproben-Gauß-Test) • Prüfwert (Zweistichproben-t-Test) • Rechtsseitiger Test • Signifikanzniveau • Statistischer Test • Testgröße • Teststatistik • Teststatistik (Chi-Quadrat-Anpassungstest) • Teststatistik (Chi-Quadrat-Unabhängigkeitstest) • Teststatistik (Einstichproben-t-Test) • Teststatistik (Gauß-Test) • Teststatistik (Test auf Anteilswert) • Teststatistik (Zweistichproben-Gauß-Test) • Teststatistik (Zweistichproben-t-Test) • Verteilungstest • Zweistichprobentest

Grundbegriffe

Chi-Quadrat-Unabhängigkeitstest

Bei einem Chi-Quadrat-Unabhängigkeitstest wird geprüft, ob zwei Zufallsvariablen stochastisch unabhängig sind. Dieser statistische Test gehört zu den nichtparametrischen Tests.

An das Skalenniveau der Zufallsvariablen werden keine Voraussetzungen gestellt.

Es sei allgemein angenommen, dass zwei Zufallsvariablen X\; und Y\; gleichzeitig an n statistischen Einheiten (i=1,\ldots ,n) beobachtet werden, wobei die Unabhängigkeit der Stichprobenziehungen vorausgesetzt wird (einfache Zufallsstichprobe).

Sind X\; und Y\; diskrete Zufallsvariablen (darunter werden im weiteren summarisch nominalskalierte, ordinalskalierte sowie diskrete Zufallsvariablen mit sehr wenigen Ausprägungen verstanden), nehmen sie die Stichprobenrealisationen x_{k}(k=1,\ldots ,K) und y_{j},\;(j=1,\ldots ,J) an.

Sind X\; und Y\; stetige Zufallsvariablen (darunter werden im weiteren auch die diskreten Zufallsvariablen mit sehr vielen bzw. unendlich vielen Ausprägungen, d.h. die genannten quasi-stetigen Zufallsvariablen, gefasst), muss eine Intervallbildung der beobachteten Werte in disjunkte, aneinander angrenzende Klassen erfolgen.

x_{k},\;(k=1,\ldots ,K) und y_{j},\;(j=1,\ldots ,J) sind dann repräsentative Klassenwerte (im Allgemeinen die Klassenmitten) und K und J die Anzahl der gebildeten Klassen.

Eine geeignete Darstellungsform für die beobachtete gemeinsame Häufigkeitsverteilung der zwei Zufallsvariablen ist die zweidimensionale Häufigkeitstabelle (auch als Kontingenztabelle oder Kreuztabelle bezeichnet).

Zweidimensionale Häufigkeitstabelle:

x\quad y y_{1} \cdots y_{j} \cdots y_{J} RV x
x_{1} h_{11} \cdots h_{1j} \cdots h_{1J} h_{1\bullet}
\vdots \vdots \cdots \vdots \cdots \vdots \vdots
x_{k} h_{k1} \cdots h_{kj} \cdots h_{kJ} h_{k\bullet}
\vdots \vdots \cdots \vdots \cdots \vdots \vdots
x_{K} h_{K1} \cdots h_{Kj} \cdots h_{KJ} h_{K\bullet}
RV x h_{\bullet 1} \cdots h_{\bullet j} \cdots h_{\bullet J} h_{\bullet\bullet}=n

\,h_{kj} bezeichnet die absolute Häufigkeit für das beobachtete Wertepaar \left( x_{k},y_{j}\right), d.h. dass X\; den Wert x_{k} bzw. einen Wert aus der k-ten Klasse und Y\; gleichzeitig den Wert y_{j} bzw. einen Wert aus der j-ten Klasse angenommen hat:

h_{kj}=h\left( \left\{ X=x_{k}\right\}\cap\left\{ Y=y_{j}\right\} \right)\; ; \quad k=1, \ldots,K, \quad j=1,\ldots , J

Die letzte Spalte enthält die beobachtete Randverteilung (RV) von X\; mit den absoluten Randhäufigkeiten h_{k\bullet}=h\left(X=x_{k}\right)\;;k=1,\ldots ,K.

h_{k\bullet } gibt an, wie oft X\; den Wert x_{k} bzw. einen Wert aus der k-ten Klasse angenommen hat, wobei es gleichgültig ist, welchen Wert Y\; aufweist.

Die letzte Zeile weist die beobachtete Randverteilung von Y\; mit den absoluten Randhäufigkeiten h_{j\bullet }=h\left( Y=y_{j}\right)\;;j=1,\ldots ,J aus.

h_{j\bullet } gibt an, wie oft Y\; den Wert y_{j} bzw. einen Wert aus der j-ten Klasse angenommen hat, wobei es gleichgültig ist, welchen Wert X\; aufweist.

Für die zweidimensionale Häufigkeitstabelle gelten folgende Beziehungen:

h_{k\bullet }=\sum_{j=1}^{J}h_{kj}\;;\quad k=1,\ldots ,K;

h_{\bullet j}=\sum_{k=1}^{K}h_{kj}\;;\quad j=1,\ldots ,J;

h_{\bullet \bullet }=\sum_{k=1}^{K}h_{k\bullet }=\sum_{j=1}^{J}h_{\bullet j}=\sum_{k=1}^{K}\sum_{j=1}^{J}h_{kj}=n.

Die Nullhypothese lautet beim Chi-Quadrat-Unabhängigkeitstest stets, dass die Zufallsvariablen X\; und Y\; in der Grundgesamtheit stochastisch unabhängig sind. Die Alternativhypothese enthält das logische Pendant.

H_{0}:X\; und Y\; sind stochastisch unabhängig.

H_{1}:X\; und Y\; sind nicht stochastisch abhängig.

Wenn die Nullhypothese gilt, dann ergibt sich nach dem Multiplikationssatz bei Unabhängigkeit

P\left( X=x_{k}\right\}\cap\left\{ Y=y_{j}\right)=P\left( X=x_{k}\right)\cdot P\left( Y=y_{j}\right)=p_{k\bullet}\cdot p_{\bullet j}= p_{kj}

Dabei bezeichnen:

p_{kj} die Wahrscheinlichkeit, dass die Zufallsvariable X\; den Wert x_{k} bzw. einen Wert aus der k-ten Klasse und Y\; gleichzeitig den Wert y_{j} bzw. einen Wert aus der j-ten Klasse annimmt;

p_{k\bullet} die Wahrscheinlichkeit, dass die Zufallsvariable X\; den Wert x_{k} bzw. einen Wert aus der k-ten Klasse annimmt (Randwahrscheinlichkeit von X\;) und

p_{\bullet j} die Wahrscheinlichkeit, dass die Zufallsvariable Y\; den Wert Y_{i} bzw. einen Wert aus der j-ten Klasse annimmt (Randwahrscheinlichkeit von Y\;).

Das Hypothesenpaar kann somit konkretisiert werden:

H_{0}:\;p_{kj}=p_{k\bullet}\cdot p_{\bullet j}\quad für alle Paare \left( k,j\right)

H_{1}: p_{kj}\neq p_{k\bullet}\cdot p_{\bullet j}\quad für mindestens ein Paar \left( k,j\right)

Das Signifikanzniveau \alpha und der Stichprobenumfang n sind vor der Testdurchführung festzulegen.

Teststatistik des Chi-Quadrat-Unabhängigkeitstests

Für die Bestimmung der Teststatistik wird von den absoluten Häufigkeiten ausgegangen. Der Test basiert auf dem Vergleich der in der Stichprobe beobachteten und der bei Gültigkeit der Nullhypothese erwarteten gemeinsamen absoluten Häufigkeiten.

Für die konkrete Stichprobe sind die gemeinsamen absoluten Häufigkeiten

h_{kj}\;(k=1,\ldots ,K,\;j=1,\ldots J)

in den Zellen der zweidimensionalen Häufigkeitstabelle gegeben. Da diese absoluten Häufigkeiten h_{kj} Ergebnis eines Zufallsexperimentes sind, können sie von Stichprobe zu Stichprobe unterschiedliche Werte annehmen, d.h., sie sind Realisationen von Zufallsvariablen H_{kj}\;.

Wenn die Nullhypothese gilt, ergeben sich die erwarteten gemeinsamen absoluten Häufigkeiten als e_{kj}=n\cdot p_{k\bullet}\cdot p_{\bullet j}.

Da die gemeinsamen Wahrscheinlichkeiten p_{kj} und die Randwahrscheinlichkeiten p_{k\bullet } und p_{\bullet j} für alle k und j unbekannt sind, müssen sie aus der Stichprobe geschätzt werden.

Erwartungstreue und konsistente Punktschätzungen für p_{k\bullet } und p_{\bullet j} sind die relativen Randhäufigkeiten f_{k\bullet}=\frac{h_{k\bullet }}{n} und f_{\bullet j}=\frac{h_{\bullet j}}{n}.

Das beinhaltet, dass von festen Randhäufigkeiten der zweidimensionalen Häufigkeitstabelle ausgegangen wird. Damit erhält man Schätzungen für die unter H_{0} erwarteten gemeinsamen absoluten Häufigkeiten:

\widehat{e}_{kj}=n\cdot f_{k\bullet }\cdot f_{\bullet j}=n\cdot \frac{h_{k\bullet}}{n}\cdot \frac{h_{\bullet j}}{n}=\frac{h_{k\bullet }\cdot h_{\bullet j}}{n}

Der Vergleich zwischen den in der Stichprobe beobachteten und den bei Gültigkeit der Nullhypothese erwarteten gemeinsamen absoluten Häufigkeiten baut auf den Differenzen H_{kj}-\widehat{e}_{kj}\;(k=1,\ldots,K;\;j=1,\ldots J) auf.

Eine summarische Größe, die die Abweichung von der Nullhypothese bewertet, ist die Teststatistik

V=\sum_{k=1}^{K}\sum_{j=1}^{J}\frac{\left( H_{kj}-\widehat{e}_{kj}\right)^{2}}{\widehat{e}_{kj}}

Bei Gültigkeit der Nullhypothese ist die Teststatistik V\; approximativ Chi-Quadrat-verteilt mit f = (K - 1)\cdot(J - 1) Freiheitsgraden.

Die Approximation an die Chi-Quadrat-Verteilung ist hinreichend, wenn \widehat{e}_{kj}\geq 5 für alle k,\; j gilt.

Ist diese Bedingungen nicht erfüllt, müssen vor der Anwendung des Tests benachbarte Werte bzw. Klassen zusammengefaßt werden. K und J sind die Anzahlen der verbliebenen Werte bzw. Klassen nach einer eventuell notwendigen Zusammenfassung.

Der kritische Wert c wird für P(V \leq c) = 1- \alpha und die Anzahl der Freiheitsgrade f aus der Tabelle der Verteilungsfunktion der Chi-Quadrat-Verteilung entnommen.

Entscheidungsbereiche des Chi-Quadrat-Unabhängigkeitstests

Die Entscheidungsbereiche sind:

Ablehnungsbereich der H_{0}:\;\left\{ v|v>\chi_{1-\alpha ;(K-1)\cdot \left( J-1\right)}^{2}\right\}

Nichtablehnungsbereich der H_{0}:\;\left\{ v|v\leq \chi_{1-\alpha ;(K-1)\cdot\left(J-1\right)}^{2}\right\}

Die Wahrscheinlichkeit, dass die Teststatistik V\; eine Realisation aus dem Ablehnungsbereich der H_{0} annimmt, entspricht dem vorgegebenen Signifikanzniveau \alpha = P(V > \chi_{1-\alpha;f}^{2} | H_{0}).

Die Wahrscheinlichkeit, dass die Teststatistik V\; eine Realisation aus dem Nichtablehnungsbereich der H_{0} annimmt, ist P(V \leq \chi_{1-\alpha;f}^{2} | H_{0})=1-\alpha.

Nichtablehnungsbereich der H_{0} | Ablehnungsbereich der H_{0}

Prüfwert des Chi-Quadrat-Unabhängigkeitstests

Wenn die Zufallsstichprobe vom Umfang n gezogen wurde, können die absoluten Häufigkeiten h_{kj} für alle beobachteten Wertepaare \left( x_{k},y_{j}\right) ermittelt, daraus die beobachteten Randhäufigkeiten für X\, und Y\; bestimmt und die erwarteten absoluten Häufigkeiten \widehat{e}_{kj} berechnet werden.

Ist die Approximationsbedingung nicht erfüllt, müssen Werte bzw. Klassen geeignet zusammengefaßt und die Häufigkeiten h_{kj}, h_{k\bullet }, h_{\bullet j} und \widehat{e}_{kj} erneut bestimmt werden.

Einsetzen von h_{kj} und für alle k,\; j in die Teststatistik führt zu einem Prüfwert v.

Entscheidungssituationen des Chi-Quadrat-Unabhängigkeitstests

Wenn v in den Ablehnungsbereich der H_{0} fällt, wird die Nullhypothese auf dem Signifikanzniveau \alpha und basierend auf der Zufallsstichprobe vom Umfang n abgelehnt (\mbox{''}H_{1}\mbox{''}).

Es konnte statistisch gezeigt werden, dass die Zufallsvariablen X\; und Y\; nicht stochastisch unabhängig sind.

Bei dieser Entscheidung besteht die Möglichkeit einen Fehler 1. Art (\mbox{''}H_{1}\mbox{''}| H_{0}) zu begehen, wenn in Wirklichkeit die Nullhypothese richtig ist.

Die Wahrscheinlichkeit für einen Fehler 1. Art entspricht dem vorgegebenen Signifikanzniveau \alpha.

Wenn v in den Nichtablehnungsbereich der H_{0} fällt, wird die Nullhypothese basierend auf der Zufallsstichprobe vom Umfang n nicht abgelehnt (\mbox{''}H_{0}\mbox{''}).

Das Stichprobenergebnis gibt keine Veranlassung, die Unabhängigkeit der Zufallsvariablen X\; und Y\; zu verwerfen.

Bei dieser Entscheidung besteht die Möglichkeit, einen Fehler 2. Art (\mbox{''}H_{0}\mbox{''}| H_{1}) zu begehen, wenn in Wirklichkeit die Alternativhypothese richtig ist.

Zusatzinformationen

Herleitung des Chi-Quadrat-Unabhängigkeitstests

Hypothesen

Die generelle Vorgehensweise bei Unabhängigkeitstests ist im Prinzip wie bei den Parametertests. Es wird eine Teststatistik konstruiert, die die Informationen bei Gültigkeit der Nullhypothese sowie die Informationen aus der Zufallsstichprobe enthält und auf deren Basis eine Aussage über die Nullhypothese möglich ist.

Die Verteilung der Teststatistik muss unter der Nullhypothese (zumindest approximativ) bekannt sein.

Auch bei Unabhängigkeitstests wird stets die Nullhypothese statistisch geprüft und in Abhängigkeit von der Testentscheidung besteht die Möglichkeit, einen Fehler 1. Art mit der Wahrscheinlichkeit P\left(\mbox{''}H_{1}\mbox{''}|H_{0}\right)=\alpha bzw. einen Fehler 2. Art mit der Wahrscheinlichkeit P\left(\mbox{''}H_{0}\mbox{''}|H_{1}\right)=\beta zu begehen.

Mit dem vorgegebenen Signifikanzniveau kann die Wahrscheinlichkeit eines Fehlers 1. Art niedrig gehalten werden; die Wahrscheinlichkeit eines Fehlers 2. Art ist dagegen in der Regel nicht bekannt.

Man wird deshalb bestrebt sein, die Nullhypothese abzulehnen, da dann die statistische Sicherheit einer Fehlentscheidung bekannt ist.

Wenn die Zufallsvariablen X\; und Y\; in der Grundgesamtheit wirklich unabhängig sind, dann ist zu erwarten, dass diese Tatsache im Prinzip auch in der Stichprobe zu beobachten ist.

Im Prinzip bedeutet dabei, dass Abweichungen zwischen den beobachteten gemeinsamen absoluten Häufigkeiten h_{kj} und den bei Unabhängigkeit erwarteten gemeinsamen absoluten Häufigkeiten e_{kj} in der Regel immer auftreten werden.

Zu entscheiden ist, ob die Abweichungen noch zufallsbedingt sind oder ob es sich um signifikante Abweichungen handelt.

Da stets die Nullhypothese statistisch geprüft wird, muss die Unabhängigkeit zwischen X\; und Y\; immer als H_{0} formuliert werden, um die erwarteten absoluten Häufigkeiten ermitteln zu können.

Große Abweichungen zwischen beobachteten gemeinsamen absoluten Häufigkeiten h_{kj} und den bei Unabhängigkeit erwarteten gemeinsamen absoluten Häufigkeiten e_{kj} sprechen tendenziell gegen die Unabhängigkeit, d.h. man wird die Nullhypothese ablehnen.

Das dem Chi-Quadrat-Unabhängigkeitstest zugrunde liegende Hypothesenpaar enthält die Wahrscheinlichkeiten p_{kj}, p_{k\bullet }, und p_{\bullet j} (k=1,\ldots ,K;\;j=1,\ldots J).

Sind X\; und Y\; diskrete Zufallsvariablen, beinhalten diese Wahrscheinlichkeiten, dass X\; und Y\; genau eine mögliche Realisation annehmen:

p_{kj}=P\left(\left\{X=x_{k}\right\}\cap\left\{ Y=y_{j}\right\}\right)

p_{k\bullet }=P\left( \left\{ X=x_{k}\right\} \right),\quad p_{\bullet j}=P\left( \left\{ Y=y_{j}\right\} \right)

Für eine stetige Zufallsvariable ist die Wahrscheinlichkeit, dass sie einen bestimmten Wert annimmt, jedoch stets Null. Daraus folgt die Notwendigkeit einer Intervallbildung der beobachteten Werte.

Es bedeuten im stetigen Fall:

p_{kj} die Wahrscheinlichkeit, dass die Zufallsvariable X\; einen Wert aus der Klasse \left( x_{k-1}^{*},x_{k}^{*}\right) und die Zufallsvariable Y\; einen Wert aus der Klasse \left(y_{j-1}^{*},y_{j}^{*}\right) annimmt;

p_{k\bullet} die Wahrscheinlichkeit, dass die Zufallsvariable X\; einen Wert aus der Klasse \left( x_{k-1}^{*},x_{k}^{*}\right) annimmt (Randwahrscheinlichkeit von X\;) und

p_{\bullet j} die Wahrscheinlichkeit, dass die Zufallsvariable Y\; einen Wert aus der Klasse \left( y_{j-1}^{*},y_{j}^{*}\right) annimmt (Randwahrscheinlichkeit von Y\;):

p_{kj}=P\left( \left\{ x_{k-1}^{*}<X\leq x_{k}^{*}\right\}\cap\left\{y_{j-1}^{*}<Y\leq y_{j}^{*}\right\}\right),

p_{k\bullet}=P\left( x_{k-1}^{*}<X\leq x_{k}^{*}\right),\quad p_{\bullet j}=P\left( y_{j-1}^{*}<Y\leq y_{j}^{*}\right)

Um diese Darstellung zu vereinfachen und mit dem diskreten Fall zu vereinheitlichen, werden statt der Klassen repräsentative Klassenwerte (im Allgemeinen die Klassenmitten) x_{k},\left(k=1, \ldots K\right) und y_{j},\; \left( j=1, \ldots J\right) verwendet. K und J sind die Anzahlen der jeweils gebildeten Klassen.

Es sei jedoch angemerkt, dass auch für eine diskrete Zufallsvariable eine Klassenbildung vorgenommen werden kann, falls es die Problemstellung erfordert.

Teststatistik

Die Tatsache, dass die beobachteten gemeinsamen absoluten Häufigkeiten Zufallsvariablen H_{kj}\; sind, lässt sich wie folgt zeigen, wobei es keine Rolle spielt, ob X\; und Y\; diskret oder stetig sind, so dass nur auf diskrete Zufallsvariablen Bezug genommen wird.

Aus der Grundgesamtheit wird ein Element zufällig gezogen und festgestellt, ob das Wertepaar \left( x_{k},y_{j}\right) aufgetreten ist, d.h. ob das Ereignis \left\{ X=x_{k}\right\}\cap \left\{ Y=y_{j}\right\} eingetreten ist oder nicht.

Es gibt somit nur zwei mögliche Ergebnisse des Zufallsexperimentes. Die Wahrscheinlichkeit für das Eintreten des Ereignisses \left\{X=x_{k}\right\} \cap \left\{ Y=y_{j}\right\} ist p_{kj} und die Wahrscheinlichkeit für das Nichteintreten 1 - p_{kj}.

Das Zufallsexperiment wird n-mal wiederholt, wobei die einzelnen Versuche unabhängig voneinander (da eine einfache Zufallsstichprobe vorausgesetzt wird) und damit die Wahrscheinlichkeiten p_{kj} konstant sind. Es liegt somit ein Bernoulli-Experiment vor.

Bei n-maliger Durchführung der Versuche interessiert die Gesamtzahl des Eintretens des Ereignisses \left\{ X=x_{k}\right\}\cap \left\{ Y=y_{j}\right\}, d.h. die absolute Häufigkeit des Wertepaares \left( x_{k},y_{j}\right) in der Stichprobe.

Diese Häufigkeit kann von Stichprobe zu Stichprobe unterschiedlich sein, so dass

H_{kj} =\{ \mbox{Anzahl des Auftretens von } \left\{X=x_{k}\right\} \cap \left\{ Y=y_{j}\right\} \mbox{ in einer einfachen Zufallsstichprobe vom Umfang } n\}

eine diskrete Zufallsvariable ist, die die Werte 0,\;\ldots,\; n annehmen kann.

Die Zufallsvariable H_{kj}\; ist binomialverteilt mit den Parametern n und p_{kj}:\; H_{kj}\sim B\left( n;p_{kj}\right).

Der Erwartungswert von H_{kj}\; ist E\left[ H_{kj}\right] =n\cdot p_{kj}.

Bei Gültigkeit der Nullhypothese, d.h. bei stochastischer Unabhängigkeit von X\; und Y\;, ergibt sich nach dem Multiplikationssatz bei Unabhängigkeit, dass die gemeinsame Wahrscheinlichkeit p_{kj} das Produkt der beiden Randwahrscheinlichkeiten p_{k\bullet } und p_{\bullet j} ist, d.h. p_{kj}=p_{k\bullet }\cdot p_{\bullet j}.

Für die bei Unabhängigkeit erwarteten gemeinsamen absoluten Häufigkeiten resultiert:

e_{kj}=n\cdot p_{kj}=n\cdot p_{k\bullet }\cdot p_{\bullet j}.

Diese Herleitung gilt für alle k=1,\ldots ,K und j=1,\ldots J gleichermaßen.

Die Teststatistik basiert auf dem Vergleich der in der Stichprobe beobachteten und der bei Gültigkeit der Nullhypothese erwarteten gemeinsamen absoluten Häufigkeiten, wobei letztere wegen der unbekannten Wahrscheinlichkeiten aus der Stichprobe zu schätzen sind: H_{kj}-\widehat{e}_{kj}.

Damit sich positive und negative Abweichungen nicht aufheben, erfolgt eine Quadrierung: \left( H_{kj}-\widehat{e}_{kj}\right) ^{2}.

Mit der Division durch \widehat{e}_{kj} wird der unterschiedlichen Bedeutung der Abweichungen Rechnung getragen.

Eine Differenz h_{kj}-\widehat{e}_{kj}=5 fällt bei \widehat{e}_{kj}=10 stärker ins Gewicht als bei \widehat{e}_{kj}=100.

Durch die Summation der normierten Abweichungen über alle Paare (k, j) ergibt sich eine Größe für die in der Stichprobe insgesamt enthaltenen Abweichungen, die die adäquate Teststatistik darstellt:

V=\sum_{k=1}^{K}\sum_{j=1}^{J}\frac{\left( H_{kj}-\widehat{e}_{kj}\right)^{2}}{\widehat{e}_{kj}}

Da die H_{kj}\; Zufallsvariablen sind, ist auch V\; eine Zufallsvariable.

Bei Gültigkeit der Nullhypothese, hinreichend großem Stichprobenumfang n und Einhaltung der Approximationsbedingung ist die Teststatistik V\; approximativ Chi-Quadrat-verteilt mit f = (K - 1)\cdot(J - 1) Freiheitsgraden.

Ist die Approximationsbedingung nicht erfüllt, müssen vor der Anwendung des Tests benachbarte Werte bzw. Klassen zusammengefasst werden, was dann auch im diskreten Fall mit einer Klassenbildung verbunden ist.

K und J sind die Anzahl der verbliebenen Werte bzw. Klassen nach einer eventuell notwendigen Zusammenfassung

Anzahl der Freiheitsgrade

Insgesamt sind K\cdot J Wahrscheinlichkeiten p_{kj} in der zweidimensionalen Verteilung der Zufallsvariablen X\; und Y\; enthalten.

Ein Freiheitsgrad geht grundsätzlich verloren, weil die Wahrscheinlichkeiten untereinander nicht unabhängig sind.

Wegen \sum\nolimits_{k}\sum\nolimits_{j}p_{kj}=1 folgt, dass jede Wahrscheinlichkeit p_{kj} durch die anderen K\cdot J - 1 Wahrscheinlichkeiten bestimmt ist.

f = K \cdot J - 1 wäre somit die Anzahl der Freiheitsgrade, wenn sich bei Gültigkeit der Nullhypothese alle Wahrscheinlichkeiten p_{kj} aus den (bekannten) Randwahrscheinlichkeiten gemäß p_{kj}=p_{k\bullet }\cdot p_{\bullet j} bestimmen ließen.

Die Randwahrscheinlichkeiten p_{k\bullet } und p_{\bullet j} sind jedoch unbekannt und müssen aus der Stichprobe geschätzt werden, wodurch sich die Anzahl der Freiheitsgrade weiter verringert.

Die Randverteilung von X\; enthält K Randwahrscheinlichkeiten p_{k\bullet }. Wegen \sum\nolimits_{k}p_{k\bullet }=1 sind nur K - 1 Wahrscheinlichkeiten p_{k\bullet } unbekannt und zu schätzen.

Die Randverteilung von Y\; enthält J Randwahrscheinlichkeiten p_{\bullet j }. Wegen \sum_{j}p_{\bullet j}=1 sind nur J - 1 Wahrscheinlichkeiten p_{\bullet j} unbekannt und zu schätzen.

Insgesamt sind damit (K-1)+(J-1) Randwahrscheinlichkeiten aus der Stichprobe zu schätzen. Somit folgt für die Anzahl der Freiheitsgrade:

f=K\cdot J-1-\left[ \left( K-1\right) +\left( J-1\right) \right]=K\cdot J-K-J+1=\left( K-1\right) \cdot \left( J-1\right)

Da in der Teststatistik die Terme \frac{\left(H_{kj}-\widehat{e}_{kj}\right)^{2}}{\widehat{e}_{kj}} nur positive Werte annehmen können, nimmt die Teststatistik V\; ebenfalls nur positive Werte an.

Große Abweichungen H_{kj}-\widehat{e}_{kj} führen zu großen Werten von V\;.

Somit führen nur große Werte von V\; zur Ablehnung der H_{0}, während kleine Werte von V nicht gegen die Nullhypothese sprechen. Der Chi-Quadrat-Unabhängigkeitstest ist somit ein rechtsseitiger Test.

Beispiele

Mängel und Alter

Es wird vermutet, dass die Anzahl der festgestellten Mängel an einem Pkw und das Alter des Pkw stochastisch unabhängig sind.

Um diese Annahme zu überprüfen, wird ein Chi-Quadrat-Unabhängigkeitstest auf einem Signifikanzniveau von \alpha = 0,05 durchgeführt.

Für die Zufallsvariable X\;: "Anzahl der Mängel am Pkw" werden die Realisationen x_{1} = "kein Mangel", x_{2} = "1 Mangel" und x_{3} = "2 oder mehr Mängel" und

für die Zufallsvariable Y\;: "Alter des Pkw" die Realisationen y_{1} = "bis einschließlich 1 Jahr", y_{2} = "über 1 Jahr bis einschließlich 2 Jahre" und y_{3} = "2 Jahre oder älter" betrachtet.

Da stets die Nullhypothese statistischgeprüft wird, muss die Unabhängigkeit zwischen X und Y als H_{0} formuliert werden, um die gemeinsamen erwarteten absoluten Häufigkeiten ermitteln zu können, so dass das Hypothesenpaar lautet:

H_{0}: X\; und Y\; sind stochastisch unabhängig.

H_{1}: X\;und Y\; sind nicht stochastisch unabhängig.

bzw.

H_{0}:\;p_{kj}=p_{k\bullet }\cdot p_{\bullet j} für alle Paare \left( k,j\right)

H_{1}:\;p_{kj}\neq p_{k\bullet }\cdot p_{\bullet j} für mindestens ein Paar \left(k,j\right)

Teststatistik

Es wird die Teststatistik des Chi-Quadrat-Unabhängigkeitstests verwendet:

V=\sum_{k=1}^{K}\sum_{j=1}^{J}\frac{\left( H_{kj}-\widehat{e}_{kj}\right)^{2}}{\widehat{e}_{kj}}

die bei Gültigkeit der Nullhypothese approximativ Chi-Quadrat-verteiltist mit der Anzahl der Freiheitsgrade f = (K - 1)\cdot(J - 1).

Die Entscheidungsbereiche der Nullhypothese können erst nach Vorliegen der Stichprobe festgelegt werden, da

Entscheidungsbereiche und Prüfwert

Bei einer konkreten Polizeikontrolle an verschiedenen Straßenstellen, wobei die Auswahl der Pkw zufällig erfolgte, wurde die Anzahl der Mängel und das Alter an 110 Pkw registriert.

Die sich aus der Stichprobe ergebenden gemeinsamen absoluten Häufigkeiten und Randhäufigkeiten sind in der folgenden Tabelle enthalten.

Gleichzeitig wurden in den Zellen dieser Tabelle die geschätzten gemeinsamen absoluten Häufigkeiten bei Gültigkeit der Nullhypothese aufgenommen, die sich gemäß

\widehat{e}_{kj}=\frac{h_{k\bullet }\cdot h_{\bullet j}}{n}

ergeben (gerundet auf eine Dezimalstelle).

Mängelanzahl (x_{k}) Alter (y_{j}) RV X\;
<1 1-2 2 oder älter
0 beobachtet 30 14 5 49
erwartet 26,7 13,4 8,9
1 beobachtet 18 10 4 32
erwartet 17,5 8,7 5,8
2 oder mehr beobachtet 12 6 11 29
erwartet 15,8 7,9 5,3
RV Y\; 60 30 20 110

Die Approximationsbedingung ist erfüllt, da alle \widehat{e}_{kj}\geq 5 sind. Mit K = 3 und J = 3 folgt für die Anzahl der Freiheitsgrade: f = (K - 1)\cdot(J - 1) =2\cdot2= 4.

Für P(V \leq c) = 0,95 und f = 4 findet man aus der Tabelle der Verteilungsfunktion der Chi-Quadrat-Verteilung den kritischen Wert c=\chi_{1-\alpha ;(f)}^{2}=\chi_{0,95;4}^{2}=9,49.

Die Entscheidungsbereiche sind damit:

Ablehnungsbereich der H_{0}:\; \left\{ v|v>9,49\right\}

Nichtablehnungsbereich der H_{0}:\;\left\{ v|v\leq 9,49\right\}

Als Prüfwert ergibt sich:

v=\frac{\left( 30-26,7\right)^{2}}{26,7}+\frac{\left( 14-13,4\right)^{2}}{13,4}+\ldots +\frac{\left( 11-5,3\right)^{2}}{5,3}=10,5

Testentscheidung

Da v in den Ablehnungsbereich der H_{0} fällt, wird die Nullhypothese abgelehnt (\mbox{''}H_{1}\mbox{''}).

Auf einem Signifikanzniveau von \alpha =0,05 und basierend auf einer Zufallsstichprobe vom Umfang n = 110 konnte statistisch bewiesen werden, dass die Zufallsvariablen X\;: "Anzahl der Mängel am Pkw" und Y\;: "Alter des Pkw" stochastisch unabhängig sind.

Bei dieser Entscheidung besteht die Möglichkeit, einen Fehler 1. Art (\mbox{''}H_{1}\mbox{''}|H_0) zu begehen, wenn in Wirklichkeit die Nullhypothese richtig ist.

Die Wahrscheinlichkeit für einen Fehler 1. Art entspricht dem vorgegebenen Signifikanzniveau \alpha = 0,05.

Umfrage

Bei einer Umfrage in den Jahren 1991 und 1996 wurde zufällig ausgewählten Bürgern der Bundesrepublik Deutschland mit einem Alter von mindestens 18 Jahre zum Befragungszeitpunkt die folgenden Fragen gestellt:

1. "Wie beurteilen Sie die heutige wirtschaftliche Lage in Deutschland?"

2. "Wie wird die wirtschaftliche Lage in Deutschland in einem Jahr sein?"

Die Einschätzungen konnten die Befragten jeweils auf einer fünfteiligen Skala vornehmen:

1. Frage: 1 - sehr gut, 2 - gut, 3 - teils gut / teils schlecht, 4 - schlecht, 5 - sehr schlecht

2. Frage: 1 - wesentlich besser als heute, 2 - etwas besser, 3 - gleichbleibend, 4 - etwas schlechter, 5 - wesentlich schlechter.

Der Inhalt der 1. Frage wird als Zufallsvariable X_{1}:\; "Gegenwärtige Wirtschaftslage" und der Inhalt der 2. Frage als Zufallsvariable X_{2}:\; "Zukünftige Wirtschaftslage" definiert, die die genannten 5 möglichen Realisationen annehmen können.

Darüber hinaus wurde u.a. erfasst, ob die befragte Person aus den alten Bundesländern (einschließlich West-Berlin) oder aus den neuen Bundesländern (einschließlich Ost-Berlin) stammt.

Dies sei die Zufallsvariable Y\;: "Erhebungsgebiet" mit den möglichen Realisationen y_{1} = "West" und y_{2} = "Ost".

Es soll auf einem Signifikanzniveau von \alpha =0,05 geprüft werden, ob die Zufallsvariablen X_{1}\; und Y\; bzw. X_{2}\; und Y\; in den Jahren 1991 bzw. 1996 unabhängig sind.

Da stets die Nullhypothese statistisch geprüft wird, muss die Unabhängigkeit zwischen den beiden Zufallsvariablen als H_{0} formuliert werden, um die gemeinsamen erwarteten absoluten Häufigkeiten ermitteln zu können, so dass die Hypothesenpaare lauten:

H_{0}:X_{1}\; und Y\; sind stochastisch unabhängig.

H_{1}:X_{1}\; und Y\; sind nicht stochastisch unabhängig.

und

H_{0}:X_{2}\; und Y\; sind stochastisch unabhängig.

H_{1}:X_{2}\; und Y\; sind nicht stochastisch unabhängig.

Teststatistik

Es wird die Teststatistik des Chi-Quadrat-Unabhängigkeitstest verwendet

V=\sum_{k=1}^{K}\sum_{j=1}^{J}\frac{\left( H_{kj}-\widehat{e}_{kj}\right)^{2}}{\widehat{e}_{kj}}

die bei Gültigkeit der Nullhypothese approximativ Chi-Quadrat-verteilt ist mit der Anzahl der Freiheitsgrade f = (K - 1)\cdot(J - 1).

Die Entscheidungsbereiche der Nullhypothese können erst nach Vorliegen der Stichprobe festgelegt werden, da

Entscheidungsbereiche, Prüfwert und Testentscheidung

Die sich aus den Stichproben im Jahre 1991 und 1996 ergebenden gemeinsamen absoluten Häufigkeiten und Randhäufigkeit]en sind in den folgenden Tabellen 1 - 4 enthalten.

Gleichzeitig werden in die Zellen dieser Tabellen die geschätzten gemeinsamen absoluten Häufigkeiten bei Gültigkeit der Nullhypothese, die sich gemäß

\widehat{e}_{kj}=\frac{h_{k\bullet }\cdot h_{\bullet j}}{n}

ergeben (gerundet auf eine Dezimalstelle), und die Differenzen h_{kj}-\widehat{e}_{kj} aufgenommen.


Tabelle 1: Gegenwärtige Wirtschaftslage (X_{1})\; und Erhebungsgebiet (Y)\; 1991

Gegenwärtige Wirtschaftslage (X_{1})\; Erhebungsgebiet (Y)\; RV X_{1}\;
West Ost
sehr gut beobachtet 209 165 374
erwartet 184,8 189,2
Differenz 24,2 -24,2
gut beobachtet 744 592 1336
erwartet 660,1 675,9
Differenz 83,9 -83,9
teils/teils beobachtet 431 647 1078
erwartet 532,6 545,5
Differenz -101,6 101,6
schlecht beobachtet 36 39 75
erwartet 37,1 37,9
Differenz -1,1 1,1
sehr schlecht beobachtet 4 15 19
erwartet 9,4 9,6
Differenz -5,4 5,4
RV Y\; 1424 1458 2882


Tabelle 2: Gegenwärtige Wirtschaftslage (X_{1})\; und Erhebungsgebiet (Y)\; 1996

Gegenwärtige Wirtschaftslage (X_{1})\; Erhebungsgebiet (Y)\; RV X_{1}\;
West Ost
sehr gut beobachtet 20 6 26
erwartet 17,2 8,8
Differenz 2,8 -2,8
gut beobachtet 264 116 380
erwartet 251,3 128,7
Differenz 12,7 -12,7
teils/teils beobachtet 1006 557 1563
erwartet 1033,7 529,3
Differenz -27,7 27,7
schlecht beobachtet 692 335 1027
erwartet 679,2 347,8
Differenz 12,8 -12,8
sehr schlecht beobachtet 141 73 214
erwartet 141,5 72,5
Differenz -0,5 0,5
RV Y\; 2123 1087 3210


Tabelle 3: Zukünftige Wirtschaftslage (X_{2})\; und Erhebungsgebiet (Y)\; 1991

Zukünftige Wirtschaftslage (X_{2})\; Erhebungsgebiet (Y)\; RV X_{2}\;
West Ost
wesentlich besser beobachtet 75 203 278
erwartet 137,4 140,6
Differenz -62,4 62,4
etwas besser beobachtet 449 763 1212
erwartet 598,9 613,1
Differenz -149,9 149,9
gleichbleibend beobachtet 684 414 1108
erwartet 547,5 560,5
Differenz 136,5 -136,5
etwas schlechter beobachtet 200 62 262
erwartet 129,5 132,5
Differenz 70,5 -70,5
wesentlich schlechter beobachtet 16 6 22
erwartet 10,9 11,1
Differenz 5,1 -5,1
RV Y\, 1424 1458 2882


Tabelle 4: Zukünftige Wirtschaftslage (X_{2})\; und Erhebungsgebiet (Y)\; 1996

Zukünftige Wirtschaftslage (X_{2})\; Erhebungsgebiet (Y)\; RV X_{2}\;
West Ost
wesentlich besser beobachtet 9 6 15
erwartet 9,9 5,1
Differenz -0,9 0,9
etwas besser beobachtet 190 131 321
erwartet 212,3 108,7
Differenz -22,3 22,3
gleichbleibend beobachtet 809 444 1253
erwartet 828,7 42,3
Differenz -19,7 19,7
etwas schlechter beobachtet 960 426 1386
erwartet 916,7 469,3
Differenz 43,3 -43,3
wesentlich schlechter beobachtet 155 80 235
erwartet 155,4 79,6
Differenz -0,4 0,4
RV Y\; 2123 1087 3210

Für alle 4 durchzuführende Tests gilt:

Die Approximationsbedingung ist erfüllt, da alle \widehat{e}_{kj}\geq 5 sind. Mit K = 5 und J = 2 folgt für die Anzahl der Freiheitsgrade: f = (K - 1)\cdot(J - 1) = 4\cdot1=4.

Für P(V \leq c) = 0,95 und f = 4 findet man aus der Tabelle der Verteilungsfunktion der Chi-Quadrat-Verteilung den kritischen Wert c=\chi_{1-\alpha ;\left( K-1\right) \cdot \left( J-1\right)}^{2}=\chi_{0,95;4}^{2}=9,49.

Die Entscheidungsbereiche sind damit:

Ablehnungsbereich der H_{0}:\; \left\{v|v>9,49\right\}

Nichtablehnungsbereich der H_{0}:\; \left\{ v|v\leq 9,49\right\}

Als Prüfwerte und Testentscheidung ergeben sich:

Jahr Zufallsvariablen Prüfwert v Testentscheidung
1991 X_{1}, Y 71,85 H_{1}
1996 X_{1}, Y 6,15 H_{0}
1991 X_{2}, Y 278,17 H_{1}
1996 X_{2}, Y 14,61 H_{1}

Interpretation

  • Gegenwärtige Wirtschaftslage in Deutschland:
Während für 1991 auf einem Signifikanzniveau von \alpha = 0,05 die Nullhypothese abgelehnt wird, d.h. statistisch eine Abhängigkeit zwischen den Zufallsvariablen X_{1}\;: "Gegenwärtige Wirtschaftslage" und Y\;: "Erhebungsgebiet" nachgewiesen werden konnte, wird für das Jahr 1996 die Nullhypothese nicht abgelehnt.
1991 bewerteten die Befragten in den alten Bundesländern die gegenwärtige Wirtschaftslage tendenziell deutlich zufriedener als die Befragten in den neuen Bundesländern, was anhand der großen positiven Differenzen h_{kj}-\widehat{e}_{kj} bei der sehr guten und guten Einschätzung in der Spalte West der Tabelle 1 zu erkennen ist.
Auch 1996 treten Differenzen zwischen h_{kj} und \widehat{e}_{kj} auf, aber sie sind in ihrer Gesamtheit nicht mehr signifikant.
Es hat offensichtlich eine Angleichung in den Einschätzungen der gegenwärtigen Wirtschaftslage zwischen West und Ost stattgefunden.
  • Zukünftige Wirtschaftslage in Deutschland:
Bezüglich der Zufallsvariablen X_{2}\;: "Zukünftige Wirtschaftslage" und Y\;: "Erhebungsgebiet" wird für beide Jahre die Nullhypothese der Unabhängigkeit auf einem Signifikanzniveau von \alpha = 0,05 abgelehnt.
Hierbei sind es jedoch die Befragten in den neuen Bundesländern, die in beiden Jahren die zukünftige Wirtschaftslage tendenziell deutlich optimistischer bewerten als die Befragten in den alten Bundesländern.
Vergleicht man beide Jahre miteinander, so sind die Differenzen h_{kj}-\widehat{e}_{kj} 1996 kleiner als 1991, was ebenfalls auf eine gewisse Annäherung in den Bewertungen zwischen West und Ost schließen lässt, jedoch sind sie auch 1996 in ihrer Gesamtheit noch statistisch signifikant.