Chi-Quadrat-Unabhängigkeitstest: Unterschied zwischen den Versionen

Aus MM*Stat

Wechseln zu: Navigation, Suche
(Zusatzinformationen)
Zeile 205: Zeile 205:
  
 
Bei dieser Entscheidung besteht die Möglichkeit, einen [[Fehler 2. Art]] <math>(\mbox{''}H_{0}\mbox{''}| H_{1})</math> zu begehen, wenn in Wirklichkeit die [[Alternativhypothese]] richtig ist.
 
Bei dieser Entscheidung besteht die Möglichkeit, einen [[Fehler 2. Art]] <math>(\mbox{''}H_{0}\mbox{''}| H_{1})</math> zu begehen, wenn in Wirklichkeit die [[Alternativhypothese]] richtig ist.
 
==Zusatzinformationen==
 
 
===Herleitung des Chi-Quadrat-Unabhängigkeitstests===
 
 
====Hypothesen====
 
 
Die generelle Vorgehensweise bei Unabhängigkeitstests ist im Prinzip wie bei den [[Parametertest]]s. Es wird eine [[Teststatistik]]
 
konstruiert, die die Informationen bei Gültigkeit der [[Nullhypothese]] sowie die Informationen aus der [[Zufallsstichprobe]] enthält und auf deren Basis eine Aussage über die [[Nullhypothese]] möglich ist.
 
 
Die Verteilung der [[Teststatistik]] muss unter der [[Nullhypothese]] (zumindest [[Approximation|approximativ]]) bekannt sein.
 
 
Auch bei Unabhängigkeitstests wird stets die [[Nullhypothese]] [[Statistik|statistisch]] geprüft und in Abhängigkeit von der Testentscheidung besteht die Möglichkeit, einen [[Fehler 1. Art]] mit der [[Wahrscheinlichkeit]] <math>P\left(\mbox{''}H_{1}\mbox{''}|H_{0}\right)=\alpha</math> bzw. einen [[Fehler 2. Art]] mit der [[Wahrscheinlichkeit]] <math>P\left(\mbox{''}H_{0}\mbox{''}|H_{1}\right)=\beta</math> zu begehen.
 
 
Mit dem vorgegebenen [[Signifikanzniveau]] kann die [[Wahrscheinlichkeit]] eines [[Fehler 1. Art|Fehlers 1. Art]] niedrig gehalten werden; die [[Wahrscheinlichkeit]] eines [[Fehler 2. Art|Fehlers 2. Art]] ist dagegen in der Regel nicht bekannt.
 
 
Man wird deshalb bestrebt sein, die [[Nullhypothese]] abzulehnen, da dann die [[Statistik|statistische]] Sicherheit einer Fehlentscheidung bekannt ist.
 
 
Wenn die [[Zufallsvariable]]n <math>X\;</math> und <math>Y\;</math> in der [[Grundgesamtheit]] wirklich [[Unabhängigkeit (stochastisch)|unabhängig]] sind, dann ist zu erwarten, dass diese Tatsache im Prinzip auch in der [[Stichprobe]] zu beobachten ist.
 
 
Im Prinzip bedeutet dabei, dass Abweichungen zwischen den beobachteten gemeinsamen [[Absolute Häufigkeit|absoluten Häufigkeiten]] <math>h_{kj}</math> und den bei [[Unabhängigkeit (stochastisch)|Unabhängigkeit]] erwarteten gemeinsamen [[Absolute Häufigkeit|absoluten Häufigkeiten]] <math>e_{kj}</math> in der Regel immer auftreten werden.
 
 
Zu entscheiden ist, ob die Abweichungen noch zufallsbedingt sind oder ob es sich um signifikante Abweichungen handelt.
 
 
Da stets die [[Nullhypothese]] [[Statistik|statistisch]] geprüft wird, muss die [[Unabhängigkeit (stochastisch)|Unabhängigkeit]] zwischen <math>X\;</math> und <math>Y\;</math> immer als <math>H_{0}</math> formuliert werden, um die erwarteten [[Absolute Häufigkeit|absoluten Häufigkeiten]] ermitteln zu können.
 
 
Große Abweichungen zwischen beobachteten gemeinsamen [[Absolute Häufigkeit|absoluten Häufigkeiten]] <math>h_{kj}</math> und den bei [[Unabhängigkeit (stochastisch)|Unabhängigkeit]] erwarteten gemeinsamen [[Absolute Häufigkeit|absoluten Häufigkeiten]] <math>e_{kj}</math> sprechen tendenziell gegen die [[Unabhängigkeit (stochastisch)|Unabhängigkeit]], d.h. man wird die [[Nullhypothese]] ablehnen.
 
 
Das dem Chi-Quadrat-Unabhängigkeitstest zugrunde liegende [[Hypothese]]npaar enthält die [[Wahrscheinlichkeit]]en <math>p_{kj}</math>, <math>p_{k\bullet }</math>, und <math>p_{\bullet j}</math> <math>(k=1,\ldots ,K;\;j=1,\ldots J)</math>.
 
 
Sind <math>X\;</math> und <math>Y\;</math> [[diskrete Zufallsvariable]]n, beinhalten diese [[Wahrscheinlichkeit]]en, dass <math>X\;</math> und <math>Y\;</math> genau eine mögliche [[Realisation]] annehmen:
 
 
<math>p_{kj}=P\left(\left\{X=x_{k}\right\}\cap\left\{ Y=y_{j}\right\}\right)</math>
 
 
<math>p_{k\bullet }=P\left( \left\{ X=x_{k}\right\} \right),\quad p_{\bullet j}=P\left( \left\{ Y=y_{j}\right\} \right)</math>
 
 
Für eine [[stetige Zufallsvariable]] ist die [[Wahrscheinlichkeit]], dass sie einen bestimmten Wert annimmt, jedoch stets Null. Daraus folgt die Notwendigkeit einer Intervallbildung der beobachteten Werte.
 
 
Es bedeuten im [[stetige Zufallsvariable|stetigen]] Fall:
 
 
<math>p_{kj}</math> die [[Wahrscheinlichkeit]], dass die [[Zufallsvariable]] <math>X\;</math> einen Wert aus der [[Klasse]] <math>\left( x_{k-1}^{*},x_{k}^{*}\right)</math> und die [[Zufallsvariable]] <math>Y\;</math> einen Wert aus der [[Klasse]] <math>\left(y_{j-1}^{*},y_{j}^{*}\right)</math> annimmt;
 
 
<math>p_{k\bullet}</math> die [[Wahrscheinlichkeit]], dass die [[Zufallsvariable]] <math>X\;</math> einen Wert aus der [[Klasse]] <math>\left( x_{k-1}^{*},x_{k}^{*}\right)</math> annimmt ([[Randwahrscheinlichkeit]] von <math>X\;</math>) und
 
 
<math>p_{\bullet j}</math> die [[Wahrscheinlichkeit]], dass die [[Zufallsvariable]] <math>Y\;</math> einen Wert aus der [[Klasse]] <math>\left( y_{j-1}^{*},y_{j}^{*}\right)</math> annimmt ([[Randwahrscheinlichkeit]] von <math>Y\;</math>):
 
 
<math>p_{kj}=P\left( \left\{ x_{k-1}^{*}<X\leq x_{k}^{*}\right\}\cap\left\{y_{j-1}^{*}<Y\leq y_{j}^{*}\right\}\right)</math>,
 
 
<math>p_{k\bullet}=P\left( x_{k-1}^{*}<X\leq x_{k}^{*}\right),\quad p_{\bullet j}=P\left( y_{j-1}^{*}<Y\leq y_{j}^{*}\right)</math>
 
 
Um diese Darstellung zu vereinfachen und mit dem [[Diskretes Merkmal|diskreten]] Fall zu vereinheitlichen, werden statt der [[Klasse]]n repräsentative [[Klasse]]nwerte (im Allgemeinen die [[Klassenmitte]]n) <math>x_{k},\left(k=1, \ldots K\right)</math> und <math>y_{j},\; \left( j=1, \ldots J\right)</math> verwendet. <math>K</math> und <math>J</math> sind die Anzahlen der jeweils gebildeten [[Klasse]]n.
 
 
Es sei jedoch angemerkt, dass auch für eine [[diskrete Zufallsvariable]] eine [[Klasse]]nbildung vorgenommen werden kann, falls es die Problemstellung erfordert.
 
 
====Teststatistik====
 
 
Die Tatsache, dass die beobachteten gemeinsamen [[Absolute Häufigkeit|absoluten Häufigkeiten]] [[Zufallsvariable]]n <math>H_{kj}\;</math> sind, lässt sich wie folgt zeigen, wobei es keine Rolle spielt, ob <math>X\;</math> und <math>Y\;</math> [[diskrete Zufallsvariable|diskret]] oder [[stetige Zufallsvariable|stetig]] sind, so dass nur auf [[diskrete Zufallsvariable]]n Bezug genommen wird.
 
 
Aus der [[Grundgesamtheit]] wird ein [[Statistisches Element|Element]] zufällig gezogen und festgestellt, ob das Wertepaar <math>\left( x_{k},y_{j}\right)</math> aufgetreten ist, d.h. ob das [[Ereignis]] <math>\left\{ X=x_{k}\right\}\cap \left\{ Y=y_{j}\right\}</math> eingetreten ist oder nicht.
 
 
Es gibt somit nur zwei mögliche Ergebnisse des [[Zufallsexperiment]]es. Die [[Wahrscheinlichkeit]] für das Eintreten des [[Ereignis]]ses <math>\left\{X=x_{k}\right\} \cap \left\{ Y=y_{j}\right\}</math> ist <math>p_{kj}</math> und die [[Wahrscheinlichkeit]] für das Nichteintreten <math>1 - p_{kj}</math>.
 
 
Das [[Zufallsexperiment]] wird <math>n</math>-mal wiederholt, wobei die einzelnen Versuche [[Unabhängigkeit (stochastisch)|unabhängig]] voneinander (da eine [[einfache Zufallsstichprobe]] vorausgesetzt wird) und damit die [[Wahrscheinlichkeit]]en <math>p_{kj}</math> konstant sind. Es liegt somit ein [[Bernoulli-Experiment]] vor.
 
 
Bei <math>n</math>-maliger Durchführung der Versuche interessiert die Gesamtzahl des Eintretens des [[Ereignis]]ses <math>\left\{ X=x_{k}\right\}\cap \left\{ Y=y_{j}\right\}</math>, d.h. die [[absolute Häufigkeit]] des Wertepaares <math>\left( x_{k},y_{j}\right)</math> in der [[Stichprobe]].
 
 
Diese Häufigkeit kann von [[Stichprobe]] zu [[Stichprobe]] unterschiedlich sein, so dass
 
 
<math>H_{kj} =\{ \mbox{Anzahl des Auftretens von } \left\{X=x_{k}\right\} \cap \left\{ Y=y_{j}\right\} \mbox{ in einer einfachen Zufallsstichprobe vom Umfang } n\}</math>
 
 
eine [[diskrete Zufallsvariable]] ist, die die Werte <math>0,\;\ldots,\; n</math> annehmen kann.
 
 
Die [[Zufallsvariable]] <math>H_{kj}\;</math> ist [[Binomialverteilung|binomialverteilt]] mit den [[Parameter]]n <math>n</math> und <math>p_{kj}:\; H_{kj}\sim B\left( n;p_{kj}\right)</math>.
 
 
Der [[Erwartungswert]] von <math>H_{kj}\;</math> ist <math>E\left[ H_{kj}\right] =n\cdot p_{kj}</math>.
 
 
Bei Gültigkeit der [[Nullhypothese]], d.h. bei [[Unabhängigkeit (stochastisch)|stochastischer Unabhängigkeit]] von <math>X\;</math> und <math>Y\;</math>, ergibt sich nach dem [[Multiplikationssatz bei Unabhängigkeit]], dass die gemeinsame [[Wahrscheinlichkeit]] <math>p_{kj}</math> das Produkt der beiden [[Randwahrscheinlichkeit]]en <math>p_{k\bullet }</math> und <math>p_{\bullet j}</math> ist, d.h. <math>p_{kj}=p_{k\bullet }\cdot p_{\bullet j}</math>.
 
 
Für die bei [[Unabhängigkeit (stochastisch)|Unabhängigkeit]] erwarteten gemeinsamen [[Absolute Häufigkeit|absoluten Häufigkeiten]]
 
resultiert:
 
 
<math>e_{kj}=n\cdot p_{kj}=n\cdot p_{k\bullet }\cdot p_{\bullet j}</math>.
 
 
Diese Herleitung gilt für alle <math>k=1,\ldots ,K</math> und <math>j=1,\ldots J</math> gleichermaßen.
 
 
Die [[Teststatistik]] basiert auf dem Vergleich der in der [[Stichprobe]] beobachteten und der bei Gültigkeit der [[Nullhypothese]] erwarteten
 
gemeinsamen [[Absolute Häufigkeit|absoluten Häufigkeiten]], wobei letztere wegen der unbekannten [[Wahrscheinlichkeit]]en aus der [[Stichprobe]] zu [[Schätzung|schätzen]] sind: <math>H_{kj}-\widehat{e}_{kj}</math>.
 
 
Damit sich positive und negative Abweichungen nicht aufheben, erfolgt eine Quadrierung: <math>\left( H_{kj}-\widehat{e}_{kj}\right) ^{2}</math>.
 
 
Mit der Division durch <math>\widehat{e}_{kj}</math> wird der unterschiedlichen Bedeutung der Abweichungen Rechnung getragen.
 
 
Eine Differenz <math>h_{kj}-\widehat{e}_{kj}=5</math> fällt bei <math>\widehat{e}_{kj}=10</math> stärker ins Gewicht als bei <math>\widehat{e}_{kj}=100</math>.
 
 
Durch die Summation der normierten Abweichungen über alle Paare <math>(k, j)</math> ergibt sich eine Größe für die in der [[Stichprobe]] insgesamt enthaltenen Abweichungen, die die adäquate [[Teststatistik]] darstellt:
 
 
<math>V=\sum_{k=1}^{K}\sum_{j=1}^{J}\frac{\left( H_{kj}-\widehat{e}_{kj}\right)^{2}}{\widehat{e}_{kj}}</math>
 
 
Da die <math>H_{kj}\;</math> [[Zufallsvariable]]n sind, ist auch <math>V\;</math> eine [[Zufallsvariable]].
 
 
Bei Gültigkeit der [[Nullhypothese]], hinreichend großem [[Stichprobenumfang]] <math>n</math> und Einhaltung der [[Approximation]]sbedingung ist die [[Teststatistik]] <math>V\;</math> [[Approximation|approximativ]] [[Chi-Quadrat-Verteilung|Chi-Quadrat-verteilt]] mit <math>f = (K - 1)\cdot(J - 1)</math> [[Freiheitsgrad]]en.
 
 
Ist die [[Approximation]]sbedingung nicht erfüllt, müssen vor der Anwendung des [[Statistischer Test|Tests]] benachbarte Werte bzw. [[Klasse]]n zusammengefasst werden, was dann auch im [[diskrete Zufallsvariable|diskreten]] Fall mit einer [[Klasse]]nbildung verbunden ist.
 
 
<math>K</math> und <math>J</math> sind die Anzahl der verbliebenen Werte bzw. [[Klasse]]n nach einer eventuell notwendigen Zusammenfassung
 
 
====Anzahl der Freiheitsgrade====
 
 
Insgesamt sind <math>K\cdot J</math> [[Wahrscheinlichkeit]]en <math>p_{kj}</math> in der [[Zweidimensionale Häufigkeitsverteilung|zweidimensionalen Verteilung]] der [[Zufallsvariable]]n <math>X\;</math> und <math>Y\;</math> enthalten.
 
 
Ein [[Freiheitsgrad]] geht grundsätzlich verloren, weil die [[Wahrscheinlichkeit]]en untereinander nicht [[Unabhängigkeit (stochastisch)|unabhängig]] sind.
 
 
Wegen <math>\sum\nolimits_{k}\sum\nolimits_{j}p_{kj}=1</math> folgt, dass jede [[Wahrscheinlichkeit]] <math>p_{kj}</math> durch die anderen <math>K\cdot J - 1</math> [[Wahrscheinlichkeit]]en bestimmt ist.
 
 
<math>f = K \cdot J - 1</math> wäre somit die Anzahl der [[Freiheitsgrad]]e, wenn sich bei Gültigkeit der [[Nullhypothese]] alle [[Wahrscheinlichkeit]]en <math>p_{kj}</math> aus den (bekannten) [[Randwahrscheinlichkeit]]en gemäß <math>p_{kj}=p_{k\bullet }\cdot p_{\bullet j}</math> bestimmen ließen.
 
 
Die [[Randwahrscheinlichkeit]]en <math>p_{k\bullet }</math> und <math>p_{\bullet j}</math> sind jedoch unbekannt und müssen aus der [[Stichprobe]] [[Schätzung|geschätzt]] werden, wodurch sich die Anzahl der [[Freiheitsgrad]]e weiter verringert.
 
 
Die [[Randverteilung]] von <math>X\;</math> enthält <math>K</math> [[Randwahrscheinlichkeit]]en <math>p_{k\bullet }</math>. Wegen <math>\sum\nolimits_{k}p_{k\bullet }=1</math> sind nur <math>K - 1</math> [[Wahrscheinlichkeit]]en <math>p_{k\bullet }</math> unbekannt und zu [[Schätzung|schätzen]].
 
 
Die [[Randverteilung]] von <math>Y\;</math> enthält <math>J</math> [[Randwahrscheinlichkeit]]en <math>p_{\bullet j }</math>. Wegen <math>\sum_{j}p_{\bullet j}=1</math> sind nur <math>J - 1</math> [[Wahrscheinlichkeit]]en <math>p_{\bullet j}</math> unbekannt und zu [[Schätzung|schätzen]].
 
 
Insgesamt sind damit <math>(K-1)+(J-1)</math> [[Randwahrscheinlichkeit]]en aus der [[Stichprobe]] zu [[Schätzung|schätzen]]. Somit folgt für die Anzahl der [[Freiheitsgrad]]e:
 
 
<math>f=K\cdot J-1-\left[ \left( K-1\right) +\left( J-1\right) \right]=K\cdot J-K-J+1=\left( K-1\right) \cdot \left( J-1\right)</math>
 
 
Da in der [[Teststatistik]] die Terme <math>\frac{\left(H_{kj}-\widehat{e}_{kj}\right)^{2}}{\widehat{e}_{kj}}</math> nur positive Werte annehmen können, nimmt die [[Teststatistik]] <math>V\;</math> ebenfalls nur positive Werte an.
 
 
Große Abweichungen <math>H_{kj}-\widehat{e}_{kj}</math> führen zu großen Werten von <math>V\;</math>.
 
 
Somit führen nur große Werte von <math>V\;</math> zur [[Ablehnungsbereich der Nullhypothese|Ablehnung der <math>H_{0}</math>]], während kleine Werte von <math>V</math> nicht gegen die [[Nullhypothese]] sprechen. Der Chi-Quadrat-Unabhängigkeitstest ist somit ein [[rechtsseitiger Test]].
 
  
 
=={{Vorlage:Beispiele}}==
 
=={{Vorlage:Beispiele}}==

Version vom 22. November 2018, 09:22 Uhr

Testtheorie

Grundbegriffe der Testtheorie • Entscheidungsbereiche • Entscheidungssituationen • Zweiseitiger Test • Einseitiger Test • Gütefunktion • Test auf Mittelwert • Gauß-Test • Gütefunktion des Gauß-Tests • Einstichproben-t-Test • Test auf Anteilswert • Test auf Differenz zweier Mittelwerte • Zweistichproben-Gauß-Test • Zweistichproben-t-Test • Chi-Quadrat-Anpassungstest • Chi-Quadrat-Unabhängigkeitstest • Multiple Choice • Video • Aufgaben • Lösungen
Ablehnungsbereich der Nullhypothese • alpha-Fehler • Alternativhypothese • Anpassungstest • beta-Fehler • Entscheidungsbereiche (Chi-Quadrat-Anpassungstest) • Entscheidungsbereiche (Chi-Quadrat-Unabhängigkeitstest) • Entscheidungsbereiche (Einstichproben-t-Test) • Entscheidungsbereiche (Gauß-Test) • Entscheidungsbereiche (Test auf Anteilswert) • Entscheidungsbereiche (Zweistichproben-Gauß-Test) • Entscheidungsbereiche (Zweistichproben-t-Test) • Entscheidungssituationen (Chi-Quadrat-Anpassungstest) • Entscheidungssituationen (Chi-Quadrat-Unabhängigkeitstest) • Entscheidungssituationen (Einstichproben-t-Test) • Entscheidungssituationen (Gauß-Test) • Entscheidungssituationen (Test auf Anteilswert) • Entscheidungssituationen (Zweistichproben-Gauß-Test) • Entscheidungssituationen (Zweistichproben-t-Test) • Fehler 1. Art • Fehler 2. Art • Goodness-of-fit-Test • Gütefunktion des Tests auf Anteilswert • Hypothese • Kritischer Wert • Linksseitiger Test • Macht eines Tests • Nichtablehnungsbereich der Nullhypothese • Nullhypothese • OC-Kurve • Operationscharakteristik • Parametertest • Prüfgröße • Prüfwert • Prüfwert (Chi-Quadrat-Anpassungstest) • Prüfwert (Chi-Quadrat-Unabhängigkeitstest) • Prüfwert (Einstichproben-t-Test) • Prüfwert (Gauß-Test) • Prüfwert (Test auf Anteilswert) • Prüfwert (Zweistichproben-Gauß-Test) • Prüfwert (Zweistichproben-t-Test) • Rechtsseitiger Test • Signifikanzniveau • Statistischer Test • Testgröße • Teststatistik • Teststatistik (Chi-Quadrat-Anpassungstest) • Teststatistik (Chi-Quadrat-Unabhängigkeitstest) • Teststatistik (Einstichproben-t-Test) • Teststatistik (Gauß-Test) • Teststatistik (Test auf Anteilswert) • Teststatistik (Zweistichproben-Gauß-Test) • Teststatistik (Zweistichproben-t-Test) • Verteilungstest • Zweistichprobentest

Grundbegriffe

Chi-Quadrat-Unabhängigkeitstest

Bei einem Chi-Quadrat-Unabhängigkeitstest wird geprüft, ob zwei Zufallsvariablen stochastisch unabhängig sind. Dieser statistische Test gehört zu den nichtparametrischen Tests.

An das Skalenniveau der Zufallsvariablen werden keine Voraussetzungen gestellt.

Es sei allgemein angenommen, dass zwei Zufallsvariablen und gleichzeitig an statistischen Einheiten () beobachtet werden, wobei die Unabhängigkeit der Stichprobenziehungen vorausgesetzt wird (einfache Zufallsstichprobe).

Sind und diskrete Zufallsvariablen (darunter werden im weiteren summarisch nominalskalierte, ordinalskalierte sowie diskrete Zufallsvariablen mit sehr wenigen Ausprägungen verstanden), nehmen sie die Stichprobenrealisationen und an.

Sind und stetige Zufallsvariablen (darunter werden im weiteren auch die diskreten Zufallsvariablen mit sehr vielen bzw. unendlich vielen Ausprägungen, d.h. die genannten quasi-stetigen Zufallsvariablen, gefasst), muss eine Intervallbildung der beobachteten Werte in disjunkte, aneinander angrenzende Klassen erfolgen.

und sind dann repräsentative Klassenwerte (im Allgemeinen die Klassenmitten) und und die Anzahl der gebildeten Klassen.

Eine geeignete Darstellungsform für die beobachtete gemeinsame Häufigkeitsverteilung der zwei Zufallsvariablen ist die zweidimensionale Häufigkeitstabelle (auch als Kontingenztabelle oder Kreuztabelle bezeichnet).

Zweidimensionale Häufigkeitstabelle:

RV
RV

bezeichnet die absolute Häufigkeit für das beobachtete Wertepaar , d.h. dass den Wert bzw. einen Wert aus der -ten Klasse und gleichzeitig den Wert bzw. einen Wert aus der -ten Klasse angenommen hat:

Die letzte Spalte enthält die beobachtete Randverteilung (RV) von mit den absoluten Randhäufigkeiten .

gibt an, wie oft den Wert bzw. einen Wert aus der -ten Klasse angenommen hat, wobei es gleichgültig ist, welchen Wert aufweist.

Die letzte Zeile weist die beobachtete Randverteilung von mit den absoluten Randhäufigkeiten aus.

gibt an, wie oft den Wert bzw. einen Wert aus der -ten Klasse angenommen hat, wobei es gleichgültig ist, welchen Wert aufweist.

Für die zweidimensionale Häufigkeitstabelle gelten folgende Beziehungen:

.

Die Nullhypothese lautet beim Chi-Quadrat-Unabhängigkeitstest stets, dass die Zufallsvariablen und in der Grundgesamtheit stochastisch unabhängig sind. Die Alternativhypothese enthält das logische Pendant.

: und sind stochastisch unabhängig.

: und sind nicht stochastisch abhängig.

Wenn die Nullhypothese gilt, dann ergibt sich nach dem Multiplikationssatz bei Unabhängigkeit

Dabei bezeichnen:

die Wahrscheinlichkeit, dass die Zufallsvariable den Wert bzw. einen Wert aus der -ten Klasse und gleichzeitig den Wert bzw. einen Wert aus der -ten Klasse annimmt;

die Wahrscheinlichkeit, dass die Zufallsvariable den Wert bzw. einen Wert aus der -ten Klasse annimmt (Randwahrscheinlichkeit von ) und

die Wahrscheinlichkeit, dass die Zufallsvariable den Wert bzw. einen Wert aus der -ten Klasse annimmt (Randwahrscheinlichkeit von ).

Das Hypothesenpaar kann somit konkretisiert werden:

für alle Paare

für mindestens ein Paar

Das Signifikanzniveau und der Stichprobenumfang sind vor der Testdurchführung festzulegen.

Teststatistik des Chi-Quadrat-Unabhängigkeitstests

Für die Bestimmung der Teststatistik wird von den absoluten Häufigkeiten ausgegangen. Der Test basiert auf dem Vergleich der in der Stichprobe beobachteten und der bei Gültigkeit der Nullhypothese erwarteten gemeinsamen absoluten Häufigkeiten.

Für die konkrete Stichprobe sind die gemeinsamen absoluten Häufigkeiten

in den Zellen der zweidimensionalen Häufigkeitstabelle gegeben. Da diese absoluten Häufigkeiten Ergebnis eines Zufallsexperimentes sind, können sie von Stichprobe zu Stichprobe unterschiedliche Werte annehmen, d.h., sie sind Realisationen von Zufallsvariablen .

Wenn die Nullhypothese gilt, ergeben sich die erwarteten gemeinsamen absoluten Häufigkeiten als .

Da die gemeinsamen Wahrscheinlichkeiten und die Randwahrscheinlichkeiten und für alle und unbekannt sind, müssen sie aus der Stichprobe geschätzt werden.

Erwartungstreue und konsistente Punktschätzungen für und sind die relativen Randhäufigkeiten und .

Das beinhaltet, dass von festen Randhäufigkeiten der zweidimensionalen Häufigkeitstabelle ausgegangen wird. Damit erhält man Schätzungen für die unter erwarteten gemeinsamen absoluten Häufigkeiten:

Der Vergleich zwischen den in der Stichprobe beobachteten und den bei Gültigkeit der Nullhypothese erwarteten gemeinsamen absoluten Häufigkeiten baut auf den Differenzen auf.

Eine summarische Größe, die die Abweichung von der Nullhypothese bewertet, ist die Teststatistik

Bei Gültigkeit der Nullhypothese ist die Teststatistik approximativ Chi-Quadrat-verteilt mit Freiheitsgraden.

Die Approximation an die Chi-Quadrat-Verteilung ist hinreichend, wenn für alle gilt.

Ist diese Bedingungen nicht erfüllt, müssen vor der Anwendung des Tests benachbarte Werte bzw. Klassen zusammengefaßt werden. und sind die Anzahlen der verbliebenen Werte bzw. Klassen nach einer eventuell notwendigen Zusammenfassung.

Der kritische Wert wird für und die Anzahl der Freiheitsgrade aus der Tabelle der Verteilungsfunktion der Chi-Quadrat-Verteilung entnommen.

Entscheidungsbereiche des Chi-Quadrat-Unabhängigkeitstests

Die Entscheidungsbereiche sind:

Ablehnungsbereich der

Nichtablehnungsbereich der

Die Wahrscheinlichkeit, dass die Teststatistik eine Realisation aus dem Ablehnungsbereich der annimmt, entspricht dem vorgegebenen Signifikanzniveau .

Die Wahrscheinlichkeit, dass die Teststatistik eine Realisation aus dem Nichtablehnungsbereich der annimmt, ist .

Nichtablehnungsbereich der | Ablehnungsbereich der

Prüfwert des Chi-Quadrat-Unabhängigkeitstests

Wenn die Zufallsstichprobe vom Umfang gezogen wurde, können die absoluten Häufigkeiten für alle beobachteten Wertepaare ermittelt, daraus die beobachteten Randhäufigkeiten für und bestimmt und die erwarteten absoluten Häufigkeiten berechnet werden.

Ist die Approximationsbedingung nicht erfüllt, müssen Werte bzw. Klassen geeignet zusammengefaßt und die Häufigkeiten , , und erneut bestimmt werden.

Einsetzen von und für alle in die Teststatistik führt zu einem Prüfwert .

Entscheidungssituationen des Chi-Quadrat-Unabhängigkeitstests

Wenn in den Ablehnungsbereich der fällt, wird die Nullhypothese auf dem Signifikanzniveau und basierend auf der Zufallsstichprobe vom Umfang abgelehnt .

Es konnte statistisch gezeigt werden, dass die Zufallsvariablen und nicht stochastisch unabhängig sind.

Bei dieser Entscheidung besteht die Möglichkeit einen Fehler 1. Art zu begehen, wenn in Wirklichkeit die Nullhypothese richtig ist.

Die Wahrscheinlichkeit für einen Fehler 1. Art entspricht dem vorgegebenen Signifikanzniveau .

Wenn in den Nichtablehnungsbereich der fällt, wird die Nullhypothese basierend auf der Zufallsstichprobe vom Umfang nicht abgelehnt .

Das Stichprobenergebnis gibt keine Veranlassung, die Unabhängigkeit der Zufallsvariablen und zu verwerfen.

Bei dieser Entscheidung besteht die Möglichkeit, einen Fehler 2. Art zu begehen, wenn in Wirklichkeit die Alternativhypothese richtig ist.

Beispiele

Mängel und Alter

Es wird vermutet, dass die Anzahl der festgestellten Mängel an einem Pkw und das Alter des Pkw stochastisch unabhängig sind.

Um diese Annahme zu überprüfen, wird ein Chi-Quadrat-Unabhängigkeitstest auf einem Signifikanzniveau von durchgeführt.

Für die Zufallsvariable : "Anzahl der Mängel am Pkw" werden die Realisationen = "kein Mangel", = "1 Mangel" und = "2 oder mehr Mängel" und

für die Zufallsvariable : "Alter des Pkw" die Realisationen = "bis einschließlich 1 Jahr", = "über 1 Jahr bis einschließlich 2 Jahre" und = "2 Jahre oder älter" betrachtet.

Da stets die Nullhypothese statistischgeprüft wird, muss die Unabhängigkeit zwischen und als formuliert werden, um die gemeinsamen erwarteten absoluten Häufigkeiten ermitteln zu können, so dass das Hypothesenpaar lautet:

und sind stochastisch unabhängig.

und sind nicht stochastisch unabhängig.

bzw.

für alle Paare

für mindestens ein Paar

Teststatistik

Es wird die Teststatistik des Chi-Quadrat-Unabhängigkeitstests verwendet:

die bei Gültigkeit der Nullhypothese approximativ Chi-Quadrat-verteiltist mit der Anzahl der Freiheitsgrade .

Die Entscheidungsbereiche der Nullhypothese können erst nach Vorliegen der Stichprobe festgelegt werden, da

Entscheidungsbereiche und Prüfwert

Bei einer konkreten Polizeikontrolle an verschiedenen Straßenstellen, wobei die Auswahl der Pkw zufällig erfolgte, wurde die Anzahl der Mängel und das Alter an 110 Pkw registriert.

Die sich aus der Stichprobe ergebenden gemeinsamen absoluten Häufigkeiten und Randhäufigkeiten sind in der folgenden Tabelle enthalten.

Gleichzeitig wurden in den Zellen dieser Tabelle die geschätzten gemeinsamen absoluten Häufigkeiten bei Gültigkeit der Nullhypothese aufgenommen, die sich gemäß

ergeben (gerundet auf eine Dezimalstelle).

Mängelanzahl Alter RV
1-2 2 oder älter
0 beobachtet 30 14 5 49
erwartet 26,7 13,4 8,9
1 beobachtet 18 10 4 32
erwartet 17,5 8,7 5,8
2 oder mehr beobachtet 12 6 11 29
erwartet 15,8 7,9 5,3
RV 60 30 20 110

Die Approximationsbedingung ist erfüllt, da alle sind. Mit und folgt für die Anzahl der Freiheitsgrade: .

Für und findet man aus der Tabelle der Verteilungsfunktion der Chi-Quadrat-Verteilung den kritischen Wert .

Die Entscheidungsbereiche sind damit:

Ablehnungsbereich der

Nichtablehnungsbereich der

Als Prüfwert ergibt sich:

Testentscheidung

Da in den Ablehnungsbereich der fällt, wird die Nullhypothese abgelehnt .

Auf einem Signifikanzniveau von und basierend auf einer Zufallsstichprobe vom Umfang konnte statistisch bewiesen werden, dass die Zufallsvariablen : "Anzahl der Mängel am Pkw" und : "Alter des Pkw" stochastisch unabhängig sind.

Bei dieser Entscheidung besteht die Möglichkeit, einen Fehler 1. Art zu begehen, wenn in Wirklichkeit die Nullhypothese richtig ist.

Die Wahrscheinlichkeit für einen Fehler 1. Art entspricht dem vorgegebenen Signifikanzniveau .

Umfrage

Bei einer Umfrage in den Jahren 1991 und 1996 wurde zufällig ausgewählten Bürgern der Bundesrepublik Deutschland mit einem Alter von mindestens 18 Jahre zum Befragungszeitpunkt die folgenden Fragen gestellt:

1. "Wie beurteilen Sie die heutige wirtschaftliche Lage in Deutschland?"

2. "Wie wird die wirtschaftliche Lage in Deutschland in einem Jahr sein?"

Die Einschätzungen konnten die Befragten jeweils auf einer fünfteiligen Skala vornehmen:

1. Frage: 1 - sehr gut, 2 - gut, 3 - teils gut / teils schlecht, 4 - schlecht, 5 - sehr schlecht

2. Frage: 1 - wesentlich besser als heute, 2 - etwas besser, 3 - gleichbleibend, 4 - etwas schlechter, 5 - wesentlich schlechter.

Der Inhalt der 1. Frage wird als Zufallsvariable "Gegenwärtige Wirtschaftslage" und der Inhalt der 2. Frage als Zufallsvariable "Zukünftige Wirtschaftslage" definiert, die die genannten 5 möglichen Realisationen annehmen können.

Darüber hinaus wurde u.a. erfasst, ob die befragte Person aus den alten Bundesländern (einschließlich West-Berlin) oder aus den neuen Bundesländern (einschließlich Ost-Berlin) stammt.

Dies sei die Zufallsvariable : "Erhebungsgebiet" mit den möglichen Realisationen "West" und "Ost".

Es soll auf einem Signifikanzniveau von geprüft werden, ob die Zufallsvariablen und bzw. und in den Jahren 1991 bzw. 1996 unabhängig sind.

Da stets die Nullhypothese statistisch geprüft wird, muss die Unabhängigkeit zwischen den beiden Zufallsvariablen als formuliert werden, um die gemeinsamen erwarteten absoluten Häufigkeiten ermitteln zu können, so dass die Hypothesenpaare lauten:

und sind stochastisch unabhängig.

und sind nicht stochastisch unabhängig.

und

und sind stochastisch unabhängig.

und sind nicht stochastisch unabhängig.

Teststatistik

Es wird die Teststatistik des Chi-Quadrat-Unabhängigkeitstest verwendet

die bei Gültigkeit der Nullhypothese approximativ Chi-Quadrat-verteilt ist mit der Anzahl der Freiheitsgrade .

Die Entscheidungsbereiche der Nullhypothese können erst nach Vorliegen der Stichprobe festgelegt werden, da

Entscheidungsbereiche, Prüfwert und Testentscheidung

Die sich aus den Stichproben im Jahre 1991 und 1996 ergebenden gemeinsamen absoluten Häufigkeiten und Randhäufigkeit]en sind in den folgenden Tabellen 1 - 4 enthalten.

Gleichzeitig werden in die Zellen dieser Tabellen die geschätzten gemeinsamen absoluten Häufigkeiten bei Gültigkeit der Nullhypothese, die sich gemäß

ergeben (gerundet auf eine Dezimalstelle), und die Differenzen aufgenommen.


Tabelle 1: Gegenwärtige Wirtschaftslage und Erhebungsgebiet 1991

Gegenwärtige Wirtschaftslage Erhebungsgebiet RV
West Ost
sehr gut beobachtet 209 165 374
erwartet 184,8 189,2
Differenz 24,2 -24,2
gut beobachtet 744 592 1336
erwartet 660,1 675,9
Differenz 83,9 -83,9
teils/teils beobachtet 431 647 1078
erwartet 532,6 545,5
Differenz -101,6 101,6
schlecht beobachtet 36 39 75
erwartet 37,1 37,9
Differenz -1,1 1,1
sehr schlecht beobachtet 4 15 19
erwartet 9,4 9,6
Differenz -5,4 5,4
RV 1424 1458 2882


Tabelle 2: Gegenwärtige Wirtschaftslage und Erhebungsgebiet 1996

Gegenwärtige Wirtschaftslage Erhebungsgebiet RV
West Ost
sehr gut beobachtet 20 6 26
erwartet 17,2 8,8
Differenz 2,8 -2,8
gut beobachtet 264 116 380
erwartet 251,3 128,7
Differenz 12,7 -12,7
teils/teils beobachtet 1006 557 1563
erwartet 1033,7 529,3
Differenz -27,7 27,7
schlecht beobachtet 692 335 1027
erwartet 679,2 347,8
Differenz 12,8 -12,8
sehr schlecht beobachtet 141 73 214
erwartet 141,5 72,5
Differenz -0,5 0,5
RV 2123 1087 3210


Tabelle 3: Zukünftige Wirtschaftslage und Erhebungsgebiet 1991

Zukünftige Wirtschaftslage Erhebungsgebiet RV
West Ost
wesentlich besser beobachtet 75 203 278
erwartet 137,4 140,6
Differenz -62,4 62,4
etwas besser beobachtet 449 763 1212
erwartet 598,9 613,1
Differenz -149,9 149,9
gleichbleibend beobachtet 684 414 1108
erwartet 547,5 560,5
Differenz 136,5 -136,5
etwas schlechter beobachtet 200 62 262
erwartet 129,5 132,5
Differenz 70,5 -70,5
wesentlich schlechter beobachtet 16 6 22
erwartet 10,9 11,1
Differenz 5,1 -5,1
RV 1424 1458 2882


Tabelle 4: Zukünftige Wirtschaftslage und Erhebungsgebiet 1996

Zukünftige Wirtschaftslage Erhebungsgebiet RV
West Ost
wesentlich besser beobachtet 9 6 15
erwartet 9,9 5,1
Differenz -0,9 0,9
etwas besser beobachtet 190 131 321
erwartet 212,3 108,7
Differenz -22,3 22,3
gleichbleibend beobachtet 809 444 1253
erwartet 828,7 42,3
Differenz -19,7 19,7
etwas schlechter beobachtet 960 426 1386
erwartet 916,7 469,3
Differenz 43,3 -43,3
wesentlich schlechter beobachtet 155 80 235
erwartet 155,4 79,6
Differenz -0,4 0,4
RV 2123 1087 3210

Für alle 4 durchzuführende Tests gilt:

Die Approximationsbedingung ist erfüllt, da alle sind. Mit und folgt für die Anzahl der Freiheitsgrade: .

Für und findet man aus der Tabelle der Verteilungsfunktion der Chi-Quadrat-Verteilung den kritischen Wert .

Die Entscheidungsbereiche sind damit:

Ablehnungsbereich der

Nichtablehnungsbereich der

Als Prüfwerte und Testentscheidung ergeben sich:

Jahr Zufallsvariablen Prüfwert Testentscheidung
1991 71,85
1996 6,15
1991 278,17
1996 14,61

Interpretation

  • Gegenwärtige Wirtschaftslage in Deutschland:
Während für 1991 auf einem Signifikanzniveau von die Nullhypothese abgelehnt wird, d.h. statistisch eine Abhängigkeit zwischen den Zufallsvariablen : "Gegenwärtige Wirtschaftslage" und : "Erhebungsgebiet" nachgewiesen werden konnte, wird für das Jahr 1996 die Nullhypothese nicht abgelehnt.
1991 bewerteten die Befragten in den alten Bundesländern die gegenwärtige Wirtschaftslage tendenziell deutlich zufriedener als die Befragten in den neuen Bundesländern, was anhand der großen positiven Differenzen bei der sehr guten und guten Einschätzung in der Spalte West der Tabelle 1 zu erkennen ist.
Auch 1996 treten Differenzen zwischen und auf, aber sie sind in ihrer Gesamtheit nicht mehr signifikant.
Es hat offensichtlich eine Angleichung in den Einschätzungen der gegenwärtigen Wirtschaftslage zwischen West und Ost stattgefunden.
  • Zukünftige Wirtschaftslage in Deutschland:
Bezüglich der Zufallsvariablen : "Zukünftige Wirtschaftslage" und : "Erhebungsgebiet" wird für beide Jahre die Nullhypothese der Unabhängigkeit auf einem Signifikanzniveau von abgelehnt.
Hierbei sind es jedoch die Befragten in den neuen Bundesländern, die in beiden Jahren die zukünftige Wirtschaftslage tendenziell deutlich optimistischer bewerten als die Befragten in den alten Bundesländern.
Vergleicht man beide Jahre miteinander, so sind die Differenzen 1996 kleiner als 1991, was ebenfalls auf eine gewisse Annäherung in den Bewertungen zwischen West und Ost schließen lässt, jedoch sind sie auch 1996 in ihrer Gesamtheit noch statistisch signifikant.