|
|
Zeile 205: |
Zeile 205: |
|
| |
|
| Bei dieser Entscheidung besteht die Möglichkeit, einen [[Fehler 2. Art]] <math>(\mbox{''}H_{0}\mbox{''}| H_{1})</math> zu begehen, wenn in Wirklichkeit die [[Alternativhypothese]] richtig ist. | | Bei dieser Entscheidung besteht die Möglichkeit, einen [[Fehler 2. Art]] <math>(\mbox{''}H_{0}\mbox{''}| H_{1})</math> zu begehen, wenn in Wirklichkeit die [[Alternativhypothese]] richtig ist. |
|
| |
| ==Zusatzinformationen==
| |
|
| |
| ===Herleitung des Chi-Quadrat-Unabhängigkeitstests===
| |
|
| |
| ====Hypothesen====
| |
|
| |
| Die generelle Vorgehensweise bei Unabhängigkeitstests ist im Prinzip wie bei den [[Parametertest]]s. Es wird eine [[Teststatistik]]
| |
| konstruiert, die die Informationen bei Gültigkeit der [[Nullhypothese]] sowie die Informationen aus der [[Zufallsstichprobe]] enthält und auf deren Basis eine Aussage über die [[Nullhypothese]] möglich ist.
| |
|
| |
| Die Verteilung der [[Teststatistik]] muss unter der [[Nullhypothese]] (zumindest [[Approximation|approximativ]]) bekannt sein.
| |
|
| |
| Auch bei Unabhängigkeitstests wird stets die [[Nullhypothese]] [[Statistik|statistisch]] geprüft und in Abhängigkeit von der Testentscheidung besteht die Möglichkeit, einen [[Fehler 1. Art]] mit der [[Wahrscheinlichkeit]] <math>P\left(\mbox{''}H_{1}\mbox{''}|H_{0}\right)=\alpha</math> bzw. einen [[Fehler 2. Art]] mit der [[Wahrscheinlichkeit]] <math>P\left(\mbox{''}H_{0}\mbox{''}|H_{1}\right)=\beta</math> zu begehen.
| |
|
| |
| Mit dem vorgegebenen [[Signifikanzniveau]] kann die [[Wahrscheinlichkeit]] eines [[Fehler 1. Art|Fehlers 1. Art]] niedrig gehalten werden; die [[Wahrscheinlichkeit]] eines [[Fehler 2. Art|Fehlers 2. Art]] ist dagegen in der Regel nicht bekannt.
| |
|
| |
| Man wird deshalb bestrebt sein, die [[Nullhypothese]] abzulehnen, da dann die [[Statistik|statistische]] Sicherheit einer Fehlentscheidung bekannt ist.
| |
|
| |
| Wenn die [[Zufallsvariable]]n <math>X\;</math> und <math>Y\;</math> in der [[Grundgesamtheit]] wirklich [[Unabhängigkeit (stochastisch)|unabhängig]] sind, dann ist zu erwarten, dass diese Tatsache im Prinzip auch in der [[Stichprobe]] zu beobachten ist.
| |
|
| |
| Im Prinzip bedeutet dabei, dass Abweichungen zwischen den beobachteten gemeinsamen [[Absolute Häufigkeit|absoluten Häufigkeiten]] <math>h_{kj}</math> und den bei [[Unabhängigkeit (stochastisch)|Unabhängigkeit]] erwarteten gemeinsamen [[Absolute Häufigkeit|absoluten Häufigkeiten]] <math>e_{kj}</math> in der Regel immer auftreten werden.
| |
|
| |
| Zu entscheiden ist, ob die Abweichungen noch zufallsbedingt sind oder ob es sich um signifikante Abweichungen handelt.
| |
|
| |
| Da stets die [[Nullhypothese]] [[Statistik|statistisch]] geprüft wird, muss die [[Unabhängigkeit (stochastisch)|Unabhängigkeit]] zwischen <math>X\;</math> und <math>Y\;</math> immer als <math>H_{0}</math> formuliert werden, um die erwarteten [[Absolute Häufigkeit|absoluten Häufigkeiten]] ermitteln zu können.
| |
|
| |
| Große Abweichungen zwischen beobachteten gemeinsamen [[Absolute Häufigkeit|absoluten Häufigkeiten]] <math>h_{kj}</math> und den bei [[Unabhängigkeit (stochastisch)|Unabhängigkeit]] erwarteten gemeinsamen [[Absolute Häufigkeit|absoluten Häufigkeiten]] <math>e_{kj}</math> sprechen tendenziell gegen die [[Unabhängigkeit (stochastisch)|Unabhängigkeit]], d.h. man wird die [[Nullhypothese]] ablehnen.
| |
|
| |
| Das dem Chi-Quadrat-Unabhängigkeitstest zugrunde liegende [[Hypothese]]npaar enthält die [[Wahrscheinlichkeit]]en <math>p_{kj}</math>, <math>p_{k\bullet }</math>, und <math>p_{\bullet j}</math> <math>(k=1,\ldots ,K;\;j=1,\ldots J)</math>.
| |
|
| |
| Sind <math>X\;</math> und <math>Y\;</math> [[diskrete Zufallsvariable]]n, beinhalten diese [[Wahrscheinlichkeit]]en, dass <math>X\;</math> und <math>Y\;</math> genau eine mögliche [[Realisation]] annehmen:
| |
|
| |
| <math>p_{kj}=P\left(\left\{X=x_{k}\right\}\cap\left\{ Y=y_{j}\right\}\right)</math>
| |
|
| |
| <math>p_{k\bullet }=P\left( \left\{ X=x_{k}\right\} \right),\quad p_{\bullet j}=P\left( \left\{ Y=y_{j}\right\} \right)</math>
| |
|
| |
| Für eine [[stetige Zufallsvariable]] ist die [[Wahrscheinlichkeit]], dass sie einen bestimmten Wert annimmt, jedoch stets Null. Daraus folgt die Notwendigkeit einer Intervallbildung der beobachteten Werte.
| |
|
| |
| Es bedeuten im [[stetige Zufallsvariable|stetigen]] Fall:
| |
|
| |
| <math>p_{kj}</math> die [[Wahrscheinlichkeit]], dass die [[Zufallsvariable]] <math>X\;</math> einen Wert aus der [[Klasse]] <math>\left( x_{k-1}^{*},x_{k}^{*}\right)</math> und die [[Zufallsvariable]] <math>Y\;</math> einen Wert aus der [[Klasse]] <math>\left(y_{j-1}^{*},y_{j}^{*}\right)</math> annimmt;
| |
|
| |
| <math>p_{k\bullet}</math> die [[Wahrscheinlichkeit]], dass die [[Zufallsvariable]] <math>X\;</math> einen Wert aus der [[Klasse]] <math>\left( x_{k-1}^{*},x_{k}^{*}\right)</math> annimmt ([[Randwahrscheinlichkeit]] von <math>X\;</math>) und
| |
|
| |
| <math>p_{\bullet j}</math> die [[Wahrscheinlichkeit]], dass die [[Zufallsvariable]] <math>Y\;</math> einen Wert aus der [[Klasse]] <math>\left( y_{j-1}^{*},y_{j}^{*}\right)</math> annimmt ([[Randwahrscheinlichkeit]] von <math>Y\;</math>):
| |
|
| |
| <math>p_{kj}=P\left( \left\{ x_{k-1}^{*}<X\leq x_{k}^{*}\right\}\cap\left\{y_{j-1}^{*}<Y\leq y_{j}^{*}\right\}\right)</math>,
| |
|
| |
| <math>p_{k\bullet}=P\left( x_{k-1}^{*}<X\leq x_{k}^{*}\right),\quad p_{\bullet j}=P\left( y_{j-1}^{*}<Y\leq y_{j}^{*}\right)</math>
| |
|
| |
| Um diese Darstellung zu vereinfachen und mit dem [[Diskretes Merkmal|diskreten]] Fall zu vereinheitlichen, werden statt der [[Klasse]]n repräsentative [[Klasse]]nwerte (im Allgemeinen die [[Klassenmitte]]n) <math>x_{k},\left(k=1, \ldots K\right)</math> und <math>y_{j},\; \left( j=1, \ldots J\right)</math> verwendet. <math>K</math> und <math>J</math> sind die Anzahlen der jeweils gebildeten [[Klasse]]n.
| |
|
| |
| Es sei jedoch angemerkt, dass auch für eine [[diskrete Zufallsvariable]] eine [[Klasse]]nbildung vorgenommen werden kann, falls es die Problemstellung erfordert.
| |
|
| |
| ====Teststatistik====
| |
|
| |
| Die Tatsache, dass die beobachteten gemeinsamen [[Absolute Häufigkeit|absoluten Häufigkeiten]] [[Zufallsvariable]]n <math>H_{kj}\;</math> sind, lässt sich wie folgt zeigen, wobei es keine Rolle spielt, ob <math>X\;</math> und <math>Y\;</math> [[diskrete Zufallsvariable|diskret]] oder [[stetige Zufallsvariable|stetig]] sind, so dass nur auf [[diskrete Zufallsvariable]]n Bezug genommen wird.
| |
|
| |
| Aus der [[Grundgesamtheit]] wird ein [[Statistisches Element|Element]] zufällig gezogen und festgestellt, ob das Wertepaar <math>\left( x_{k},y_{j}\right)</math> aufgetreten ist, d.h. ob das [[Ereignis]] <math>\left\{ X=x_{k}\right\}\cap \left\{ Y=y_{j}\right\}</math> eingetreten ist oder nicht.
| |
|
| |
| Es gibt somit nur zwei mögliche Ergebnisse des [[Zufallsexperiment]]es. Die [[Wahrscheinlichkeit]] für das Eintreten des [[Ereignis]]ses <math>\left\{X=x_{k}\right\} \cap \left\{ Y=y_{j}\right\}</math> ist <math>p_{kj}</math> und die [[Wahrscheinlichkeit]] für das Nichteintreten <math>1 - p_{kj}</math>.
| |
|
| |
| Das [[Zufallsexperiment]] wird <math>n</math>-mal wiederholt, wobei die einzelnen Versuche [[Unabhängigkeit (stochastisch)|unabhängig]] voneinander (da eine [[einfache Zufallsstichprobe]] vorausgesetzt wird) und damit die [[Wahrscheinlichkeit]]en <math>p_{kj}</math> konstant sind. Es liegt somit ein [[Bernoulli-Experiment]] vor.
| |
|
| |
| Bei <math>n</math>-maliger Durchführung der Versuche interessiert die Gesamtzahl des Eintretens des [[Ereignis]]ses <math>\left\{ X=x_{k}\right\}\cap \left\{ Y=y_{j}\right\}</math>, d.h. die [[absolute Häufigkeit]] des Wertepaares <math>\left( x_{k},y_{j}\right)</math> in der [[Stichprobe]].
| |
|
| |
| Diese Häufigkeit kann von [[Stichprobe]] zu [[Stichprobe]] unterschiedlich sein, so dass
| |
|
| |
| <math>H_{kj} =\{ \mbox{Anzahl des Auftretens von } \left\{X=x_{k}\right\} \cap \left\{ Y=y_{j}\right\} \mbox{ in einer einfachen Zufallsstichprobe vom Umfang } n\}</math>
| |
|
| |
| eine [[diskrete Zufallsvariable]] ist, die die Werte <math>0,\;\ldots,\; n</math> annehmen kann.
| |
|
| |
| Die [[Zufallsvariable]] <math>H_{kj}\;</math> ist [[Binomialverteilung|binomialverteilt]] mit den [[Parameter]]n <math>n</math> und <math>p_{kj}:\; H_{kj}\sim B\left( n;p_{kj}\right)</math>.
| |
|
| |
| Der [[Erwartungswert]] von <math>H_{kj}\;</math> ist <math>E\left[ H_{kj}\right] =n\cdot p_{kj}</math>.
| |
|
| |
| Bei Gültigkeit der [[Nullhypothese]], d.h. bei [[Unabhängigkeit (stochastisch)|stochastischer Unabhängigkeit]] von <math>X\;</math> und <math>Y\;</math>, ergibt sich nach dem [[Multiplikationssatz bei Unabhängigkeit]], dass die gemeinsame [[Wahrscheinlichkeit]] <math>p_{kj}</math> das Produkt der beiden [[Randwahrscheinlichkeit]]en <math>p_{k\bullet }</math> und <math>p_{\bullet j}</math> ist, d.h. <math>p_{kj}=p_{k\bullet }\cdot p_{\bullet j}</math>.
| |
|
| |
| Für die bei [[Unabhängigkeit (stochastisch)|Unabhängigkeit]] erwarteten gemeinsamen [[Absolute Häufigkeit|absoluten Häufigkeiten]]
| |
| resultiert:
| |
|
| |
| <math>e_{kj}=n\cdot p_{kj}=n\cdot p_{k\bullet }\cdot p_{\bullet j}</math>.
| |
|
| |
| Diese Herleitung gilt für alle <math>k=1,\ldots ,K</math> und <math>j=1,\ldots J</math> gleichermaßen.
| |
|
| |
| Die [[Teststatistik]] basiert auf dem Vergleich der in der [[Stichprobe]] beobachteten und der bei Gültigkeit der [[Nullhypothese]] erwarteten
| |
| gemeinsamen [[Absolute Häufigkeit|absoluten Häufigkeiten]], wobei letztere wegen der unbekannten [[Wahrscheinlichkeit]]en aus der [[Stichprobe]] zu [[Schätzung|schätzen]] sind: <math>H_{kj}-\widehat{e}_{kj}</math>.
| |
|
| |
| Damit sich positive und negative Abweichungen nicht aufheben, erfolgt eine Quadrierung: <math>\left( H_{kj}-\widehat{e}_{kj}\right) ^{2}</math>.
| |
|
| |
| Mit der Division durch <math>\widehat{e}_{kj}</math> wird der unterschiedlichen Bedeutung der Abweichungen Rechnung getragen.
| |
|
| |
| Eine Differenz <math>h_{kj}-\widehat{e}_{kj}=5</math> fällt bei <math>\widehat{e}_{kj}=10</math> stärker ins Gewicht als bei <math>\widehat{e}_{kj}=100</math>.
| |
|
| |
| Durch die Summation der normierten Abweichungen über alle Paare <math>(k, j)</math> ergibt sich eine Größe für die in der [[Stichprobe]] insgesamt enthaltenen Abweichungen, die die adäquate [[Teststatistik]] darstellt:
| |
|
| |
| <math>V=\sum_{k=1}^{K}\sum_{j=1}^{J}\frac{\left( H_{kj}-\widehat{e}_{kj}\right)^{2}}{\widehat{e}_{kj}}</math>
| |
|
| |
| Da die <math>H_{kj}\;</math> [[Zufallsvariable]]n sind, ist auch <math>V\;</math> eine [[Zufallsvariable]].
| |
|
| |
| Bei Gültigkeit der [[Nullhypothese]], hinreichend großem [[Stichprobenumfang]] <math>n</math> und Einhaltung der [[Approximation]]sbedingung ist die [[Teststatistik]] <math>V\;</math> [[Approximation|approximativ]] [[Chi-Quadrat-Verteilung|Chi-Quadrat-verteilt]] mit <math>f = (K - 1)\cdot(J - 1)</math> [[Freiheitsgrad]]en.
| |
|
| |
| Ist die [[Approximation]]sbedingung nicht erfüllt, müssen vor der Anwendung des [[Statistischer Test|Tests]] benachbarte Werte bzw. [[Klasse]]n zusammengefasst werden, was dann auch im [[diskrete Zufallsvariable|diskreten]] Fall mit einer [[Klasse]]nbildung verbunden ist.
| |
|
| |
| <math>K</math> und <math>J</math> sind die Anzahl der verbliebenen Werte bzw. [[Klasse]]n nach einer eventuell notwendigen Zusammenfassung
| |
|
| |
| ====Anzahl der Freiheitsgrade====
| |
|
| |
| Insgesamt sind <math>K\cdot J</math> [[Wahrscheinlichkeit]]en <math>p_{kj}</math> in der [[Zweidimensionale Häufigkeitsverteilung|zweidimensionalen Verteilung]] der [[Zufallsvariable]]n <math>X\;</math> und <math>Y\;</math> enthalten.
| |
|
| |
| Ein [[Freiheitsgrad]] geht grundsätzlich verloren, weil die [[Wahrscheinlichkeit]]en untereinander nicht [[Unabhängigkeit (stochastisch)|unabhängig]] sind.
| |
|
| |
| Wegen <math>\sum\nolimits_{k}\sum\nolimits_{j}p_{kj}=1</math> folgt, dass jede [[Wahrscheinlichkeit]] <math>p_{kj}</math> durch die anderen <math>K\cdot J - 1</math> [[Wahrscheinlichkeit]]en bestimmt ist.
| |
|
| |
| <math>f = K \cdot J - 1</math> wäre somit die Anzahl der [[Freiheitsgrad]]e, wenn sich bei Gültigkeit der [[Nullhypothese]] alle [[Wahrscheinlichkeit]]en <math>p_{kj}</math> aus den (bekannten) [[Randwahrscheinlichkeit]]en gemäß <math>p_{kj}=p_{k\bullet }\cdot p_{\bullet j}</math> bestimmen ließen.
| |
|
| |
| Die [[Randwahrscheinlichkeit]]en <math>p_{k\bullet }</math> und <math>p_{\bullet j}</math> sind jedoch unbekannt und müssen aus der [[Stichprobe]] [[Schätzung|geschätzt]] werden, wodurch sich die Anzahl der [[Freiheitsgrad]]e weiter verringert.
| |
|
| |
| Die [[Randverteilung]] von <math>X\;</math> enthält <math>K</math> [[Randwahrscheinlichkeit]]en <math>p_{k\bullet }</math>. Wegen <math>\sum\nolimits_{k}p_{k\bullet }=1</math> sind nur <math>K - 1</math> [[Wahrscheinlichkeit]]en <math>p_{k\bullet }</math> unbekannt und zu [[Schätzung|schätzen]].
| |
|
| |
| Die [[Randverteilung]] von <math>Y\;</math> enthält <math>J</math> [[Randwahrscheinlichkeit]]en <math>p_{\bullet j }</math>. Wegen <math>\sum_{j}p_{\bullet j}=1</math> sind nur <math>J - 1</math> [[Wahrscheinlichkeit]]en <math>p_{\bullet j}</math> unbekannt und zu [[Schätzung|schätzen]].
| |
|
| |
| Insgesamt sind damit <math>(K-1)+(J-1)</math> [[Randwahrscheinlichkeit]]en aus der [[Stichprobe]] zu [[Schätzung|schätzen]]. Somit folgt für die Anzahl der [[Freiheitsgrad]]e:
| |
|
| |
| <math>f=K\cdot J-1-\left[ \left( K-1\right) +\left( J-1\right) \right]=K\cdot J-K-J+1=\left( K-1\right) \cdot \left( J-1\right)</math>
| |
|
| |
| Da in der [[Teststatistik]] die Terme <math>\frac{\left(H_{kj}-\widehat{e}_{kj}\right)^{2}}{\widehat{e}_{kj}}</math> nur positive Werte annehmen können, nimmt die [[Teststatistik]] <math>V\;</math> ebenfalls nur positive Werte an.
| |
|
| |
| Große Abweichungen <math>H_{kj}-\widehat{e}_{kj}</math> führen zu großen Werten von <math>V\;</math>.
| |
|
| |
| Somit führen nur große Werte von <math>V\;</math> zur [[Ablehnungsbereich der Nullhypothese|Ablehnung der <math>H_{0}</math>]], während kleine Werte von <math>V</math> nicht gegen die [[Nullhypothese]] sprechen. Der Chi-Quadrat-Unabhängigkeitstest ist somit ein [[rechtsseitiger Test]].
| |
|
| |
|
| =={{Vorlage:Beispiele}}== | | =={{Vorlage:Beispiele}}== |
Grundbegriffe
Chi-Quadrat-Unabhängigkeitstest
Bei einem Chi-Quadrat-Unabhängigkeitstest wird geprüft, ob zwei Zufallsvariablen stochastisch unabhängig sind. Dieser statistische Test gehört zu den nichtparametrischen Tests.
An das Skalenniveau der Zufallsvariablen werden keine Voraussetzungen gestellt.
Es sei allgemein angenommen, dass zwei Zufallsvariablen und gleichzeitig an statistischen Einheiten () beobachtet werden, wobei die Unabhängigkeit der
Stichprobenziehungen vorausgesetzt wird (einfache Zufallsstichprobe).
Sind und diskrete Zufallsvariablen (darunter werden im weiteren summarisch nominalskalierte, ordinalskalierte sowie diskrete Zufallsvariablen mit sehr wenigen Ausprägungen verstanden), nehmen sie die Stichprobenrealisationen und an.
Sind und stetige Zufallsvariablen (darunter werden im weiteren auch die diskreten Zufallsvariablen mit sehr vielen bzw. unendlich vielen Ausprägungen, d.h. die genannten quasi-stetigen Zufallsvariablen, gefasst), muss eine Intervallbildung der beobachteten Werte in disjunkte, aneinander angrenzende Klassen erfolgen.
und sind dann repräsentative Klassenwerte (im Allgemeinen die
Klassenmitten) und und die Anzahl der gebildeten Klassen.
Eine geeignete Darstellungsform für die beobachtete gemeinsame Häufigkeitsverteilung der zwei Zufallsvariablen ist die zweidimensionale Häufigkeitstabelle (auch als Kontingenztabelle oder Kreuztabelle bezeichnet).
Zweidimensionale Häufigkeitstabelle:
|
|
|
|
|
|
RV
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
RV
|
|
|
|
|
|
|
bezeichnet die absolute Häufigkeit für das beobachtete Wertepaar , d.h. dass den Wert bzw. einen Wert aus der -ten Klasse und gleichzeitig den Wert bzw. einen Wert aus der -ten Klasse angenommen hat:
Die letzte Spalte enthält die beobachtete Randverteilung (RV) von mit den absoluten
Randhäufigkeiten .
gibt an, wie oft den Wert bzw. einen Wert aus der -ten Klasse angenommen hat, wobei es gleichgültig ist, welchen Wert aufweist.
Die letzte Zeile weist die beobachtete Randverteilung von mit den absoluten Randhäufigkeiten aus.
gibt an, wie oft den Wert bzw. einen Wert aus der -ten Klasse angenommen hat, wobei es gleichgültig ist, welchen Wert aufweist.
Für die zweidimensionale Häufigkeitstabelle gelten folgende Beziehungen:
.
Die Nullhypothese lautet beim Chi-Quadrat-Unabhängigkeitstest stets, dass die Zufallsvariablen und in der Grundgesamtheit stochastisch unabhängig sind. Die Alternativhypothese enthält das logische Pendant.
: und sind stochastisch unabhängig.
: und sind nicht stochastisch abhängig.
Wenn die Nullhypothese gilt, dann ergibt sich nach dem Multiplikationssatz bei Unabhängigkeit
Dabei bezeichnen:
die Wahrscheinlichkeit, dass die Zufallsvariable den Wert bzw. einen Wert aus der -ten Klasse und gleichzeitig den Wert bzw. einen Wert aus der -ten
Klasse annimmt;
die Wahrscheinlichkeit, dass die Zufallsvariable den Wert bzw. einen Wert aus der -ten Klasse annimmt (Randwahrscheinlichkeit von ) und
die Wahrscheinlichkeit, dass die Zufallsvariable den Wert bzw. einen Wert aus der -ten Klasse annimmt (Randwahrscheinlichkeit von ).
Das Hypothesenpaar kann somit konkretisiert werden:
für alle Paare
für mindestens ein Paar
Das Signifikanzniveau und der Stichprobenumfang sind vor der Testdurchführung festzulegen.
Teststatistik des Chi-Quadrat-Unabhängigkeitstests
Für die Bestimmung der Teststatistik wird von den absoluten Häufigkeiten ausgegangen. Der Test basiert auf dem Vergleich der in der Stichprobe beobachteten und der bei Gültigkeit der Nullhypothese erwarteten gemeinsamen absoluten Häufigkeiten.
Für die konkrete Stichprobe sind die gemeinsamen absoluten Häufigkeiten
in den Zellen der zweidimensionalen Häufigkeitstabelle gegeben. Da diese absoluten Häufigkeiten Ergebnis eines Zufallsexperimentes sind, können sie von Stichprobe zu Stichprobe unterschiedliche Werte annehmen, d.h., sie sind Realisationen von Zufallsvariablen .
Wenn die Nullhypothese gilt, ergeben sich die erwarteten gemeinsamen absoluten Häufigkeiten als .
Da die gemeinsamen Wahrscheinlichkeiten und die Randwahrscheinlichkeiten und
für alle und unbekannt sind, müssen sie aus der Stichprobe geschätzt werden.
Erwartungstreue und konsistente Punktschätzungen für und sind die relativen Randhäufigkeiten und .
Das beinhaltet, dass von festen Randhäufigkeiten der zweidimensionalen Häufigkeitstabelle ausgegangen wird. Damit erhält man Schätzungen für die unter erwarteten gemeinsamen absoluten Häufigkeiten:
Der Vergleich zwischen den in der Stichprobe beobachteten und den bei Gültigkeit der Nullhypothese erwarteten gemeinsamen absoluten Häufigkeiten baut auf den Differenzen auf.
Eine summarische Größe, die die Abweichung von der Nullhypothese bewertet, ist die Teststatistik
Bei Gültigkeit der Nullhypothese ist die Teststatistik approximativ Chi-Quadrat-verteilt mit Freiheitsgraden.
Die Approximation an die Chi-Quadrat-Verteilung ist hinreichend, wenn für alle gilt.
Ist diese Bedingungen nicht erfüllt, müssen vor der Anwendung des Tests benachbarte Werte bzw. Klassen zusammengefaßt werden. und sind die Anzahlen der verbliebenen Werte bzw. Klassen nach einer eventuell notwendigen Zusammenfassung.
Der kritische Wert wird für und die Anzahl der Freiheitsgrade aus der Tabelle der Verteilungsfunktion der Chi-Quadrat-Verteilung entnommen.
Entscheidungsbereiche des Chi-Quadrat-Unabhängigkeitstests
Die Entscheidungsbereiche sind:
Ablehnungsbereich der
Nichtablehnungsbereich der
Die Wahrscheinlichkeit, dass die Teststatistik eine Realisation aus dem Ablehnungsbereich der annimmt, entspricht dem vorgegebenen Signifikanzniveau .
Die Wahrscheinlichkeit, dass die Teststatistik eine Realisation aus dem Nichtablehnungsbereich der annimmt, ist .
Nichtablehnungsbereich der | Ablehnungsbereich der
Prüfwert des Chi-Quadrat-Unabhängigkeitstests
Wenn die Zufallsstichprobe vom Umfang gezogen wurde, können die absoluten Häufigkeiten für alle beobachteten Wertepaare ermittelt, daraus die beobachteten Randhäufigkeiten für und bestimmt und die erwarteten absoluten Häufigkeiten berechnet werden.
Ist die Approximationsbedingung nicht erfüllt, müssen Werte bzw. Klassen geeignet zusammengefaßt und die Häufigkeiten , , und erneut bestimmt werden.
Einsetzen von und für alle in die Teststatistik führt zu einem Prüfwert .
Entscheidungssituationen des Chi-Quadrat-Unabhängigkeitstests
Wenn in den Ablehnungsbereich der fällt, wird die Nullhypothese
auf dem Signifikanzniveau und basierend auf der Zufallsstichprobe vom Umfang abgelehnt .
Es konnte statistisch gezeigt werden, dass die Zufallsvariablen und nicht stochastisch unabhängig sind.
Bei dieser Entscheidung besteht die Möglichkeit einen Fehler 1. Art zu begehen, wenn in Wirklichkeit die Nullhypothese richtig ist.
Die Wahrscheinlichkeit für einen Fehler 1. Art entspricht dem vorgegebenen Signifikanzniveau .
Wenn in den Nichtablehnungsbereich der fällt, wird die Nullhypothese basierend auf der Zufallsstichprobe vom Umfang nicht abgelehnt .
Das Stichprobenergebnis gibt keine Veranlassung, die Unabhängigkeit der Zufallsvariablen und zu verwerfen.
Bei dieser Entscheidung besteht die Möglichkeit, einen Fehler 2. Art zu begehen, wenn in Wirklichkeit die Alternativhypothese richtig ist.
Beispiele
Mängel und Alter
Es wird vermutet, dass die Anzahl der festgestellten Mängel an einem Pkw und das Alter des Pkw stochastisch unabhängig sind.
Um diese Annahme zu überprüfen, wird ein Chi-Quadrat-Unabhängigkeitstest auf einem Signifikanzniveau von durchgeführt.
Für die Zufallsvariable : "Anzahl der Mängel am Pkw" werden die Realisationen = "kein Mangel", = "1 Mangel" und = "2 oder mehr Mängel" und
für die Zufallsvariable : "Alter des Pkw" die Realisationen = "bis einschließlich 1 Jahr", = "über 1 Jahr bis einschließlich 2 Jahre" und = "2 Jahre oder älter" betrachtet.
Da stets die Nullhypothese statistischgeprüft wird, muss die Unabhängigkeit zwischen und als formuliert werden, um die gemeinsamen erwarteten absoluten Häufigkeiten ermitteln zu können, so dass das Hypothesenpaar lautet:
und sind stochastisch unabhängig.
und sind nicht stochastisch unabhängig.
bzw.
für alle Paare
für mindestens ein Paar
Teststatistik
Es wird die Teststatistik des Chi-Quadrat-Unabhängigkeitstests verwendet:
die bei Gültigkeit der Nullhypothese approximativ Chi-Quadrat-verteiltist mit der Anzahl der
Freiheitsgrade .
Die Entscheidungsbereiche der Nullhypothese können erst nach Vorliegen der Stichprobe festgelegt werden, da
Entscheidungsbereiche und Prüfwert
Bei einer konkreten Polizeikontrolle an verschiedenen Straßenstellen, wobei die Auswahl der Pkw zufällig erfolgte, wurde die Anzahl der Mängel und das Alter an 110 Pkw registriert.
Die sich aus der Stichprobe ergebenden gemeinsamen absoluten Häufigkeiten und Randhäufigkeiten sind in der folgenden Tabelle enthalten.
Gleichzeitig wurden in den Zellen dieser Tabelle die geschätzten gemeinsamen absoluten Häufigkeiten bei Gültigkeit der Nullhypothese aufgenommen, die sich gemäß
ergeben (gerundet auf eine Dezimalstelle).
Mängelanzahl
|
Alter
|
RV
|
|
1-2
|
2 oder älter
|
0
|
beobachtet
|
30
|
14
|
5
|
49
|
erwartet
|
26,7
|
13,4
|
8,9
|
|
1
|
beobachtet
|
18
|
10
|
4
|
32
|
erwartet
|
17,5
|
8,7
|
5,8
|
|
2 oder mehr
|
beobachtet
|
12
|
6
|
11
|
29
|
erwartet
|
15,8
|
7,9
|
5,3
|
|
RV
|
60
|
30
|
20
|
110
|
Die Approximationsbedingung ist erfüllt, da alle sind. Mit und folgt für die Anzahl der Freiheitsgrade: .
Für und findet man aus der Tabelle der Verteilungsfunktion der Chi-Quadrat-Verteilung den kritischen Wert .
Die Entscheidungsbereiche sind damit:
Ablehnungsbereich der
Nichtablehnungsbereich der
Als Prüfwert ergibt sich:
Testentscheidung
Da in den Ablehnungsbereich der fällt, wird die Nullhypothese abgelehnt .
Auf einem Signifikanzniveau von und basierend auf einer Zufallsstichprobe vom Umfang konnte statistisch bewiesen werden, dass die Zufallsvariablen : "Anzahl der Mängel am Pkw" und : "Alter des Pkw" stochastisch unabhängig sind.
Bei dieser Entscheidung besteht die Möglichkeit, einen Fehler 1. Art zu begehen, wenn in Wirklichkeit die Nullhypothese richtig ist.
Die Wahrscheinlichkeit für einen Fehler 1. Art entspricht dem vorgegebenen Signifikanzniveau .
Umfrage
Bei einer Umfrage in den Jahren 1991 und 1996 wurde zufällig ausgewählten Bürgern der Bundesrepublik Deutschland mit einem Alter von mindestens 18 Jahre zum Befragungszeitpunkt die folgenden Fragen gestellt:
1. "Wie beurteilen Sie die heutige wirtschaftliche Lage in Deutschland?"
2. "Wie wird die wirtschaftliche Lage in Deutschland in einem Jahr sein?"
Die Einschätzungen konnten die Befragten jeweils auf einer fünfteiligen Skala vornehmen:
1. Frage: 1 - sehr gut, 2 - gut, 3 - teils gut / teils schlecht, 4 - schlecht, 5 - sehr schlecht
2. Frage: 1 - wesentlich besser als heute, 2 - etwas besser, 3 - gleichbleibend, 4 - etwas schlechter, 5 - wesentlich schlechter.
Der Inhalt der 1. Frage wird als Zufallsvariable "Gegenwärtige Wirtschaftslage" und der Inhalt der 2. Frage als Zufallsvariable "Zukünftige Wirtschaftslage" definiert, die die genannten 5 möglichen Realisationen annehmen können.
Darüber hinaus wurde u.a. erfasst, ob die befragte Person aus den alten Bundesländern (einschließlich West-Berlin) oder aus den neuen Bundesländern (einschließlich Ost-Berlin) stammt.
Dies sei die Zufallsvariable : "Erhebungsgebiet" mit den möglichen Realisationen "West" und "Ost".
Es soll auf einem Signifikanzniveau von geprüft werden, ob die Zufallsvariablen und bzw. und in den Jahren 1991 bzw. 1996 unabhängig sind.
Da stets die Nullhypothese statistisch geprüft wird, muss die Unabhängigkeit zwischen den beiden Zufallsvariablen als formuliert werden, um die gemeinsamen erwarteten absoluten Häufigkeiten ermitteln zu können, so dass die Hypothesenpaare lauten:
und sind stochastisch unabhängig.
und sind nicht stochastisch unabhängig.
und
und sind stochastisch unabhängig.
und sind nicht stochastisch unabhängig.
Teststatistik
Es wird die Teststatistik des Chi-Quadrat-Unabhängigkeitstest verwendet
die bei Gültigkeit der Nullhypothese approximativ Chi-Quadrat-verteilt ist mit der Anzahl der
Freiheitsgrade .
Die Entscheidungsbereiche der Nullhypothese können erst nach Vorliegen der Stichprobe festgelegt werden, da
Entscheidungsbereiche, Prüfwert und Testentscheidung
Die sich aus den Stichproben im Jahre 1991 und 1996 ergebenden gemeinsamen absoluten Häufigkeiten und Randhäufigkeit]en sind in den folgenden Tabellen 1 - 4 enthalten.
Gleichzeitig werden in die Zellen dieser Tabellen die geschätzten gemeinsamen absoluten Häufigkeiten bei Gültigkeit der Nullhypothese, die sich gemäß
ergeben (gerundet auf eine Dezimalstelle), und die Differenzen aufgenommen.
Tabelle 1: Gegenwärtige Wirtschaftslage und Erhebungsgebiet 1991
Gegenwärtige Wirtschaftslage
|
Erhebungsgebiet
|
RV
|
West
|
Ost
|
sehr gut
|
beobachtet
|
209
|
165
|
374
|
|
erwartet
|
184,8
|
189,2
|
|
|
Differenz
|
24,2
|
-24,2
|
|
gut
|
beobachtet
|
744
|
592
|
1336
|
|
erwartet
|
660,1
|
675,9
|
|
|
Differenz
|
83,9
|
-83,9
|
|
teils/teils
|
beobachtet
|
431
|
647
|
1078
|
|
erwartet
|
532,6
|
545,5
|
|
|
Differenz
|
-101,6
|
101,6
|
|
schlecht
|
beobachtet
|
36
|
39
|
75
|
|
erwartet
|
37,1
|
37,9
|
|
|
Differenz
|
-1,1
|
1,1
|
|
sehr schlecht
|
beobachtet
|
4
|
15
|
19
|
|
erwartet
|
9,4
|
9,6
|
|
|
Differenz
|
-5,4
|
5,4
|
|
RV
|
1424
|
1458
|
2882
|
Tabelle 2: Gegenwärtige Wirtschaftslage und Erhebungsgebiet 1996
Gegenwärtige Wirtschaftslage
|
Erhebungsgebiet
|
RV
|
West
|
Ost
|
sehr gut
|
beobachtet
|
20
|
6
|
26
|
|
erwartet
|
17,2
|
8,8
|
|
|
Differenz
|
2,8
|
-2,8
|
|
gut
|
beobachtet
|
264
|
116
|
380
|
|
erwartet
|
251,3
|
128,7
|
|
|
Differenz
|
12,7
|
-12,7
|
|
teils/teils
|
beobachtet
|
1006
|
557
|
1563
|
|
erwartet
|
1033,7
|
529,3
|
|
|
Differenz
|
-27,7
|
27,7
|
|
schlecht
|
beobachtet
|
692
|
335
|
1027
|
|
erwartet
|
679,2
|
347,8
|
|
|
Differenz
|
12,8
|
-12,8
|
|
sehr schlecht
|
beobachtet
|
141
|
73
|
214
|
|
erwartet
|
141,5
|
72,5
|
|
|
Differenz
|
-0,5
|
0,5
|
|
RV
|
2123
|
1087
|
3210
|
Tabelle 3: Zukünftige Wirtschaftslage und Erhebungsgebiet 1991
Zukünftige Wirtschaftslage
|
Erhebungsgebiet
|
RV
|
West
|
Ost
|
wesentlich besser
|
beobachtet
|
75
|
203
|
278
|
|
erwartet
|
137,4
|
140,6
|
|
|
Differenz
|
-62,4
|
62,4
|
|
etwas besser
|
beobachtet
|
449
|
763
|
1212
|
|
erwartet
|
598,9
|
613,1
|
|
|
Differenz
|
-149,9
|
149,9
|
|
gleichbleibend
|
beobachtet
|
684
|
414
|
1108
|
|
erwartet
|
547,5
|
560,5
|
|
|
Differenz
|
136,5
|
-136,5
|
|
etwas schlechter
|
beobachtet
|
200
|
62
|
262
|
|
erwartet
|
129,5
|
132,5
|
|
|
Differenz
|
70,5
|
-70,5
|
|
wesentlich schlechter
|
beobachtet
|
16
|
6
|
22
|
|
erwartet
|
10,9
|
11,1
|
|
|
Differenz
|
5,1
|
-5,1
|
|
RV
|
1424
|
1458
|
2882
|
Tabelle 4: Zukünftige Wirtschaftslage und Erhebungsgebiet 1996
Zukünftige Wirtschaftslage
|
Erhebungsgebiet
|
RV
|
West
|
Ost
|
wesentlich besser
|
beobachtet
|
9
|
6
|
15
|
|
erwartet
|
9,9
|
5,1
|
|
|
Differenz
|
-0,9
|
0,9
|
|
etwas besser
|
beobachtet
|
190
|
131
|
321
|
|
erwartet
|
212,3
|
108,7
|
|
|
Differenz
|
-22,3
|
22,3
|
|
gleichbleibend
|
beobachtet
|
809
|
444
|
1253
|
|
erwartet
|
828,7
|
42,3
|
|
|
Differenz
|
-19,7
|
19,7
|
|
etwas schlechter
|
beobachtet
|
960
|
426
|
1386
|
|
erwartet
|
916,7
|
469,3
|
|
|
Differenz
|
43,3
|
-43,3
|
|
wesentlich schlechter
|
beobachtet
|
155
|
80
|
235
|
|
erwartet
|
155,4
|
79,6
|
|
|
Differenz
|
-0,4
|
0,4
|
|
RV
|
2123
|
1087
|
3210
|
Für alle 4 durchzuführende Tests gilt:
Die Approximationsbedingung ist erfüllt, da alle sind. Mit und folgt für die Anzahl der Freiheitsgrade: .
Für und findet man aus der Tabelle der Verteilungsfunktion der Chi-Quadrat-Verteilung den kritischen Wert .
Die Entscheidungsbereiche sind damit:
Ablehnungsbereich der
Nichtablehnungsbereich der
Als Prüfwerte und Testentscheidung ergeben sich:
Jahr
|
Zufallsvariablen
|
Prüfwert
|
Testentscheidung
|
1991
|
|
71,85
|
|
1996
|
|
6,15
|
|
1991
|
|
278,17
|
|
1996
|
|
14,61
|
|
Interpretation
- Gegenwärtige Wirtschaftslage in Deutschland:
- Während für 1991 auf einem Signifikanzniveau von die Nullhypothese abgelehnt wird, d.h. statistisch eine Abhängigkeit zwischen den Zufallsvariablen : "Gegenwärtige Wirtschaftslage" und : "Erhebungsgebiet" nachgewiesen werden konnte, wird für das Jahr 1996 die Nullhypothese nicht abgelehnt.
- 1991 bewerteten die Befragten in den alten Bundesländern die gegenwärtige Wirtschaftslage tendenziell deutlich zufriedener als die Befragten in den neuen Bundesländern, was anhand der großen positiven Differenzen bei der sehr guten und guten Einschätzung in der Spalte West der Tabelle 1 zu erkennen ist.
- Auch 1996 treten Differenzen zwischen und auf, aber sie sind in ihrer Gesamtheit nicht mehr signifikant.
- Es hat offensichtlich eine Angleichung in den Einschätzungen der gegenwärtigen Wirtschaftslage zwischen West und Ost stattgefunden.
- Zukünftige Wirtschaftslage in Deutschland:
- Bezüglich der Zufallsvariablen : "Zukünftige Wirtschaftslage" und : "Erhebungsgebiet" wird für beide Jahre die Nullhypothese der Unabhängigkeit auf einem Signifikanzniveau von abgelehnt.
- Hierbei sind es jedoch die Befragten in den neuen Bundesländern, die in beiden Jahren die zukünftige Wirtschaftslage tendenziell deutlich optimistischer bewerten als die Befragten in den alten Bundesländern.
- Vergleicht man beide Jahre miteinander, so sind die Differenzen 1996 kleiner als 1991, was ebenfalls auf eine gewisse Annäherung in den Bewertungen zwischen West und Ost schließen lässt, jedoch sind sie auch 1996 in ihrer Gesamtheit noch statistisch signifikant.