Chi-Quadrat-Anpassungstest

Aus MM*Stat

(Weitergeleitet von Goodness-of-fit-Test)
Wechseln zu: Navigation, Suche

Testtheorie

Grundbegriffe der Testtheorie • Entscheidungsbereiche • Entscheidungssituationen • Zweiseitiger Test • Einseitiger Test • Gütefunktion • Test auf Mittelwert • Gauß-Test • Gütefunktion des Gauß-Tests • Einstichproben-t-Test • Test auf Anteilswert • Test auf Differenz zweier Mittelwerte • Zweistichproben-Gauß-Test • Zweistichproben-t-Test • Chi-Quadrat-Anpassungstest • Chi-Quadrat-Unabhängigkeitstest • Multiple Choice • Video • Aufgaben • Lösungen
Ablehnungsbereich der Nullhypothese • alpha-Fehler • Alternativhypothese • Anpassungstest • beta-Fehler • Entscheidungsbereiche (Chi-Quadrat-Anpassungstest) • Entscheidungsbereiche (Chi-Quadrat-Unabhängigkeitstest) • Entscheidungsbereiche (Einstichproben-t-Test) • Entscheidungsbereiche (Gauß-Test) • Entscheidungsbereiche (Test auf Anteilswert) • Entscheidungsbereiche (Zweistichproben-Gauß-Test) • Entscheidungsbereiche (Zweistichproben-t-Test) • Entscheidungssituationen (Chi-Quadrat-Anpassungstest) • Entscheidungssituationen (Chi-Quadrat-Unabhängigkeitstest) • Entscheidungssituationen (Einstichproben-t-Test) • Entscheidungssituationen (Gauß-Test) • Entscheidungssituationen (Test auf Anteilswert) • Entscheidungssituationen (Zweistichproben-Gauß-Test) • Entscheidungssituationen (Zweistichproben-t-Test) • Fehler 1. Art • Fehler 2. Art • Goodness-of-fit-Test • Gütefunktion des Tests auf Anteilswert • Hypothese • Kritischer Wert • Linksseitiger Test • Macht eines Tests • Nichtablehnungsbereich der Nullhypothese • Nullhypothese • OC-Kurve • Operationscharakteristik • Parametertest • Prüfgröße • Prüfwert • Prüfwert (Chi-Quadrat-Anpassungstest) • Prüfwert (Chi-Quadrat-Unabhängigkeitstest) • Prüfwert (Einstichproben-t-Test) • Prüfwert (Gauß-Test) • Prüfwert (Test auf Anteilswert) • Prüfwert (Zweistichproben-Gauß-Test) • Prüfwert (Zweistichproben-t-Test) • Rechtsseitiger Test • Signifikanzniveau • Statistischer Test • Testgröße • Teststatistik • Teststatistik (Chi-Quadrat-Anpassungstest) • Teststatistik (Chi-Quadrat-Unabhängigkeitstest) • Teststatistik (Einstichproben-t-Test) • Teststatistik (Gauß-Test) • Teststatistik (Test auf Anteilswert) • Teststatistik (Zweistichproben-Gauß-Test) • Teststatistik (Zweistichproben-t-Test) • Verteilungstest • Zweistichprobentest

Grundbegriffe

Anpassungstest, Verteilungstest oder Goodness-of-fit-Test

Bei diesem Test wird eine Hypothese über die unbekannte Verteilung der Zufallsvariablen X\; in der Grundgesamtheit geprüft, woraus sich der Name Anpassungstest, Verteilungstest oder Goodness-of-fit-Test ergibt.

Anpassungstests gehören zu den nichtparametrischen Tests.

Es gibt eine ganze Reihe von Anpassungstests, von denen hier nur der Chi-Quadrat-Anpassungstest behandelt wird.

Die generelle Vorgehensweise bei Anpassungstests ist im Prinzip wie bei den Parametertests.

Es wird eine Teststatistik konstruiert, die die Information über die hypothetische Verteilung sowie die Verteilung in der Zufallsstichprobe enthält und auf deren Basis eine Aussage über die Nullhypothese möglich ist.

Die Verteilung der Teststatistik muss unter der Nullhypothese (zumindest approximativ) bekannt sein.

Auch bei Anpassungstests wird stets die Nullhypothese statistisch geprüft und in Abhängigkeit von der Testentscheidung besteht die Möglichkeit, einen Fehler 1. Art mit der Wahrscheinlichkeit P(\mbox{''}H_{1}\mbox{''}|H_{0})=\alpha bzw. einen Fehler 2. Art mit der Wahrscheinlichkeit P(\mbox{''}H_{0}\mbox{''}|H_{1})=\beta zu begehen.

Mit dem vorgegebenen Signifikanzniveau \alpha kann die Wahrscheinlichkeit eines Fehlers 1. Art niedrig gehalten werden; die Wahrscheinlichkeit eines Fehlers 2. Art ist dagegen in der Regel nicht bekannt.

Man wird deshalb bestrebt sein, die Nullhypothese abzulehnen, da dann die statistische Sicherheit einer Fehlentscheidung bekannt ist.

Wenn die hypothetische Verteilung die wahre Verteilung in der Grundgesamtheit ist, dann ist zu erwarten, dass diese Verteilung im Prinzip auch in der Stichprobe zu beobachten ist.

Im Prinzip bedeutet dabei, dass Abweichungen zwischen der beobachteten Verteilung in der Stichprobe und der unter der Verteilungsannahme erwarteten Verteilung in der Stichprobe in der Regel immer auftreten werden.

Zu entscheiden ist, ob die Abweichungen noch zufallsbedingt sind oder ob es sich um signifikante Abweichungen handelt.

Um die erwartete Verteilung in der Stichprobe ermitteln zu können, muss unter der Nullhypothese angenommen werden, dass genau die hypothetische Verteilung die wahre Verteilung in der Grundgesamtheit ist.

Damit lautet das Hypothesenpaar stets:

H_{0}: Die Zufallsvariable X\; in der Grundgesamtheit weist die hypothetische Verteilung auf.

H_{1}: Die Zufallsvariable X\; in der Grundgesamtheit weist eine andere als die hypothetische Verteilung auf.

Große Abweichungen zwischen der beobachteten Verteilung und der erwarteten Verteilung in der Stichprobe deuten tendenziell auf eine falsche Verteilungsannahme hin, d.h. man wird die Nullhypothese ablehnen.

Chi-Quadrat-Anpassungstest

Der Chi-Quadrat-Anpassungstest basiert auf einer einfachen Zufallsstichprobe vom vorgegebenen Umfang n. Das Signifikanzniveau \alpha ist vor der Testdurchführung festzulegen.

Gegeben ist eine Zufallsvariable X\; in der Grundgesamtheit mit der Verteilung F(x), wobei an das Skalenniveau von X\; keine Voraussetzungen gestellt werden.

Die Verteilung F(x) ist unbekannt. Es existiert jedoch eine Annahme, dass X\; die hypothetische Verteilung F_{0}(x) besitzt.

Ist X\; eine diskrete Zufallsvariable (darunter werden im weiteren summarisch nominalskalierte, ordinalskalierte sowie diskrete Zufallsvariablen mit sehr wenigen Ausprägungen verstanden), kann sie die Werte x_{1}, \ldots, x_{k} annehmen.

Es bezeichne:

Ist X\; eine stetige Zufallsvariable (darunter werden im weiteren auch die diskreten Zufallsvariablen mit sehr vielen bzw. unendlich vielen Ausprägungen, d.h. die genannten quasi-stetigen Zufallsvariablen, gefasst), muss eine Intervallbildung der beobachteten Werte in disjunkte, aneinander angrenzende Klassen erfolgen.

Mit k als Anzahl der Klassen (k \geq 2) können die Klassen allgemein wie folgt geschrieben werden:

(x_{0}^{*},x_{1}^{*}),\;(x_{1}^*,x_{2}^*),\; \ldots,(x_{k-1}^*,x_{k}^*)\;\mbox{ bzw. }\;( x_{j-1}^*,x_{j}^*), für  j=1,\ldots ,k.

Es bezeichne im stetigen Fall:

Die Nullhypothese lautet beim Anpassungstest immer, dass die Zufallsvariable X\; in der Grundgesamtheit die hypothetische Verteilung aufweist. Die Alternativhypothese enthält das logische Pendant.

Das dem Chi-Quadrat-Anpassungstest zugrundeliegende Hypothesenpaar lautet speziell:

H_{0}:\; P\left(X=x_{j}\right) = p_{j} \quad \forall j=1, \ldots,k
H_{1}:\; P\left( X=x_{j}\right) \neq p_{j} \quad für mindestens ein j
H_{0}:\; P\left( x_{j-1}^{*}<X\leq x_{j}^{*}\right) = p_{j} \quad \forall j=1, \ldots, k
H_{1}:\; P\left(x_{j-1}^{*}<X\leq x_{j}^{*}\right) \neq p_{j}\quad für mindestens ein j

Dabei bezeichnet p_{j}\; (j=1,\ldots ,k) sowohl im diskreten als auch im stetigen Fall die Wahrscheinlichkeit, dass die Zufallsvariable X\; den Wert x_{j} annimmt bzw. in die j-te Klasse \left(x_{j-1}^{*}, x_{j}^{*} \right) fällt, wenn die hypothetische Verteilung F_{0}(x) zugrundegelegt wird, d.h. wenn die Nullhypothese H_{0} gilt:

p_{j}=P\left( X=x_{j}| H_{0}\right) \; \mbox{bzw.} \; p_{j}=P\left( x_{j-1}^{*}<X\leq x_{j}^{*}| H_{0}\right)

Die p_{j} können bestimmt werden durch die Vorgabe

Beispiel: Die Annahme besagt, dass die Zufallsvariable X\; eine Poisson-Verteilung PO(\lambda) mit vorgegebenem Parameter \lambda besitzt.
Beispiel: Die Annahme besagt, dass die Zufallsvariable X\, eine Normalverteilung N(\mu, \sigma) mit unbekanntem Erwartungswert \mu und unbekannter Standardabweichung \sigma aufweist, so dass diese beiden Parameter erst aus der Stichprobe zu schätzen sind.
Beispiel: Die Zufallsvariable X\; habe vier mögliche Realisationen. Es wird angenommen, dass diese mit den fest vorgegebenen Wahrscheinlichkeiten bzw. relativen Häufigkeiten p_{1}=0,2, p_{2}=0,4, p_{3}=0,1 und p_{4}=0,3 auftreten.

Teststatistik des Chi-Quadrat-Anpassungstests

Der Chi-Quadrat-Anpassungstests basiert auf dem Vergleich der in der Stichprobe beobachteten Verteilung und der bei Gültigkeit der Nullhypothese in der Stichprobe erwarteten Verteilung.

Für die Bestimmung der Teststatistik des Chi-Quadrat-Anpassungstests wird von den absoluten Häufigkeiten ausgegangen.

Für die konkrete Stichprobe wird die Anzahl h_{j} festgestellt, dass das Ereignis \left\{ X=x_{j}\right\} bzw. \left\{ x_{j-1}^*<X\leq x_{j}^*\right\} eingetreten ist.

Mit den absoluten Häufigkeiten h_{j} für alle j=1,\ldots ,k ist die in der Stichprobe beobachtete Verteilung gegeben. Da die absoluten Häufigkeiten h_{j} Ergebnis eines Zufallsexperimentes sind, können sie von Stichprobe zu Stichprobe unterschiedliche Werte annehmen, d.h. sie sind Realisationen von Zufallsvariablen H_{j}\;.

Wenn die Nullhypothese gilt, sind die in der Stichprobe erwarteten relativen Häufigkeiten durch die Wahrscheinlichkeiten p_{j} gegeben.

Für die erwarteten absoluten Häufigkeiten folgt: n\cdot p_{j}.

Der Vergleich zwischen beobachteter und erwarteter Verteilung baut auf den Differenzen H_{j}-n\cdot p_{j},\;(j=1,\ldots ,k) auf. Große Differenzen sprechen tendenziell gegen die Nullhypothese und deuten auf eine falsche Verteilungsannahme hin.

Eine summarische Größe, die die Abweichung von der Nullhypothese bewertet, ist die Teststatistik

V=\sum_{j=1}^{k}\frac{\left( H_{j}-n\cdot p_{j}\right)^{2}}{n\cdot p_{j}}

Bei Gültigkeit der Nullhypothese ist die Teststatistik V\; approximativ Chi-Quadrat-verteilt mit f = k - m- 1 Freiheitsgraden. Dies gilt unabhängig davon, welche Verteilung unter H_{0} angenommen wurde.

Approximationsvoraussetzungen:

Die Approximation an die Chi-Quadrat-Verteilung ist hinreichend, wenn

  • n\cdot p_{j}\geq 1 für alle j und

gilt.

Sind diese Bedingungen nicht erfüllt, müssen vor der Anwendung des Tests benachbarte Werte bzw. Klassen zusammengefasst werden.

Da die p_{j}\; (j = 1, \ldots, k) unter H_{0} vorgegeben sind, folgt außerdem aus den Approximationsvoraussetzungen, dass die Approximation um so besser ist, je größer der Stichprobenumfang n ist.

Bei der Bestimmung der Anzahl der Freiheitsgrade ist zu berücksichtigen, dass:

  • k die Anzahl der verbliebenen Werte bzw. Klassen nach einer eventuell notwendigen Zusammenfassung ist,
  • m die Anzahl der unbekannten und aus der Stichprobe zu schätzenden Parameter der hypothetischen Verteilung bezeichnet (wenn unter H_{0} eine vollständig spezifizierte Verteilung vorgegeben wurde, ist m = 0).

Da in der Teststatistik die Terme \frac{\left(H_{j}-n\cdot p_{j}\right)^{2}}{n\cdot p_{j}} nur positive Werte annehmen können, nimmt die Teststatistik V\; ebenfalls nur positive Werte an.

Große Abweichungen H_{j}-n\cdot p_{j} zwischen beobachteter und erwarteter Verteilung führen zu großen Werten von V\;.

Somit führen nur große Werte von V\; zur Ablehnung der H_{0}, während kleine Werte von V\; nicht gegen die Nullhypothese sprechen, sondern auf eine gute Übereinstimmung hindeuten.

Der Chi-Quadrat-Anpassungstest ist somit ein rechtsseitiger Test.

Der kritische Wert c wird für P(V \leq c) = 1 - \alpha und die Anzahl der Freiheitsgrade f aus der Tabelle der Verteilungsfunktion der Chi-Quadrat-Verteilung entnommen.

Entscheidungsbereiche des Chi-Quadrat-Anpassungstests

Die Entscheidungsbereiche des Chi-Quadrat-Anpassungstests sind:

Die Wahrscheinlichkeit, dass die Teststatistik V\; eine Realisation aus dem Ablehnungsbereich der H_{0} annimmt, entspricht dem vorgegebenen Signifikanzniveau \alpha =P\left( V>\chi_{1-\alpha ;k-m-1}^{2}|H_{0}\right).

Die Wahrscheinlichkeit, dass die Teststatistik V\; eine Realisation aus dem Nichtablehnungsbereich der H_{0} annimmt, ist P\left(V\leq \chi_{1-\alpha;k-m-1}^{2}|H_{0}\right)=1-\alpha.

<R output="display">

pdf(rpdf,width=7,height=7)

curve(from=0, to=35, dchisq(x, df=10), xaxt="n", ylab="f(v)", xlab="", col="red", ylim=c(0.0,0.12), lty=1, lwd=4, font.lab=2, "xaxs"="i" ,"yaxs"="i", bty="l") abline(v=20, col="black", lwd=3, lty=1) text(21, 0.003, expression(alpha), col = "black", cex=2) text(9, 0.04, expression(paste("1-", alpha)), col = "black", cex=2) text(20, -0.0014, , col = "black", cex=1.7) axis( side=1, at=c(20, 35), labels=c(expression(paste(chi^2, ""[1-alpha], ""[";"], ""[f])), "v"), tick=FALSE, cex.axis=1.5)

</R>

Nichtablehnungsbereich der H_{0} | Ablehnungsbereich der H_{0}

Prüfwert des Chi-Quadrat-Anpassungstests

Wenn die Zufallsstichprobe vom Umfang n gezogen wurde, können die absoluten Häufigkeiten h_{j} ermittelt, gegebenenfalls unbekannte Parameter der hypothetischen Verteilung geschätzt und die erwarteten Häufigkeiten n\cdot p_{j} berechnet werden.

Einsetzen in die Teststatistik führt zu einem Prüfwert des Chi-Quadrat-Anpassungstests v.

Entscheidungssituationen des Chi-Quadrat-Anpassungstests

Es konnte statistisch gezeigt werden, dass die Verteilung der Zufallsvariablen X\; in der Grundgesamtheit nicht der hypothetischen Verteilung F_{0}(x) entspricht.
Bei dieser Entscheidung besteht die Möglichkeit, einen Fehler 1. Art (\mbox{''}H_{1}\mbox{''}|H_{0}) zu begehen, wenn in Wirklichkeit die Nullhypothese richtig ist.
Die Wahrscheinlichkeit für einen Fehler 1. Art entspricht dem vorgegebenen Signifikanzniveau \alpha.
Es konnte statistisch nicht gezeigt werden, dass die wahre Verteilung in der Grundgesamtheit von der hypothetischen Verteilung F_{0}\left(x\right) abweicht.
Das bedeutet jedoch nicht, dass die wahre Verteilung tatsächlich die hypothetische Verteilung F_{0}(x) ist. Das Stichprobenergebnis gibt nur keine Veranlassung, H_{0} zu verwerfen.
Bei dieser Entscheidung besteht die Möglichkeit, einen Fehler 2. Art (\mbox{''}H_{0}\mbox{''}| H_{1}) zu begehen, wenn in Wirklichkeit die Alternativhypothese richtig ist.