Chi-Quadrat-Anpassungstest

Aus MM*Stat

Version vom 12. Februar 2018, 11:04 Uhr von H0130wij (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „{{Testtheorie}} ==Grundbegriffe== ===Anpassungstest, Verteilungstest oder Goodness-of-fit-Test=== Bei diesem Test wird eine Hypoth…“)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Wechseln zu: Navigation, Suche

Testtheorie

Grundbegriffe der Testtheorie • Entscheidungsbereiche • Entscheidungssituationen • Zweiseitiger Test • Einseitiger Test • Gütefunktion • Test auf Mittelwert • Gauß-Test • Gütefunktion des Gauß-Tests • Einstichproben-t-Test • Test auf Anteilswert • Test auf Differenz zweier Mittelwerte • Zweistichproben-Gauß-Test • Zweistichproben-t-Test • Chi-Quadrat-Anpassungstest • Chi-Quadrat-Unabhängigkeitstest • Multiple Choice • Video • Aufgaben • Lösungen
Ablehnungsbereich der Nullhypothese • alpha-Fehler • Alternativhypothese • Anpassungstest • beta-Fehler • Entscheidungsbereiche (Chi-Quadrat-Anpassungstest) • Entscheidungsbereiche (Chi-Quadrat-Unabhängigkeitstest) • Entscheidungsbereiche (Einstichproben-t-Test) • Entscheidungsbereiche (Gauß-Test) • Entscheidungsbereiche (Test auf Anteilswert) • Entscheidungsbereiche (Zweistichproben-Gauß-Test) • Entscheidungsbereiche (Zweistichproben-t-Test) • Entscheidungssituationen (Chi-Quadrat-Anpassungstest) • Entscheidungssituationen (Chi-Quadrat-Unabhängigkeitstest) • Entscheidungssituationen (Einstichproben-t-Test) • Entscheidungssituationen (Gauß-Test) • Entscheidungssituationen (Test auf Anteilswert) • Entscheidungssituationen (Zweistichproben-Gauß-Test) • Entscheidungssituationen (Zweistichproben-t-Test) • Fehler 1. Art • Fehler 2. Art • Goodness-of-fit-Test • Gütefunktion des Tests auf Anteilswert • Hypothese • Kritischer Wert • Linksseitiger Test • Macht eines Tests • Nichtablehnungsbereich der Nullhypothese • Nullhypothese • OC-Kurve • Operationscharakteristik • Parametertest • Prüfgröße • Prüfwert • Prüfwert (Chi-Quadrat-Anpassungstest) • Prüfwert (Chi-Quadrat-Unabhängigkeitstest) • Prüfwert (Einstichproben-t-Test) • Prüfwert (Gauß-Test) • Prüfwert (Test auf Anteilswert) • Prüfwert (Zweistichproben-Gauß-Test) • Prüfwert (Zweistichproben-t-Test) • Rechtsseitiger Test • Signifikanzniveau • Statistischer Test • Testgröße • Teststatistik • Teststatistik (Chi-Quadrat-Anpassungstest) • Teststatistik (Chi-Quadrat-Unabhängigkeitstest) • Teststatistik (Einstichproben-t-Test) • Teststatistik (Gauß-Test) • Teststatistik (Test auf Anteilswert) • Teststatistik (Zweistichproben-Gauß-Test) • Teststatistik (Zweistichproben-t-Test) • Verteilungstest • Zweistichprobentest

Grundbegriffe

Anpassungstest, Verteilungstest oder Goodness-of-fit-Test

Bei diesem Test wird eine Hypothese über die unbekannte Verteilung der Zufallsvariablen X\; in der Grundgesamtheit geprüft, woraus sich der Name Anpassungstest, Verteilungstest oder Goodness-of-fit-Test ergibt.

Anpassungstests gehören zu den nichtparametrischen Tests.

Es gibt eine ganze Reihe von Anpassungstests, von denen hier nur der Chi-Quadrat-Anpassungstest behandelt wird.

Die generelle Vorgehensweise bei Anpassungstests ist im Prinzip wie bei den Parametertests.

Es wird eine Teststatistik konstruiert, die die Information über die hypothetische Verteilung sowie die Verteilung in der Zufallsstichprobe enthält und auf deren Basis eine Aussage über die Nullhypothese möglich ist.

Die Verteilung der Teststatistik muss unter der Nullhypothese (zumindest approximativ) bekannt sein.

Auch bei Anpassungstests wird stets die Nullhypothese statistisch geprüft und in Abhängigkeit von der Testentscheidung besteht die Möglichkeit, einen Fehler 1. Art mit der Wahrscheinlichkeit P(\mbox{''}H_{1}\mbox{''}|H_{0})=\alpha bzw. einen Fehler 2. Art mit der Wahrscheinlichkeit P(\mbox{''}H_{0}\mbox{''}|H_{1})=\beta zu begehen.

Mit dem vorgegebenen Signifikanzniveau \alpha kann die Wahrscheinlichkeit eines Fehlers 1. Art niedrig gehalten werden; die Wahrscheinlichkeit eines Fehlers 2. Art ist dagegen in der Regel nicht bekannt.

Man wird deshalb bestrebt sein, die Nullhypothese abzulehnen, da dann die statistische Sicherheit einer Fehlentscheidung bekannt ist.

Wenn die hypothetische Verteilung die wahre Verteilung in der Grundgesamtheit ist, dann ist zu erwarten, dass diese Verteilung im Prinzip auch in der Stichprobe zu beobachten ist.

Im Prinzip bedeutet dabei, dass Abweichungen zwischen der beobachteten Verteilung in der Stichprobe und der unter der Verteilungsannahme erwarteten Verteilung in der Stichprobe in der Regel immer auftreten werden.

Zu entscheiden ist, ob die Abweichungen noch zufallsbedingt sind oder ob es sich um signifikante Abweichungen handelt.

Um die erwartete Verteilung in der Stichprobe ermitteln zu können, muss unter der Nullhypothese angenommen werden, dass genau die hypothetische Verteilung die wahre Verteilung in der Grundgesamtheit ist.

Damit lautet das Hypothesenpaar stets:

H_{0}: Die Zufallsvariable X\; in der Grundgesamtheit weist die hypothetische Verteilung auf.

H_{1}: Die Zufallsvariable X\; in der Grundgesamtheit weist eine andere als die hypothetische Verteilung auf.

Große Abweichungen zwischen der beobachteten Verteilung und der erwarteten Verteilung in der Stichprobe deuten tendenziell auf eine falsche Verteilungsannahme hin, d.h. man wird die Nullhypothese ablehnen.

Chi-Quadrat-Anpassungstest

Der Chi-Quadrat-Anpassungstest basiert auf einer einfachen Zufallsstichprobe vom vorgegebenen Umfang n. Das Signifikanzniveau \alpha ist vor der Testdurchführung festzulegen.

Gegeben ist eine Zufallsvariable X\; in der Grundgesamtheit mit der Verteilung F(x), wobei an das Skalenniveau von X\; keine Voraussetzungen gestellt werden.

Die Verteilung F(x) ist unbekannt. Es existiert jedoch eine Annahme, dass X\; die hypothetische Verteilung F_{0}(x) besitzt.

Ist X\; eine diskrete Zufallsvariable (darunter werden im weiteren summarisch nominalskalierte, ordinalskalierte sowie diskrete Zufallsvariablen mit sehr wenigen Ausprägungen verstanden), kann sie die Werte x_{1}, \ldots, x_{k} annehmen.

Es bezeichne:

Ist X\; eine stetige Zufallsvariable (darunter werden im weiteren auch die diskreten Zufallsvariablen mit sehr vielen bzw. unendlich vielen Ausprägungen, d.h. die genannten quasi-stetigen Zufallsvariablen, gefasst), muss eine Intervallbildung der beobachteten Werte in disjunkte, aneinander angrenzende Klassen erfolgen.

Mit k als Anzahl der Klassen (k \geq 2) können die Klassen allgemein wie folgt geschrieben werden:

(x_{0}^{*},x_{1}^{*}),\;(x_{1}^*,x_{2}^*),\; \ldots,(x_{k-1}^*,x_{k}^*)\;\mbox{ bzw. }\;( x_{j-1}^*,x_{j}^*), für  j=1,\ldots ,k.

Es bezeichne im stetigen Fall:

Die Nullhypothese lautet beim Anpassungstest immer, dass die Zufallsvariable X\; in der Grundgesamtheit die hypothetische Verteilung aufweist. Die Alternativhypothese enthält das logische Pendant.

Das dem Chi-Quadrat-Anpassungstest zugrundeliegende Hypothesenpaar lautet speziell:

H_{0}:\; P\left(X=x_{j}\right) = p_{j} \quad \forall j=1, \ldots,k
H_{1}:\; P\left( X=x_{j}\right) \neq p_{j} \quad für mindestens ein j
H_{0}:\; P\left( x_{j-1}^{*}<X\leq x_{j}^{*}\right) = p_{j} \quad \forall j=1, \ldots, k
H_{1}:\; P\left(x_{j-1}^{*}<X\leq x_{j}^{*}\right) \neq p_{j}\quad für mindestens ein j

Dabei bezeichnet p_{j}\; (j=1,\ldots ,k) sowohl im diskreten als auch im stetigen Fall die Wahrscheinlichkeit, dass die Zufallsvariable X\; den Wert x_{j} annimmt bzw. in die j-te Klasse \left(x_{j-1}^{*}, x_{j}^{*} \right) fällt, wenn die hypothetische Verteilung F_{0}(x) zugrundegelegt wird, d.h. wenn die Nullhypothese H_{0} gilt:

p_{j}=P\left( X=x_{j}| H_{0}\right) \; \mbox{bzw.} \; p_{j}=P\left( x_{j-1}^{*}<X\leq x_{j}^{*}| H_{0}\right)

Die p_{j} können bestimmt werden durch die Vorgabe

Beispiel: Die Annahme besagt, dass die Zufallsvariable X\; eine Poisson-Verteilung PO(\lambda) mit vorgegebenem Parameter \lambda besitzt.
Beispiel: Die Annahme besagt, dass die Zufallsvariable X\, eine Normalverteilung N(\mu, \sigma) mit unbekanntem Erwartungswert \mu und unbekannter Standardabweichung \sigma aufweist, so dass diese beiden Parameter erst aus der Stichprobe zu schätzen sind.
Beispiel: Die Zufallsvariable X\; habe vier mögliche Realisationen. Es wird angenommen, dass diese mit den fest vorgegebenen Wahrscheinlichkeiten bzw. relativen Häufigkeiten p_{1}=0,2, p_{2}=0,4, p_{3}=0,1 und p_{4}=0,3 auftreten.

Teststatistik des Chi-Quadrat-Anpassungstests

Der Chi-Quadrat-Anpassungstests basiert auf dem Vergleich der in der Stichprobe beobachteten Verteilung und der bei Gültigkeit der Nullhypothese in der Stichprobe erwarteten Verteilung.

Für die Bestimmung der Teststatistik des Chi-Quadrat-Anpassungstests wird von den absoluten Häufigkeiten ausgegangen.

Für die konkrete Stichprobe wird die Anzahl h_{j} festgestellt, dass das Ereignis \left\{ X=x_{j}\right\} bzw. \left\{ x_{j-1}^*<X\leq x_{j}^*\right\} eingetreten ist.

Mit den absoluten Häufigkeiten h_{j} für alle j=1,\ldots ,k ist die in der Stichprobe beobachtete Verteilung gegeben. Da die absoluten Häufigkeiten h_{j} Ergebnis eines Zufallsexperimentes sind, können sie von Stichprobe zu Stichprobe unterschiedliche Werte annehmen, d.h. sie sind Realisationen von Zufallsvariablen H_{j}\;.

Wenn die Nullhypothese gilt, sind die in der Stichprobe erwarteten relativen Häufigkeiten durch die Wahrscheinlichkeiten p_{j} gegeben.

Für die erwarteten absoluten Häufigkeiten folgt: n\cdot p_{j}.

Der Vergleich zwischen beobachteter und erwarteter Verteilung baut auf den Differenzen H_{j}-n\cdot p_{j},\;(j=1,\ldots ,k) auf. Große Differenzen sprechen tendenziell gegen die Nullhypothese und deuten auf eine falsche Verteilungsannahme hin.

Eine summarische Größe, die die Abweichung von der Nullhypothese bewertet, ist die Teststatistik

V=\sum_{j=1}^{k}\frac{\left( H_{j}-n\cdot p_{j}\right)^{2}}{n\cdot p_{j}}

Bei Gültigkeit der Nullhypothese ist die Teststatistik V\; approximativ Chi-Quadrat-verteilt mit f = k - m- 1 Freiheitsgraden. Dies gilt unabhängig davon, welche Verteilung unter H_{0} angenommen wurde.

Approximationsvoraussetzungen:

Die Approximation an die Chi-Quadrat-Verteilung ist hinreichend, wenn

  • n\cdot p_{j}\geq 1 für alle j und

gilt.

Sind diese Bedingungen nicht erfüllt, müssen vor der Anwendung des Tests benachbarte Werte bzw. Klassen zusammengefasst werden.

Da die p_{j}\; (j = 1, \ldots, k) unter H_{0} vorgegeben sind, folgt außerdem aus den Approximationsvoraussetzungen, dass die Approximation um so besser ist, je größer der Stichprobenumfang n ist.

Bei der Bestimmung der Anzahl der Freiheitsgrade ist zu berücksichtigen, dass:

  • k die Anzahl der verbliebenen Werte bzw. Klassen nach einer eventuell notwendigen Zusammenfassung ist,
  • m die Anzahl der unbekannten und aus der Stichprobe zu schätzenden Parameter der hypothetischen Verteilung bezeichnet (wenn unter H_{0} eine vollständig spezifizierte Verteilung vorgegeben wurde, ist m = 0).

Da in der Teststatistik die Terme \frac{\left(H_{j}-n\cdot p_{j}\right)^{2}}{n\cdot p_{j}} nur positive Werte annehmen können, nimmt die Teststatistik V\; ebenfalls nur positive Werte an.

Große Abweichungen H_{j}-n\cdot p_{j} zwischen beobachteter und erwarteter Verteilung führen zu großen Werten von V\;.

Somit führen nur große Werte von V\; zur Ablehnung der H_{0}, während kleine Werte von V\; nicht gegen die Nullhypothese sprechen, sondern auf eine gute Übereinstimmung hindeuten.

Der Chi-Quadrat-Anpassungstest ist somit ein rechtsseitiger Test.

Der kritische Wert c wird für P(V \leq c) = 1 - \alpha und die Anzahl der Freiheitsgrade f aus der Tabelle der Verteilungsfunktion der Chi-Quadrat-Verteilung entnommen.

Entscheidungsbereiche des Chi-Quadrat-Anpassungstests

Die Entscheidungsbereiche des Chi-Quadrat-Anpassungstests sind:

Die Wahrscheinlichkeit, dass die Teststatistik V\; eine Realisation aus dem Ablehnungsbereich der H_{0} annimmt, entspricht dem vorgegebenen Signifikanzniveau \alpha =P\left( V>\chi_{1-\alpha ;k-m-1}^{2}|H_{0}\right).

Die Wahrscheinlichkeit, dass die Teststatistik V\; eine Realisation aus dem Nichtablehnungsbereich der H_{0} annimmt, ist P\left(V\leq \chi_{1-\alpha;k-m-1}^{2}|H_{0}\right)=1-\alpha.

<R output="display">

pdf(rpdf,width=7,height=7)

curve(from=0, to=35, dchisq(x, df=10), xaxt="n", ylab="f(v)", xlab="", col="red", ylim=c(0.0,0.12), lty=1, lwd=4, font.lab=2, "xaxs"="i" ,"yaxs"="i", bty="l") abline(v=20, col="black", lwd=3, lty=1) text(21, 0.003, expression(alpha), col = "black", cex=2) text(9, 0.04, expression(paste("1-", alpha)), col = "black", cex=2) text(20, -0.0014, , col = "black", cex=1.7) axis( side=1, at=c(20, 35), labels=c(expression(paste(chi^2, ""[1-alpha], ""[";"], ""[f])), "v"), tick=FALSE, cex.axis=1.5)

</R>

Nichtablehnungsbereich der H_{0} | Ablehnungsbereich der H_{0}

Prüfwert des Chi-Quadrat-Anpassungstests

Wenn die Zufallsstichprobe vom Umfang n gezogen wurde, können die absoluten Häufigkeiten h_{j} ermittelt, gegebenenfalls unbekannte Parameter der hypothetischen Verteilung geschätzt und die erwarteten Häufigkeiten n\cdot p_{j} berechnet werden.

Einsetzen in die Teststatistik führt zu einem Prüfwert des Chi-Quadrat-Anpassungstests v.

Entscheidungssituationen des Chi-Quadrat-Anpassungstests

Es konnte statistisch gezeigt werden, dass die Verteilung der Zufallsvariablen X\; in der Grundgesamtheit nicht der hypothetischen Verteilung F_{0}(x) entspricht.
Bei dieser Entscheidung besteht die Möglichkeit, einen Fehler 1. Art (\mbox{''}H_{1}\mbox{''}|H_{0}) zu begehen, wenn in Wirklichkeit die Nullhypothese richtig ist.
Die Wahrscheinlichkeit für einen Fehler 1. Art entspricht dem vorgegebenen Signifikanzniveau \alpha.
Es konnte statistisch nicht gezeigt werden, dass die wahre Verteilung in der Grundgesamtheit von der hypothetischen Verteilung F_{0}\left(x\right) abweicht.
Das bedeutet jedoch nicht, dass die wahre Verteilung tatsächlich die hypothetische Verteilung F_{0}(x) ist. Das Stichprobenergebnis gibt nur keine Veranlassung, H_{0} zu verwerfen.
Bei dieser Entscheidung besteht die Möglichkeit, einen Fehler 2. Art (\mbox{''}H_{0}\mbox{''}| H_{1}) zu begehen, wenn in Wirklichkeit die Alternativhypothese richtig ist.

Zusatzinformationen

Notwendigkeit der Klassierung bei stetigen Zufallsvariablen

Das dem Chi-Quadrat-Anpassungstest zugrundeliegende Hypothesenpaar enthält die Wahrscheinlichkeiten p_{j}\left(j=1,\ldots ,k\right), die aus der hypothetischen Verteilung zu bestimmen sind.

Ist X\; eine diskrete Zufallsvariable, erhält man p_{j}=P\left(X=x_{j}|H_{0}\right) aus der vorgegebenen Wahrscheinlichkeitsfunktion.

Für eine stetige Zufallsvariable X\, ist die Wahrscheinlichkeit, dass X\; einen bestimmten Wert x annimmt, jedoch stets Null.

Daraus folgt die Notwendigkeit einer Klassierung der beobachteten Werte. Die Wahrscheinlichkeit p_{j}=P\left(x_{j-1}^*<X\leq x_{j}^*|H_{0}\right), dass die stetige Zufallsvariable X\; einen Wert aus der Klasse \left(x_{j-1}^*,x_{j}^*\right) annimmt, kann dann mittels der vorgegebenen Verteilungsfunktion bestimmt werden.

Es sei jedoch angemerkt, dass auch für eine diskrete Zufallsvariable eine Klassierung vorgenommen werden kann, falls es die Problemstellung erfordert.

Herleitung der Teststatistik des Chi-Quadrat-Anpassungstests

Die Tatsache, dass die beobachteten absoluten Häufigkeiten h_{j} Zufallsvariablen H_{j} sind, lässt sich wie folgt zeigen, wobei es keine Rolle spielt, ob X\; diskret oder stetig ist, so dass nur auf eine diskrete Zufallsvariable X\; Bezug genommen wird.

Aus der Grundgesamtheit wird ein Element zufällig gezogen und festgestellt, ob der Wert x_{j} aufgetreten ist, d.h. ob das Ereignis \{X = x_{j}\} eingetreten ist oder nicht.

Es gibt somit nur zwei mögliche Ergebnisse des Zufallsexperimentes. Die Wahrscheinlichkeit für das Eintreten des Ereignisses \{X =x_{j}\} beträgt bei Gültigkeit der Nullhypothese p_{j} und die Wahrscheinlichkeit für das Nichteintreten 1 - p_{j}.

Das Zufallsexperiment wird n-mal wiederholt, wobei die einzelnen Versuche unabhängig voneinander (da eine einfache Zufallsstichprobe vorausgesetzt wird) und die Wahrscheinlichkeiten konstant sind. Es liegt somit ein Bernoulli-Experiment vor.

Bei n-maliger Durchführung der Versuche interessiert die Gesamtzahl des Eintretens von {\left\{X=x_{j}\right\}}, d.h. die absolute Häufigkeit von x_{j} in der Stichprobe.

Diese Häufigkeit kann von Stichprobe zu Stichprobe unterschiedlich sein, so dass H_{j}: = \{Anzahl des Auftretens von X=x_{j} in einer einfachen Zufallsstichprobe vom Umfang n \} eine diskrete Zufallsvariable ist, die die Werte 0,\ldots ,n annehmen kann.

Die Zufallsvariable H_{j}\; ist binomialverteilt und zwar bei Gültigkeit von H_{0} mit den Parametern n und p_j : H_j \sim B(n;p_j)\;.

Der Erwartungswert von H_{j}\; ist E\left[H_{j}\right]=n\cdot p_{j} und damit die bei Gültigkeit der H_{0} erwartete absolute Häufigkeit des Wertes \left\{X=x_{j}\right\} in der Stichprobe.

Die Variation der absoluten Häufigkeiten für \left\{X=x_{j}\right\} wird durch die Varianz Var\left( H_{j}\right)=np_{j}\left( 1-p_{j}\right) erfasst.

Für die Konstruktion der Teststatistik wird die Abweichung der Zufallsvariablen von ihrem Erwartungswert gebildet: H_{j}-n\cdot p_{j}.

Zur Vermeidung, dass sich positive und negative Abweichungen aufheben, erfolgt eine Quadrierung: \left(H_{j}-n\cdot p_{j}\right)^{2}.

Mit der Division durch die erwartete Häufigkeit n\cdot p_j wird der Einfluss des Stichprobenumfanges n und der Wahrscheinlichkeit p_{j} berücksichtigt und der unterschiedlichen Bedeutung der Abweichungen Rechnung getragen.

Eine Differenz h_{j}-n\cdot p_{j}=5 fällt bei n\cdot p_{j}=10 stärker ins Gewicht als bei n\cdot p_{j}=100.

Diese Herleitung gilt für alle j=1,\ldots ,k gleichermaßen

V=\sum_{j=1}^{k}\frac{\left(H_{j}-n\cdot p_{j}\right)^{2}}{n\cdot p_{j}}

Da die H_{j}\; Zufallsvariablen sind, ist auch V\; eine Zufallsvariable. Bei Gültigkeit der Nullhypothese, hinreichend großem Stichprobenumfang n und Einhaltung der Approximationsbedingungen ist die Teststatistik V\; approximativ Chi-Quadrat-verteilt mit f = k - m - 1 Freiheitsgraden.

Dies gilt unabhängig davon, welche Verteilung unter H_{0} angenommen wurde.

Sind die Approximationsbedingungen nicht erfüllt, müssen vor der Anwendung des Tests benachbarte Werte bzw. Klassen zusammengefasst werden, was dann auch im diskreten Fall mit einer Klassierung verbunden ist.

Bei der Ermittlung der Freiheitsgrade ist zu berücksichtigen, dass ein Freiheitsgrad grundsätzlich verloren geht, weil die beobachteten absoluten Häufigkeiten nicht unabhängig voneinander sind.

Für vorgegebenen Stichprobenumfang n und aufgrund der Bedingung \sum\nolimits_{j}h_{j}=n folgt, dass jede Häufigkeit h_{j} durch die anderen k - 1 Häufigkeiten bestimmt ist.

Weitere Freiheitsgrade gehen verloren, wenn die hypothetische Verteilung F_{0}\left( x\right) nicht mit allen ihren Parametern bekannt ist, sondern diese Parameter aus der Stichprobe geschätzt werden müssen.

Mit m als Anzahl der zu schätzenden Parameter ergibt sich die Anzahl der Freiheitsgrade zu: f = k - m - 1.

Beispiele

Würfel

Von einem gegebenen Würfel wird behauptet, dass es sich um einen fairen Würfel handelt.

Um diese Behauptung zu überprüfen, wird ein Chi-Quadrat-Anpassungstest auf dem Signifikanzniveau von \alpha =0,1 durchgeführt. Der Umfang der Stichprobe sei n=240.

Die interessierende Zufallsvariable ist X\;: "Geworfene Augenzahl des Würfels" mit den möglichen Realisationen x_{1}=1,\; x_{2}=2,\;x_{3}=3,\;x_{4}=4,\;x_{5}=5 und x_{6}=6. X\; ist eine diskrete Zufallsvariable.

Die Verteilung F(x) ist unbekannt, da nichts über den vorliegenden Würfel bekannt ist. Die Behauptung, dass es sich um einen fairen Würfel handelt, impliziert jedoch, dass die sechs möglichen Realisationen alle die gleiche Wahrscheinlichkeit des Eintretens aufweisen.

Es ist somit die Hypothese zu prüfen, dass die Zufallsvariable X\; eine diskrete Gleichverteilung aufweist, woraus sich das Hypothesenpaar

H_{0}:\; X ist diskret gleichverteilt

H_1:\; X ist nicht diskret gleichverteilt

ergibt.

Bei Gültigkeit der Nullhypothese folgt aufgrund der klassischen Definition der Wahrscheinlichkeit P(X = x_{j}) = p_{j} = \frac{1}{6} für alle j = 1,\ldots, 6, so dass die Hypothesen konkretisiert werden können:

H_{0}:\;P\left(X=x_{j}\right)=p_{j}=\frac{1}{6},\quad\forall j=1,\ldots ,6

H_{1}:\;P\left(X=x_{j}\right) \neq \frac{1}{6}, \quad für mindestens ein j

Teststatistik und Entscheidungsbereiche

Es wird die Teststatistik des Chi-Quadrat-Anpassungstests

V=\sum_{j=1}^{k}\frac{\left(H_{j}-n\cdot p_{j}\right)^{2}}{n\cdot p_{j}}

verwendet.

Sie ist bei Gültigkeit der Nullhypothese approximativ Chi-Quadrat-verteilt, da wegen n\cdot p_{j}=40>5 für alle j=1,\ldots ,6 die Approximationsbedingungen erfüllt sind.

Die diskrete Gleichverteilung ist eine vollständig spezifizierte Verteilung, d.h. es ist kein Parameter aus der Stichprobe zu schätzen, womit m = 0 ist.

Die Anzahl der Werte ist k = 6. Damit resultiert für die Anzahl der Freiheitsgrade: f = k - m - 1 = 5.

Für P\left( V\leq c\right) =1-\alpha =0,9 und f = 5 findet man in der Tabelle der Verteilungsfunktion der Chi-Quadrat-Verteilung den kritischen Wert c=\chi_{1-\alpha ;k-m -1}^{2}=\chi_{0,90;5}^{2}=9,24.

Die Entscheidungsbereiche sind damit:

Ablehnungsbereich der H_{0}: \left\{v|v>9,24\right\}

Nichtablehnungsbereich der H_{0}:\;\left\{ v|v\leq 9,24\right\}.

Prüfwert und Testentscheidung

Der Würfel wird 240 mal geworfen. Dabei handelt es sich um eine einfache Zufallsstichprobe, denn die Voraussetzung der Unabhängigkeit der Würfe ist gegeben.

Spalte 2 der folgenden Tabelle enthält die beobachtete Anzahl der Augenzahlen h_{j}

Augenzahl x_{j} beobachtete Anzahl h_{j} unter H_{0} erwartete Anzahl n\cdot p_{j} h_{j}-n\cdot p_{j} \left( h_{j}-n\cdot p_{j}\right)^{2} \frac{\left( h_{j}-n\cdot p_{j}\right)^{2}}{n\cdot p_{j}}
1 52 40 12 144 3,6
2 50 40 10 100 2,5
3 32 40 -8 64 1,6
4 36 40 -4 16 0,4
5 32 40 -8 64 1,6
6 38 40 -2 4 0,2

Abweichungen zwischen den beobachteten Anzahlen und den unter H_{0} erwarteten Anzahlen sind gegeben.

Können diese Abweichungen noch als zufällig angesehen werden, wenn es sich um einen fairen Würfel handeln soll?

Der Prüfwert ergibt sich als Summe der Werte in der letzten Spalte: v = 9,8

Da v in den Ablehnungsbereich der H_{0} fällt, wird die Nullhypothese abgelehnt (\mbox{''}H_{1}\mbox{''}).

Auf einem Signifikanzniveau von \alpha=0,1 und basierend auf einer Zufallsstichprobe vom Umfang n = 240 konnte statistisch bewiesen werden, dass die Verteilung der Zufallsvariablen X\;: "Geworfene Augenzahl des Würfels" keiner diskreten Gleichverteilung entspricht, d.h. der vorliegende Würfel kein fairer Würfel ist.

Bei dieser Entscheidung besteht die Möglichkeit, einen Fehler 1. Art (\mbox{''}H_{1}\mbox{''}|H_{0}) zu begehen, wenn in Wirklichkeit die Nullhypothese richtig ist.

Die Wahrscheinlichkeit für einen Fehler 1. Art entspricht dem vorgegebenen Signifikanzniveau \alpha = 0,1.

Produktnachfrage (1. Version)

Eine Vertriebsgesellschaft führt eine umfassende Analyse ihrer Geschäftsaktivitäten durch, worunter auch die tägliche Nachfrage nach einem ihrer Spezialprodukte fällt.

In diesem Zusammenhang ist von besonderem Interesse, welche Verteilung die Anzahl der täglich nachgefragten Produkte aufweist.

Bei der Nachfrage nach dem Produkt handelt es sich um ein Ereignis, dass wiederholt, jedoch zufällig und unabhängig voneinander in einem Kontinuum (hier: Zeit) vorgegebenen Umfangs (hier: Tag) auftreten kann.

Die Zufallsvariable X\; bezeichne die Anzahl der täglich nachgefragten Produkte und ist diskret.

Es wird somit vermutet (vgl. Abschnitt "Poisson-Verteilung"), dass die Poisson-Verteilung ein adäquates Verteilungsmodell ist: X \sim PO(\lambda)\;.

Der Test soll auf einem Signifikanzniveau von \alpha = 0,05 durchgeführt werden. Eine einfache Zufallsstichprobe von n = 50 Tagen lieferte die beobachteten Daten, die in den Spalten 2 und 3 der Tabelle 1 enthalten sind.

Ein langjähriger Mitarbeiter der Firma vermutet aufgrund seiner Erfahrung, dass im Mittel neun Produkte an den 5 Werktagen einer Woche nachgefragt werden.

Da für den Erwartungswert der Poisson-Verteilung E[X] = \lambda gilt und als Zeitintervall ein Tag betrachtet wird, ist \lambda = 1,8 und es wird folgendes Hypothesenpaar formuliert:

H_{0}:X\; ist Poisson-verteilt mit dem Parameter \lambda =1,8, d.h. X\sim PO\left( 1,8\right)

H_{1}:X\; ist nicht PO\left( 1,8\right)-verteilt.

In den Spalten 4 und 5 der Tabelle 1 sind die unter H_{0} erwarteten Wahrscheinlichkeiten P(X = x_{j}|H_{0})=p_{j} (die aus der Tabelle der PO(1,8) entnommen wurden) sowie die erwarteten absoluten Häufigkeiten n\cdot p_{j} enthalten.

Tabelle 1

j\; Anzahl nachgefragter

Produkte (x_{j})

Anzahl der Tage mit x_{j}

nachgefragten Produkten (h_{j})

p_{j}=P\left(X=x_{j}|H_{0}\right) n\cdot p_{j}|H_{0}
1 0 3 0,1653 8,265
2 1 9 0,2975 14,875
3 2 14 0,2678 13,390
4 3 13 0,1607 8,035
5 4 6 0,0723 3,615
6 5 5 0,0260 1,300
7 6 und mehr 0 0,0104 0,520

Teststatistik und Entscheidungsbereiche

Es wird die Teststatistik des Chi-Quadrat-Anpassungstests

V=\sum_{j=1}^{k}\frac{\left(H_{j}-n\cdot p_{j}\right)^{2}}{n\cdot p_{j}}

verwendet. Sie ist bei Gültigkeit der Nullhypothese approximativ Chi-Quadrat-verteilt mit f = k - m - 1 Freiheitsgraden.

Überprüfung der Approximationsbedingungen:

Wie aus der Spalte 5 der Tabelle 1 ersichtlich, ist für die Realisationen x_{5} = 4 und x_{6} = 5 die Approximationsbedingung n\cdot p_{j} \geq 5 und für die Realisation x_{7} = 6 und mehr sogar die Bedingung n\cdot p_{j} \geq 1 nicht erfüllt, so dass diese 3 Realisationen zusammengefasst werden.

Bestimmung der Anzahl der Freiheitsgrade:

Nach der Zusammenfassung verbleiben noch k = 5 Klassen. Die Poisson-Verteilung wurde als eine vollständig spezifizierte Verteilung vorgeben, d.h. es ist kein Parameter aus der Stichprobe zu schätzen, womit m = 0 ist. Damit ist f = 5 - 1 = 4.

Unter H_{0} ist die Teststatistik V\; approximativ Chi-Quadrat-verteilt mit f = 4 Freiheitsgraden.

Für P(V \leq c) = 0,95 und f = 4 findet man in der Tabelle der Verteilungsfunktion der Chi-Quadrat-Verteilung den kritischen Wert c=\chi_{1-\alpha;k-m-1}^{2}=\chi_{0,95;4}^{2}=9,49.

Die Entscheidungsbereiche sind damit:

Ablehnungsbereich der H_{0}:\; \left\{ v|v>9,49\right\}

Nichtablehnungsbereich der H_{0}:\;\left\{v|v\leq 9,49\right\}.

Prüfwert und Testentscheidung

Die Tabelle 2 enthält alle notwendigen Zwischenergebnisse für die Berechnung des Prüfwertes.

Tabelle 2

x_{j}\; h{j}\; n\cdot p_{j} h_{j}-n\cdot p_{j} \left(h_{j}-n\cdot p_{j}\right)^{2} \frac{\left(h_{j}-n\cdot p_{j}\right)^{2}}{n\cdot p_{j}}
0 3 8,265 -5,265 27,7202 3,3539
1 9 14,875 -5,875 34,5156 2,3204
2 14 13,390 0,610 0,3721 0,0278
3 13 8,035 4,965 24,6512 3,0680
4 und mehr 11 5,435 5,565 30,9692 5,6981

Der Prüfwert ergibt sich als Summe der Werte in der letzten Spalte: v=14,4682.

Da v in den Ablehnungsbereich der H_{0} fällt, wird die Nullhypothese abgelehnt (\mbox{''}H_{1}\mbox{''}).

Auf einem Signifikanzniveau von \alpha = 0,05 und basierend auf einer Zufallsstichprobe vom Umfang n = 50 konnte statistisch bewiesen werden, dass die Verteilung der Zufallsvariablen X\;: "Anzahl der täglich nachgefragten Produkte" nicht eine PO(1,8) ist.

Das bedeutet jedoch nicht, dass das Verteilungsmodell der Poisson-Verteilung damit grundsätzlich verworfen wird, sondern nur dass die spezielle Poisson-Verteilung PO(1,8) nicht als die geeignete Verteilung anzusehen ist.

Bei dieser Entscheidung für H_{1} besteht die Möglichkeit, einen Fehler 1. Art (\mbox{''}H_{1}\mbox{''}| H_{0}) zu begehen, wenn in Wirklichkeit die Nullhypothese richtig ist.

Die Wahrscheinlichkeit für einen Fehler 1. Art entspricht dem vorgegebenen Signifikanzniveau \alpha = 0,05.

Produktnachfrage (2. Version)

Eine Vertriebsgesellschaft führt eine umfassende Analyse ihrer Geschäftsaktivitäten durch, worunter auch die tägliche Nachfrage nach einem ihrer Spezialprodukte fällt.

In diesem Zusammenhang ist von besonderem Interesse, welche Verteilung die Anzahl der täglich nachgefragten Produkte aufweist.

Bei der Nachfrage nach dem Produkt handelt es sich um ein Ereignis, dass wiederholt, jedoch zufällig und unabhängig voneinander in einem Kontinuum (hier: Zeit) vorgegebenen Umfangs (hier: Tag) auftreten kann.

Die Zufallsvariable X\; bezeichne die Anzahl der täglich nachgefragten Produkte und ist diskret.

Es wird somit vermutet (vgl. Abschnitt "Poisson-Verteilung"), dass die Poisson-Verteilung ein adäquates Verteilungsmodell ist: X \sim PO(\lambda)\;.

Der Test soll auf einem Signifikanzniveau von \alpha = 0,05 durchgeführt werden. Eine einfache Zufallsstichprobe von n = 50 Tagen lieferte die beobachteten Daten, die in den Spalten 2 und 3 der Tabelle 1 enthalten sind.

Es wird auch bei dieser Version vermutet, dass die Poisson-Verteilung ein adäquates Verteilungsmodell ist: X \sim PO(\lambda).

Es liegen jedoch keine Erkenntnisse bzw. Erfahrungen über den Parameter \lambda vor. Der unbekannte Parameter \lambda muss aus der Stichprobe geschätzt werden.

Es wird die Zufallsstichprobe vom Umfang n = 50 aus der 1. Version verwendet. Wegen E[X] = \lambda ist der Stichprobenmittelwert

\bar{X}=\frac{1}{n}\cdot\sum_{i=1}^{n}X_{i}

eine geeignete Schätzfunktion. Als gewogenes arithmetisches Mittel aus der Stichprobe resultiert: \bar{x} = 125/50 = 2,5.

Das Hypothesenpaar lautet damit:

H_{0}:X\; ist Poisson-verteilt mit dem Parameter \lambda =2,5, d.h. X\sim PO\left( 2,5\right)

H_{1}:X\; ist nicht PO\left( 2,5\right)-verteilt.

In den Spalten 4 und 5 der Tabelle 3 sind die unter H_{0} geschätzten hypothetischen Wahrscheinlichkeiten P(X = x_{j}|H_{0})=p_{j} (die aus der Tabelle der PO(2,5) entnommen wurden) und absoluten Häufigkeiten n\cdot p_{j} enthalten.

Tabelle 3

j\; Anzahl nachgefragter x_{j}

Produkte (x_{j})

Anzahl der Tage mit x_{j}

nachgefragten Produkten h{j}

p_{j}=P\left(X=x_{j}|H_{0}\right) n\cdot p_{j}|H_{0}
1 0 3 0,0821 4,105
2 1 9 0,2052 10,260
3 2 14 0,2565 12,825
4 3 13 0,2138 10,690
5 4 6 0,1336 6,680
6 5 5 0,0668 3,340
7 6 und mehr 0 0,0420 2,100

Teststatistik und Entscheidungsbereiche

Es wird wieder die Teststatistik

V=\sum_{j=1}^{k}\frac{\left( H_{j}-n\cdot p_{j}\right)^{2}}{n\cdot p_{j}}

verwendet, die bei Gültigkeit der Nullhypothese approximativ Chi-Quadrat-verteilt mit f=k -m-1 Freiheitsgraden ist.

Überprüfung der Approximationsbedingungen:

Wie aus der Spalte 5 der Tabelle 3 ersichtlich, ist für die Realisation x_{1}=0 die Approximationsbedingung n\cdot p_{j}\geq 5 nicht erfüllt, so dass sie mit x_{2} zusammengefasst wird.

Weiterhin ist für die Realisationen x_{6} = 5 und x_{7} = 6 und mehr die Approximationsbedingung n\cdot p_{j}\geq 5 nicht erfüllt, so dass diese beiden Realisationen zusammengefasst werden.

Bestimmung der Anzahl der Freiheitsgrade:

Nach der Zusammenfassung verbleiben noch k = 5 Klassen. Da der Parameter \lambda aus der Stichprobe geschätzt werden musste, ist m=1 und somit f=5-1-1=3.

Unter H_{0} ist die Teststatistik V\; approximativ Chi-Quadrat-verteilt mit f = 3 Freiheitsgraden.

Für P(V \leq c) = 0,95 und f = 3 findet man in der Tabelle der Verteilungsfunktion der Chi-Quadrat-Verteilung den kritischen Wert c=\chi_{1-\alpha ;f}^{2}=\chi_{0,95;3}^{2}=7,81.

Die Entscheidungsbereiche sind damit:

Ablehnungsbereich der H_{0}:\; \left\{ v|v>7,81\right\}

Nichtablehnungsbereich der H_{0}:\;\left\{ v|v\leq 7,81\right\}.

Prüfwert und Testentscheidung

Die Tabelle 4 enthält alle notwendigen Zwischenergebnisse für die Berechnung des Prüfwertes

Tabelle 4

x_{j}\; h{j}\; n\cdot p_{j} h_{j}-n\cdot p_{j} \left(h_{j}-n\cdot p_{j}\right)^{2} \frac{\left(h_{j}-n\cdot p_{j}\right)^{2}}{n\cdot p_{j}}
0-1 12 14,365 -2,365 5,5932 0,3894
2 14 12,825 1,175 1,3806 0,1076
3 13 10,690 2,310 5,3361 0,4992
4 6 6,680 -0,680 0,4624 0,0692
5 und mehr 5 5,440 -0,440 0,1936 0,0356

Der Prüfwert ergibt sich als Summe der Werte in der letzten Spalte: v=1,101.

Da v in den Nichtablehnungsbereich der H_{0} fällt, wird die Nullhypothese nicht verworfen (\mbox{''}H_{0}\mbox{''}).

Basierend auf einer Zufallsstichprobe vom Umfang n = 50 konnte statistisch nicht bewiesen werden, dass die Zufallsvariable X:\; "Anzahl der täglich nachgefragten Produkte" nicht einer PO(2,5) folgt.

Bei dieser Entscheidung für H_{0} besteht die Möglichkeit, einen Fehler 2. Art (\mbox{''}H_{0}\mbox{''}|H_{1}) zu begehen, wenn in Wirklichkeit die Nullhypothese richtig ist.

Die Wahrscheinlichkeit für einen Fehler 2. Art P(\mbox{''}H_{0}\mbox{''}| H_{1}) = \beta ist jedoch unbekannt.