Skip to Tutorial Content

Mittelwerte testen: Der t-test für eine Stichprobe

Das Wichtigste in Kürze

Gegeben sind Beobachtungen einer Zufallsvariable \(X\), nämlich die Körpergewichte von \(n=20\) Jugendlichen:

1

2

3

4

5

6

7

8

9

10

34

44

45

47

50

50

53

56

56

58

11

12

13

14

15

16

17

18

19

20

58

62

66

67

69

76

78

80

86

94

Aus einer Fachzeitschrift erfährt man, dass der Mittelwert der Population, also das mittlere Gewicht aller Jugendlichen mit \(\mu=69\) Kilogramm angegeben wird.

  1. Die Frage beim Testen ist, ob die Hypothese zum Populations-Parameter \(\mu\) mit der Stichprobe \(x\) vereinbar ist.
  2. Parameter aus der Grundgesamtheit werden mit griechischen Buchstaben bezeichnet, z.B. der Mittelwert in der Population mit \(\mu\).
  3. Parameter aus der Stichprobe werden mit lateinischen Buchstaben, z.B. der Mittelwert in der Stochprobe mit \(\bar{x}\).

Berechnen Sie nun mit untenstehendem R-Code den Stichproben-Mittelwert \(\bar{x}\) und die Stichproben-Streuung \(s\).

x<-c(34,44,45,47,50,50,53,56,56,58,58,62,66,67,69,76,78,80,86,94)
m<-mean(x)
s<-sd(x)
m
s

Die Grössen aus der Stichprobe lauten somit: \(\bar{x}=61.45\), \(s=15.48\) und \(n=20\).

Das Vorgehen beim Testen fassen wir in untenstehender Liste zusammen:

  1. Schritt: Formulieren der Null- und Alternativ-Hypothesen \(H_0\) und \(H_A\)
  2. Schritt: Wahl des Signifikanzniveau \(1-\alpha\)
  3. Schritt: Berechnen der Test-Statistik
  4. Schritt: Konstruktion des Annahme- und Verwerfungs-Bereichs
  5. Schritt: Test-Entscheid

Schritt 1: Formulieren der Null- und Alternativ-Hypothesen \(H_0\) und \(H_A\)

Die Nullhypothese \(H_0\) ist eine Aussage über den Populationsparameter \(\mu\). Die Behauptung gemäss Fachzeitschrift lautet:

\[H_0: \mu=69\]

Die Alternativhypothese \(H_A\) ist das Gegenteil von \(H_0\). Somit lautet sie:

\[H_A: \mu \neq 69\]

\(H_0\) hat immer etwas mit einem Test auf Gleichheit zu tun, \(H_A\) mit Ungleichheit. So, wie unsere Hypothesen aktuell formuliert sind, sprechen wir von einem beidseitigen Test, da die in \(H_A\) ausgedrückte Ungleichheit (\(\neq\)) bedeutet, dass der wahre aber unbekannte Mittelwert in der Population kleiner oder grösser als der Wert unter der Nullhypothese \(H_0: \mu=69\) ist.

Es gibt auch eine einseitige Test-Strategie. Unser Stichprobenmittelwert \(\bar{x}=61.45\) könnte die Vermutung aufkommen lassen, dass unter \(H_A\) der wahre Populationsmittelwert signifikant kleiner als \(69\) ist. Unter einseitigem Testen wäre die Formulierung also:

\[H_0: \mu=69\] oder allenfalls \[H_0:\mu \geq 69\]

und

\[H_A: \mu < 69\]

Wir testen zuerst einseitig.

Schritt 2: Wahl des Signifikanzniveau \(1-\alpha\)

Das Signifikanzniveau \(1-\alpha\) ist eine gewählte Wahrscheinlichkeit, zu welcher die Nullhypothese \(H_0\) angenommen wird. Die Wahrscheinlichkeit \(\alpha\) ist jene, zu welcher die Alternativhypothese \(H_A\) angenommen (und \(H_0\) verworfen) wird.

Typischerweise wählt man \(1-\alpha\) zu 90%, 95% oder 99% und somit \(\alpha\) zu 10%, 5% oder 1%. Wenn nichts spezifisches erwähnt wird, so wählt man das Signifikanzniveau \(1-\alpha=95\%\). Wir können Schritt 1 und Schritt 2 zusammen erledigen, indem wir aufschreiben:

\[H_0:\mu \geq 69, \texttt{ zu } 1-\alpha=95\%\]

\[H_A: \mu < 69, \texttt{ zu } \alpha=5\%\]

Schritt 3: Berechnen der Test-Statistik

Die Test-Statistik überprüft, wie weit der erhobene Parameter der Stichprobe, also der Mittelwert \(\bar{x}\), von dem hypothetischen Wert der Grundgesamtheit, also \(H_0: \mu=69\), entfernt ist. Die Test-Statistik lautet:

\[t=\frac{\bar{x} - \mu}{\frac{s}{\sqrt{n}}}\]

Der Zähler des Bruches \(\bar{x}-\mu\) überprüft, wie weit der Stichprobenmittelwert vom hypothetischen Populationsmittel entfernt ist. Der Nenner ist der Standardfehler des Mittelwertes. Eine Test-Statistik berechnet also die Entfernung der Stichprobe zu \(H_0\), ausgedrückt in Anzahl Standardfehler. Ist die Entfernung “klein”, so wird \(H_0\) beibehalten. Ist sie gross, so wird \(H_0\) verworfen. Die Test-Statistik wird mit \(t\) bezeichnet, dies bedeutet für uns, dass der berechnete Wert einer \(g\) Verteilung mit \(df=n-1\) folgt. Falls der Stichprobenmittelwert \(\bar{x}\) gerade identisch mit dem Populationsmittelwert \(\mu\) ist, lautet die t-Statistik \(t=0\), was dem Erwartungswert der t-Verteilung entspricht.

Die \(t\) Statistik berechnet sich zu:

\[t = \frac{61.45-69}{\frac{15.48}{\sqrt{20}}}= -2.181\]

Schritt 4: Konstruktion des Annahme- und Verwerfungs-Bereichs

Die \(t\)-Statistik ist \(t\)-verteilt mit \(df=n-1=19\) Freiheitsgraden. Da die Alternativ-Hypothese \(H_A\) einseitig nach unten (\(H_A: \mu < 69\)) formuliert ist, wird die Wahrscheinlichkeitsmasse \(\alpha=5\%\) in den unteren Bereich der Verteilung gelegt wird.

Gemäss Tabelle liegt dieses Quantil bei \(t_{5\%,df=19} = -1.729\)

Dieses Quantil wird untenstehend durch das rote Kreuz markiert und trennt den Annahmebereich von \(H_0\) vom Verwerfungsbereich von \(H_0\).

Eine Bedeutung hat der Wert \(t=0\), welcher in der Grafik mit einem grünen Punkt markiert ist. Wäre nämlich der Stichprobenmittelwert \(\bar{x}\) gerade identisch zum hypothetischen Populationsmittel unter \(H_0\), so wäre natürlich \(t=0\) und die Nullhypothese wäre ‘perfekt’ mit der Stichprobe vereinbar. Je weiter wir uns aber nun nach unten weg von diesem grünen Punkt bewegen, umso eher trifft die Alternative \(H_A: \mu<69\) zu.

Da wir der Alternative \(\alpha=5\%\) Gewicht geben wird die Nullhypothese verworfen, sobald die Test-Statistik \(t\) in den roten Bereich fällt. Diese Grenze liegt wie erwähnt bei \(t_{5\%,df=19} = -1.729\).

Schritt 5: Test-Entscheid

Unsere Test-Statistik \(t=-2.181\), markiert mit dem schwarzen Dreieck, fällt offensichtlich in den Verwerfungsbereich von \(H_0\). Das bedeutet nun, dass auf dem Signifikanz-Niveau \(1-\alpha=95\%\) die Nullhypothese \(\mu=69\) nicht mit der erhobenen Stichprobe vereinbar ist.

Mit statistischer Software wird übrigens meist nur der sogenannte \(p\)-Wert (oder \(p\)-value) ausgegeben.

Der \(p\)-Wert ist die Wahrscheinlichkeit, ein noch extremeres Test-Resultat zu sehen.

Noch extremer heisst in unserem Fall, eine Test-Statistik zu beobachten, die eben noch weiter von \(H_0\) entfernt ist, als dass wir es ohnehin schon sind. Dies entspricht der Fläche unter der \(t\)-Verteilung mit \(df=19\) zwischen \(t=-2.181\) und \(-\infty\). Gemäss Tabelle der \(t\)-Verteilung liegt diese Fläche zwischen \(p=5\%\) und \(p=4\%\) beidseitig (die Tabelle ist beidseitig aufgestellt), der einseitige \(p\)-Wert liegt somit zwischen \(p=2.5\%\) und \(p=2\%\). Da diese Fläche kleiner als \(\alpha=5\%\) ist, wird \(H_0\) verworfen. Wir merken uns:

Der \(p\)-Wert ist die Wahrscheinlichkeit, ein noch extremeres Test-Resultat zu sehen. Falls \(p<\alpha\), so wird \(H_0\) verworfen.

Testen mir R

Mit der Funktion t.test() können wir mit R einen \(t\)-Test berechnen.

x<-c(34,44,45,47,50,50,53,56,56,58,58,62,66,67,69,76,78,80,86,94)

t.test(x,mu=69,alternative="less")

Wir sehen, dass R einen \(p\)-Wert von \(p=2.1\%\) ausgibt. Da \(p=2.1\% < \alpha=5\%\) ist, wird \(H_0\) verworfen. Der Populationsparameter \(\mu\) liegt statistisch signifikant unter 69 (im Sinne von \(H_A\)).

Beidseitiges Testen

Wir wiederholen die obigen fünf Schritte für beidseitiges Testen.

Schritte 1 und 2: Formulieren der Hypothesen und Wahl des Signifikanzniveau \(1-\alpha\)

\[H_0:\mu = 69, \texttt{ zu } 1-\alpha=95\%\]

\[H_A: \mu \neq 69, \texttt{ zu } \alpha=5\%\]

Wie Sie sehen testen wir unter der Alternative nun auf ungleich (\(\neq\)) und nicht auf kleiner (\(<\)). Das heisst, wir verwerfen \(H_0\) nun bei grossen Abweichungen nach unten oder nach oben.

Schritt 3: Berechnen der Test-Statistik

Die \(t\) Statistik berechnet sich zu:

\[t = \frac{61.45-69}{\frac{15.48}{\sqrt{20}}}= -2.181\]

Sie sehen, der \(t\)-Wert ändert sich nicht.

Schritt 4: Konstruktion des Annahme- und Verwerfungs-Bereichs

Beim beidseitigen Testen wird der Verwerfungsbereich in beide Enden der Verteilungen gelegt, und zwar jeweils hälftig zu \(\frac{\alpha}{2}=2.5\%\). Die Quantile, wiederum markiert mit einem roten Kreuz, lauten nun \(t_{2.5\%,97.5\%,df=19}=\pm 2.093\).

Schritt 5: Test-Entscheid

Unsere Test-Statistik \(t=-2.181\), markiert mit dem schwarzen Dreieck, fällt offensichtlich knapp in den Verwerfungsbereich von \(H_0\). Das bedeutet nun, dass auf dem Signifikanz-Niveau \(1-\alpha=95\%\) die Nullhypothese \(\mu=69\) nicht mit der erhobenen Stichprobe vereinbar ist.

Der p-Wert ist nun aber doppelt so gross wie beim einseitigen Testen. Die Fläche unterhalt der Test-Statistik \(t=-2.181\) lautet nach wie vor \(2.1\%\). Da aber beidseitig getestet wird, muss auch die Fläche hinter der ‘gespiegelten’ Test-Statistik, die gleich gross ist, berücksichtigt werden. Der \(p\)-Wert beim beidseitigen Testen lautet: \(p=2\cdot 2.1\%=4.2\%\). Mit der Tabelle hätte man gesagt, dass der \(p\)-Wert zwischen \(4\%\) und \(5\%\) liegen muss. Da gilt: \(p<\alpha\) wird \(H_0\) wiederum verworfen.

Testen mir R

Mit der Funktion t.test() können wir mit R einen \(t\)-Test berechnen.

x<-c(34,44,45,47,50,50,53,56,56,58,58,62,66,67,69,76,78,80,86,94)

t.test(x,mu=69,alternative="two.sided")

Wir sehen, dass R einen \(p\)-Wert von \(p=4.2\%\) ausgibt. Da \(p=4.2\% < \alpha=5\%\) ist, wird \(H_0\) verworfen. Der Populationsparameter \(\mu\) liegt statistisch signifikant unter 69 (im Sinne von \(H_A\)).

Varianzen testen - der \(\chi^2\)-Test für eine Stichprobe

1

2

3

4

5

6

7

8

9

10

34

44

45

47

50

50

53

56

56

58

11

12

13

14

15

16

17

18

19

20

58

62

66

67

69

76

78

80

86

94

Wir erinnern uns: Der Stichprobenmittelwert beträgt \(\bar{x}=61.45\) und die Streuung beträgt \(s=15.48\).

Wir haben vorhin obige Stichprobe auf eine Hypothese hinsichtlich des Populationsparameters \(\mu\) getestet. Getestet werden soll nun die Behauptung, dass die Streuung in der Grundgesamtheit \(\sigma=20\) beträgt. Wir folgen nun den gleichen Schritten wie beim Testen für Mittelwerte.

Schritte 1 und 2: Formulieren der Hypothesen und Wahl des Signifikanzniveau \(1-\alpha\)

\[H_0:\sigma = 20, \texttt{ zu } 1-\alpha=95\%\]

\[H_A: \sigma \neq 20, \texttt{ zu } \alpha=5\%\]

Schritt 3: Berechnen der Test-Statistik

Die Test-Statistik heisst:

\[\chi^2 = \frac{(n-1)\cdot s^2}{\sigma^2} \texttt{ mit } df=n-1\]

Interpretieren wir kurz diese Formel. Wie gross wird diese Test-Statistik, wenn die Streuung aus der Stichprobe \(s\) exakt gleich gross wie die hypothetische Streuung unter \(H_0\) ist (also gleich \(\sigma\)). Die Test-Statistik lautet dann \(\chi^2=n-1\). Wir erinnern uns, dass der Erwartungswert einer \(\chi^2\)-Verteilung gleich \(df=n-1\) ist.

Wir berechenen die Test-Statistik:

\[\chi^2 = \frac{(n-1)\cdot s^2}{\sigma^2} = \frac{19\cdot 15.48^2}{20^2} = 11.39\]

Wie erwähnt, falls der Stichprobenwert perfekt zum hypothetischen Wert unter \(H_0\) passen würde, müsste die Grösse \(df=n-1=19\) sein. Die Frage ist nun, ob der berechnete Test-Wert zu weit von diesem Wert entfernt ist.

Schritt 4: Konstruktion des Annahme- und Verwerfungs-Bereichs

Beim beidseitigen Testen zum Niveau \(1-\alpha=95\%\) legen wir zur Konstruktion des Annahme- und Verwerfungsbereichs die 95% Masse in die Mitte, 2.5% ins untere und 2.5% ins obere Ende der Verteilung. Die Quantile, welche Annahme- von Verwerfungsbereich trennen, lauten:

\(\chi^2_{2.5\%,df=19} = 8.91\) und \(\chi^2_{97.5\%,df=19} = 32.85\).

Diese Quantile sind obenstehend mit roten Kreuzen markiert.

Schritt 5: Test-Entscheid

Unsere Test-Statistik \(\chi^2=11.387\), markiert mit dem schwarzen Dreieck, fällt offensichtlich nicht in den Verwerfungsbereich von \(H_0\). Das bedeutet nun, dass auf dem Signifikanz-Niveau \(1-\alpha=95\%\) die Nullhypothese \(\sigma=20\) mit der erhobenen Stichprobe vereinbar ist.

Der p-Wert kann mit Hilfe der Tabelle abgelesen werden: Das 10%-Quantil zu \(df=19\) lautet: 11.651. Somit ist die Fläche links von der schwarzen Test-Statistik kleiner als 10%, z.B. 9%. Die beidseitige Fläche approximieren wir somit zu \(2\cdot 9\% = 18%\). Da nun gilt \(p>\alpha=5\%\) behalten wir die Nullhypothese \(H_0\) bei.

Testen mit R

Im R-package EnvStats (das Sie allenfalls selbst noch mit dem Befehl install.packages('EnvStats') installieren und dieses nach Installation mit dem Befehl library(EnvStats) aufrufen) ist der Befehl varTest() installiert. Erzeugen Sie in untenstehendem R-Code eine Variable x mit den Gewichten anlegen und diese nachher auf eine Streuung von \(\sigma=20\) testen:

x<-c(34,44,45,47,50,50,53,56,56,58,58,62,66,67,69,76,78,80,86,94)
varTest(x,alternative="two.sided",conf.level=0.95,sigma.squared=20^2)

Wie Sie sehen lautet die Test-Statistik 11.387, der p-Wert ist wie vorhin berechnet ca. 18%, das heisst die Nullhypothese \(\sigma=20\) wird beibehalten. Zusätzlich ist das Vertrauensintervall für \(\sigma^2\) berechnet. Da der Wert der Varianz unter \(H_0\) \(\sigma^2=20^2=400\) beträgt und dieser Wert im Vertrauensintervall beinhaltet ist, behalten wir \(H_0\) bei.

Überlegen wir uns kurz, wie die Schritte beim einseitigen Testen erfolgt wären?

Schritte 1 und 2: Formulieren der Hypothesen und Wahl des Signifikanzniveau \(1-\alpha\)

\[H_0:\sigma = 20, \texttt{ zu } 1-\alpha=95\%\]

\[H_A: \sigma < 20, \texttt{ zu } \alpha=5\%\]

Schritt 3: Berechnen der Test-Statistik

Die Test-Statistik heisst:

\[\chi^2 = \frac{(n-1)\cdot s^2}{\sigma^2} \texttt{ mit } df=n-1\]

Wie schon beim einseitigen Mittelwert-Testen bleibt die Test-Statistik natürlich gleich.

\[\chi^2 = \frac{(n-1)\cdot s^2}{\sigma^2} = \frac{19\cdot 15.48^2}{20^2} = 11.39\]

Wie erwähnt, falls der Stichprobenwert perfekt zum hypothetischen Wert unter \(H_0\) passen würde, müsste die Grösse \(df=n-1=19\) sein. Die Frage ist nun, ob der berechnete Test-Wert zu weit von diesem Wert entfernt ist.

Schritt 4: Konstruktion des Annahme- und Verwerfungs-Bereichs

Beim einseitigen Testen zum Niveau \(1-\alpha=95\%\) legen wir zur Konstruktion des Annahme- und Verwerfungsbereichs die 95% Masse nach oben, 5% ins untere Ende. Das Quantil lautet:

\(\chi^2_{5\%,df=19} = 10.12\)

Das Quantil ist obenstehend mit einem roten Kreuz markiert.

Schritt 5: Test-Entscheid

Unsere Test-Statistik \(t=11.387\), markiert mit dem schwarzen Dreieck, fällt offensichtlich nicht in den Verwerfungsbereich von \(H_0\). Das bedeutet nun, dass auf dem Signifikanz-Niveau \(1-\alpha=95\%\) die Nullhypothese \(\sigma=20\) mit der erhobenen Stichprobe vereinbar ist.

Der p-Wert kann mit Hilfe der Tabelle abgelesen werden: Das 10%-Quantil zu \(df=19\) lautet: 11.651. Somit ist die Fläche links von der schwarzen Test-Statistik kleiner als 10%, z.B. 9%.

Testen mit R

Im R-package EnvStats (das Sie allenfalls selbst noch mit dem Befehl install.packages('EnvStats') installieren und dieses nach Installation mit dem Befehl library(EnvStats) aufrufen) ist der Befehl varTest() installiert. Erzeugen Sie in untenstehendem R-Code eine Variable x mit den Gewichten anlegen und diese nachher auf eine Streuung von \(\sigma=20\) testen:

x<-c(34,44,45,47,50,50,53,56,56,58,58,62,66,67,69,76,78,80,86,94)
varTest(x,alternative="less",conf.level=0.95,sigma.squared=20^2)

Wie Sie sehen lautet die Test-Statistik 11.387, der p-Wert ist wie vorhin berechnet ca. 9%, das heisst die Nullhypothese \(\sigma=20\) wird beibehalten. Zusätzlich ist das Vertrauensintervall für \(\sigma^2\) berechnet. Da der Wert der Varianz unter \(H_0\) \(\sigma^2=20^2=400\) beträgt und dieser Wert im Vertrauensintervall beinhaltet ist, behalten wir \(H_0\) bei.

Auf Verteilungen testen - der Kolmogorov-Test

1

2

3

4

5

6

7

8

9

10

34

44

45

47

50

50

53

56

56

58

11

12

13

14

15

16

17

18

19

20

58

62

66

67

69

76

78

80

86

94

Wir wollen nun die oben dargestellten Daten auf eine Verteilungsform testen. So können wir unter Schritt 1 und 2 wiederum Hypothesen mit zugehörigem Signifikanzniveau aufstellen:

\(H_0\): Die Daten sind normal-verteilt mit \(\mu=60\) und \(\sigma=12\), zu \(1-\alpha=95\%\)

\(H_A\): Die Daten sind nicht normal-verteilt mit \(\mu=60\) und \(\sigma=12\), zu \(\alpha=5\%\)

Das Vorgehen beim Kolmogorov-Smirnov-Test (kurz KS-Test) ist wie folgt:

  • Daten sortieren (aufsteigend, schon erledigt)
  • kumulierte Verteilung der theoretischen Verteilung berechnen, \(\phi(x)\) oder \(F(x)\)
  • empirische Perzentile \(f_i=\frac{i}{n}\) berechnen
  • Absolute Distanzmasse \(d_i=|\phi(x)-f_i|\) berechnen
  • Test-Statistik: \(KS=max(d_i)\) berechnen

Berechnen Sie aus dem untenstehenden Vektor x die erwähnten Schritte:

x<-c(34,44,45,47,50,50,53,56,56,58,58,62,66,67,69,76,78,80,86,94)
x<-c(34,44,45,47,50,50,53,56,56,58,58,62,66,67,69,76,78,80,86,94)
x<-sort(x)

phi<-pnorm(x,60,12)
fi<-(1:length(x))/length(x)
di<-abs(phi-fi)
ks<-max(di)
print(ks)

i

1

2

3

4

5

6

7

8

9

10

x

34

44

45

47

50

50

53

56

56

58

phi

0.015

0.091

0.106

0.139

0.202

0.202

0.28

0.369

0.369

0.434

fi

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5

di

0.035

0.009

0.044

0.061

0.048

0.098

0.07

0.031

0.081

0.066

i

11

12

13

14

15

16

17

18

19

20

x

58

62

66

67

69

76

78

80

86

94

phi

0.434

0.566

0.691

0.72

0.773

0.909

0.933

0.952

0.985

0.998

fi

0.55

0.6

0.65

0.7

0.75

0.8

0.85

0.9

0.95

1

di

0.116

0.034

0.041

0.02

0.023

0.109

0.083

0.052

0.035

0.002

Wie wir sehen ist das Maximum der Differenz vom theoretischen zum empirischen Perzentil an der Stelle 11 mit \(d_i=0.116\).

Würde unsere empirische Verteilung perfekt einer \(N(\mu=60,\sigma=12)\)-Verteilung entsprechen, so wäre diese Differenz 0. Mit Hilfe der Tabelle entscheiden wir noch, wie gross die Differenz hätte werden müssen, um \(H_0\) zu verwerfen. Für \(n=20\) und \(\alpha=5\%\) lautet dieser Wert \(KS_{crit}=0.294\).

Da unsere Test-Statistik diesen Wert nicht überschreitet, verwerfen wir \(H_0\) nicht, die Gewichtsdaten können hinreichend als \(N(\mu=60,\sigma=12)\) verteilt angenommen werden. Testen Sie untenstehend mit der Funktion ks.test() die Gewichtsdaten. Die Funktion verlangt im Wesentlichen zwei Argumente:

  • den zu testenden Vektor, zum Beispiel x
  • die kumulierte hypothetische Verteilung - im Falle der Normalverteilung heisst die Funktion in R zum berechnen der kumulierte Verteilung pnorm
  • Zusätzlich müssen noch die Argumente für die Verteilung angegeben werden, also \(\mu=60\) und \(\sigma=12\).
x<-c(34,44,45,47,50,50,53,56,56,58,58,62,66,67,69,76,78,80,86,94)
x<-c(34,44,45,47,50,50,53,56,56,58,58,62,66,67,69,76,78,80,86,94)
ks.text(x,"pnorm",60,12)

Es ist übrigens nicht oft der Fall, dass bei derart wenig Datenpunkten \(H_0\) nicht verworfen werden kann. Eine weitere Aufgabe könnte sein, dass Sie die Verteilung auf Uniform-Verteilung testen. Die erste Frage, welche sich nun stellt, ist welche Parameter \(a\) und \(b\) für die Verteilung anzusetzen wären.

Um weiterhin auf \(\mu=60\) und \(\sigma=12\), nun aber auf Uniform-Verteilung zu testen, nutzen wir den Fakt, dass bei der Uniform-Verteilung der Erwartungswert \(\frac{a+b}{2}\) lautet die Streuung \(\frac{b-a}{12}\). Wir stzen also gleich:

\[\frac{a+b}{2}=60\] \[\frac{b-a}{\sqrt{12}}=12\]

Auflösen nach \(a\) und \(b\) liefert:

\[a=60-\sqrt{3}\cdot 12=39.2\]

\[b=60+\sqrt{3}\cdot 12=80.8\]

Führen Sie nun den KS-Test mit R durch.

x<-c(34,44,45,47,50,50,53,56,56,58,58,62,66,67,69,76,78,80,86,94)
x<-c(34,44,45,47,50,50,53,56,56,58,58,62,66,67,69,76,78,80,86,94)
a<-60-sqrt(3)*12
b<-60+sqrt(3)*12
ks.test(x,"punif",a,b)

Wie zu sehen fällt der \(p\)-Wert auch hier nicht unter 5%. Es kann also auch eine hypothetische Uniform-Verteilung angenommen werden.

APP für 1-Stichproben-Tests

Der 1SP-t-Test für den Mittelwert \(\mu\)

Was wird mit den aktuellen Einstellungen getestet?

Schritte 1 und 2: Hypothesen und Signifikanzniveau

Schritt 3: Berechnen der Test-Statistik

Schritt 4: Konstruktion des Annahme- und Verwerfungsbereich von \(H_0\)

Schritt 5: Test-Entscheid

Dualität zu Vertrauensintervallen

Test-Resultat mit R


Der 1SP-\(\chi^2\)-Test für die Streuung \(\sigma\)

Was wird mit den aktuellen Einstellungen getestet?

Schritte 1 und 2: Hypothesen und Signifikanzniveau

Schritt 3: Berechnen der Test-Statistik

Schritt 4: Konstruktion des Annahme- und Verwerfungsbereich von \(H_0\)

Schritt 5: Test-Entscheid

Dualität zu Vertrauensintervallen

Test-Resultat mit R


Übungs-Generator für schriftliche Aufgaben

Hier können Sie sich Lehrkräfte und Studierende schriftliche Übungen nach Zufallsprinzip generieren lassen. Die Übungen werden in ein Word-Dokument mit Lösungen geschrieben und dieses kann dann zum Zweck eigener Formatierungen noch angepasst werden. Diese Übungen beinhalten (fast) keine R-basierten Aufgaben sondern nur solche, die im Rahmen einer schriftlichen Aufgabe lösbar sind. Die Aufgabensätze werden als Word-Dokument generiert und können nach eigenen Bedürfnissen formatiert werden.

1-Stichproben Tests