Algorithmen (t-Test bei einer Stichprobe)

Inhalt


Ein t-Test bei einer Stichprobe kann verwendet werden, um zu testen, ob der wirkliche Mittelwert einer Grundgesamtheit \mu\,\! gleich einem festgelegten Testmittelwert \mu_0\,\! oder sich von ihm unterscheidet. Der Test kann entweder einseitig oder beidseitig sein, und die Hypothesen haben die Form:

H_0:\mu=\mu_0 , vs. H_1:\mu \ne \mu_0, beidseitiger Test

H_0:\mu \le \mu_0 vs. H_1:\mu > \mu_0, oberer Test

H_0:\mu \ge \mu_0 vs. H_1:\mu < \mu_0, unterer Test

Teststatistik

Angenommen X(x_1,x_2,...,x_n)\,\! ist der Eingabedatensatz, dann hat der statistische t-Wert eine studentisierte t-Verteilung mit (n-1) Freiheitsgraden, berechnet als:

t=\frac{\bar{x}-\mu}{s/\sqrt{n}}

Wobei \bar{x}=\frac{1}{n}\sum_{i=1}^n x_i und s=\sqrt{\sum_{i=1}^n \frac{(x_i-\bar{x})^2}{n-1}}

Bei einem gegebenen Signifikanzniveau \alpha\,\! wird die Nullhypothese H_0\,\! zurückgewiesen, wenn:

|t|>t_{\alpha/2}\,\!, für beidseitigen Test

t>t_{\alpha}\,\!, für oberen Test

t<-t_{\alpha}\,\!, für unteren Test

wobei t_\alpha\,\! der kritische Wert aus der t-Verteilung ist, indiziert auf Ebene \alpha\,\! um (n-1) Freiheitsgrade. Als eine bessere Methode, die Wahrscheinlichkeit der Hypothese auszudrücken, wird auch der p-Wert betrachtet. Sie können die Nullhypothese H_0\,\! verwerfen, wenn p < \alpha\,\!. Der p-Wert für die t-Statistik ist mit der unvollständigen Beta-Funktion verbunden.

p(t>t_{\alpha})=1-I_{\frac{DOF}{DOF+I^2}}(\frac{DOF}{2},\frac{1}{2})


wobei I_x(\alpha,\beta)=\frac{I'(\alpha+\beta)}{I'(\alpha)\cdot I'(\beta)} \int_0^x t^{\alpha-1}(1-t)^{\beta-1}\,dt

Konfidenzintervalle

Für das festgelegte Signifikanzniveau ist das Konfidenzintervall für den Stichprobenmittelwert:

Nullhypothese Konfidenzintervall
H_0:\mu=\mu_0\,\! \left[\bar{x}-t_{n-1,\alpha/2}\frac{s}{\sqrt{n}},\bar{x}+t_{n-1,\alpha/2}\frac{s}{\sqrt{n}}\right]
H_0:\mu \le \mu_0 \left[\bar{x}-t_{n-1,\alpha}\frac{s}{\sqrt{n}}, \infty\right]
H_0:\mu \ge \mu_0 \left[-\infty, \bar{x}+t_{n-1,\alpha}\frac{s}{\sqrt{n}}\right]

Analyse der Trennschärfe

Die Trennschärfe eines t-Tests bei einer Stichprobe ist ein Maß für seine Fehlererkennbarkeit. Drückt man dies mit den Begriffen der Null- und Alternativhypothese aus, so ist die Trennschärfe die Wahrscheinlichkeit dafür, dass die Teststatistik T stark genug ist, um die Nullhypothese zu verwerfen, wenn sie tatsächlich verworfen werden sollte (d.h., wenn die gegebene Nullhypothese nicht wahr ist). Für jede der drei verschiedenen Nullhypothesen ist die Trennschärfe unten mathematisch definiert:

Nullhypothese Trennschärfe
H_0:\mu=\mu_0 1-P \left\{T \le t_{1-\alpha/2}(n-1)-t\right\}+P\left\{T<t_{\alpha/2}(n-1)-t \right\}
H_0:\mu \le \mu_0 1-P \left\{T \le t_{1-\alpha}(n-1)-t\right\}
H_0:\mu \ge \mu_0 P \left\{T \le t_{\alpha}(n-1)-t\right\}

wobei T eine zufällige Variable einschließlich einer t-Verteilung mit (n-1) Freiheitsgraden ist. Die Berechnung für die hypothetische Trennschärfe ist die gleiche wie für die tatsächliche Trennschärfe, außer dass die Teststatistik t , der kritische Wert und der Freiheitsgrad werden erneut berechnet mit Hilfe der hypothetischen Stichprobenumfänge anstatt des tatsächlichen Stichprobenumfangs.