Hypothesenüberprüfung
Weitere ausgewählte Aspekte zur Inferenzstatistik
Stichprobenumfang
Die Größe der Stichprobe besitzt eine zentrale Bedeutung bei der inferenzstatistischen Überprüfung von Hypothesen. Je größer der Stichprobenumfang, desto eher wird ein Ergebnis signifikant, sofern in Wirklichkeit die Alternativhypothese H1 gültig ist. Mit steigendem Stichprobenumfang nimmt folglich die Teststärke einer Untersuchung zu. Um sicherzustellen, dass der Stichprobenumfang und damit die Teststärke zur Überprüfung einer Hypothese groß genug ist, sollte der benötigte Stichprobenumfang im Vorfeld der Untersuchung ermittelt werden.
Statistische und praktische Bedeutsamkeit
statistische Bedeutsamkeit
Neben der Angabe der statistischen Signifikanz bzw. Bedeutsamkeit eines Ergebnisses sollte immer auch die Stärke bzw. Größe des (signifikanten) Effektes als Maß für die praktische Bedeutsamkeit des Ergebnisses angegeben werden. Während die statistische Signifikanz angibt, mit welcher Wahrscheinlichkeit ein Ergebnis mit dem Zufall erklärt werden kann, gibt die Effektgröße (oft auch Effektstärke genannt) die Stärke des Effektes an. Beispielsweise könnte aufgrund des großen Stichprobenumfanges ein Trainingsprogramm zu einer hochsignifikanten Verbesserung der mathematischen Fähigkeiten führen. Zugleich könnte die Effektgröße für diese Verbesserung aber relativ gering ausfallen (z.B. von 100 auf 100.001).
Multiples Testen
Sofern mehr als eine Hypothese auf Signifikanz getestet wird, tritt das sogenannte Phänomen der Alphafehlerkumulierung auf. Es besagt, dass die Alphafehlerwahrscheinlichkeit einer Studie mit mehreren Signifikanztests ansteigt. Hierzu kann man sich einen Würfelwurf vorstellen. Wenn man nur einmal würfelt, besteht nur einmal die Chance eine Sechs zu würfeln bzw. das Alphafehlerniveau zu überwinden. Wenn aber mehrfach gewürfelt wird, dann besitzt man gleich mehrere Chancen auf die Augenzahl Sechs und die Wahrscheinlichkeit steigt folglich an, dass das festgelegte Niveau überwunden wird. Es beträgt nicht mehr 5%, sondern beispielsweise bei drei Hypothesentests bereits 14.3%. Nähere Informationen zur Alphafehlerkumulierung werden im hier bereitgestellt.
Annahmevoraussetzungen
In Abhängigkeit des verwendeten Signifikanztests müssen bestimmte Annahmen erfüllt sein, damit der inferenzstatistische Test nicht zu ungenauen bzw. falschen Wahrscheinlichkeitseinschätzungen führt. Beispielsweise muss bei einem t-Test die abhängige Variable Intervallskalenniveau aufweisen. Damit ist gemeint, dass diese Variable äquidistante (gleichabständige) Intervalle besitzt. Äquidistanz der Intervalle zwei bis vier und sieben bis neun liegt zum Beispiel vor, wenn dieser gleichgroße Zahlenabstand auch in der Realität einem gleichgroßen Abstand entspricht. Eine andere, häufig erforderliche Annahmevoraussetzung ist die Normalverteilung der abhängigen Variablen. Je nach Größe des Stichprobenumfangs der Studie können Signifikanztests auch robust auf Verletzungen von Annahmevoraussetzungen reagieren, d.h. die Wahrscheinlichkeitseinschätzungen (z.B. von 5%) bleiben konstant.
Bootstrap
Während traditionelle Signifikanztests Verteilungen mit Hilfe von Formeln erzeugen, werden diese beim Bootstrap-Verfahren durch Simulation einer Population mit Hilfe der untersuchten Stichprobe generiert. Dabei wird zunächst eine Stichprobe durch zufälliges Ziehen mit Zurücklegen aus der tatsächlich untersuchten Stichprobe simuliert. Anschließend berechnet man für die simulierte Stichprobe einen Stichprobenkennwert (z.B. die Mittelwertsdifferenz) und trägt diesen in eine Häufigkeitsverteilung ein. Diese beiden Schritte werden fortlaufend mit dem gleichen Stichprobenumfang wiederholt (z.B. 100000 Mal). Aus diesen Häufigkeitsverteilungen lassen sich Flächenanteile berechnen, auf deren Basis die inferenzstatistische Entscheidung zugunsten der Null- oder Alternativhypothese getroffen werden kann. Das Verfahren funktioniert somit ähnlich wie die hier vorgestellte Erzeugung von Zufallsstichproben (vgl. auch Abb. 27). Ein Vorteil dieses rechenintensiven Verfahrens besteht darin, keine Normalverteilungsannahme mehr für die abhängigen Variablen zu benötigen.