Grundelemente: Unterschied zwischen den Versionen

Aus eLearning - Methoden der Psychologie - TU Dresden
Zur Navigation springen Zur Suche springen
(Die Seite wurde neu angelegt: „{{Nav|Navigation|Grundelemente|Wissenschaftliches Arbeiten}}“)
 
Keine Bearbeitungszusammenfassung
Zeile 1: Zeile 1:
{{Nav|Navigation|Grundelemente|Wissenschaftliches Arbeiten}}
{{Nav|Navigation|Grundelemente|Wissenschaftliches Arbeiten}}
Der Beta-Fehler (β-Fehler, Fehler zweiter Art) bezeichnet in der Statistik die Wahrscheinlichkeit, dass zu Unrecht die Nullhypothese (H0) angenommen und die Alternativhypothese (H1) abgelehnt wird.
Da in der Wissenschaft immer nur Stichproben getestet werden und die Verteilung der Variablen in der Grundgesamtheit nie bekannt ist, gibt es immer eine gewisse Wahrscheinlichkeit, mit der man sich bei der Verallgemeinerung von Untersuchungsergebnissen auf die Grundgesamtheit irren kann. Hier wird zwischen zwei Arten des "Irrens" unterschieden:
1. man nimmt die Alternativhypothese (H1) an, obwohl die Nullhypothese (H0) gilt (α-Fehler)
2. man nimmt die Nullhypothese (H0) an, obwohl die Alternativhypothese (H1) gilt (β-Fehler)
Die Beta-Fehler-Wahrscheinlichkeit bezeichnet also den Fall, dass aufgrund der Stichprobenergebnisse die '''Nullhypothese''' angenommen wird, obwohl in Wirklichkeit die Alternativhypothese zutrifft.
Die Berechnung der Beta-Fehler-Wahrscheinlichkeit ist komplizierter als die der Alpha-Fehler-Wahrscheinlichkeit. Der Beta-Fehler hängt ab vom Stichprobenumfang und von der Streuung der erhobenen Variablen. Allgemein gilt: Je größer die Stichprobe ist, umso geringer wird der Beta-Fehler sein, da die Streuung der Werte geringer wird.
Direkt von der Höhe des Beta-Fehlers hängt die sog. '''Teststärke''' (1- β) einer Untersuchung ab. Diese gibt an, mit welcher Wahrscheinlichkeit eine geltende Alternativhypothese auch tatsächlich angenommen wird.
''Beispiel:
<br/>''In einer Untersuchung wird eine herkömmliche mit einer neuen Lehrmethode verglichen. Der Experimentalgruppe wird ein Lehrstoff mit der neuen Methode gelehrt, die Kontrollgruppe wird nach der herkömmlichen Methode unterrichtet. Es wird vermutet, dass die Experimentalgruppe einen besseren Lernerfolg (bessere Noten) erzielt als die Kontrollgruppe (H1: µEG < µKG [Schulnoten sind negativ gepolt! Je geringer die Note, umso besser ist der Schüler!]). Die Nullhypothese besagt, dass entweder kein Unterschied zwischen den Gruppen besteht oder die Experimentalgruppe schlechtere Noten erzielt als die Kontrollgruppe (H0: µEG ≥ µKG). Der Signifikanztest ergibt, dass die Zeugnisnoten der Experimentalgruppe signifikant (p<.01) besser sind als die der Kontrollgruppe. Das bedeutet, dass der Alpha-Fehler sehr gering ist – es sagt jedoch nichts über den Beta-Fehler aus! Dieser lässt sich nur mithilfe der genauen Kenntnis der Stichprobengröße und der Verteilung der abhängigen Variablen in den Gruppen schätzen.
----
''Zum Zusammenhang mit dem Alpha-Fehler siehe [[Alpha-Fehler|hier]].

Version vom 9. April 2015, 14:26 Uhr

Der Beta-Fehler (β-Fehler, Fehler zweiter Art) bezeichnet in der Statistik die Wahrscheinlichkeit, dass zu Unrecht die Nullhypothese (H0) angenommen und die Alternativhypothese (H1) abgelehnt wird.

Da in der Wissenschaft immer nur Stichproben getestet werden und die Verteilung der Variablen in der Grundgesamtheit nie bekannt ist, gibt es immer eine gewisse Wahrscheinlichkeit, mit der man sich bei der Verallgemeinerung von Untersuchungsergebnissen auf die Grundgesamtheit irren kann. Hier wird zwischen zwei Arten des "Irrens" unterschieden: 1. man nimmt die Alternativhypothese (H1) an, obwohl die Nullhypothese (H0) gilt (α-Fehler) 2. man nimmt die Nullhypothese (H0) an, obwohl die Alternativhypothese (H1) gilt (β-Fehler)

Die Beta-Fehler-Wahrscheinlichkeit bezeichnet also den Fall, dass aufgrund der Stichprobenergebnisse die Nullhypothese angenommen wird, obwohl in Wirklichkeit die Alternativhypothese zutrifft.

Die Berechnung der Beta-Fehler-Wahrscheinlichkeit ist komplizierter als die der Alpha-Fehler-Wahrscheinlichkeit. Der Beta-Fehler hängt ab vom Stichprobenumfang und von der Streuung der erhobenen Variablen. Allgemein gilt: Je größer die Stichprobe ist, umso geringer wird der Beta-Fehler sein, da die Streuung der Werte geringer wird.

Direkt von der Höhe des Beta-Fehlers hängt die sog. Teststärke (1- β) einer Untersuchung ab. Diese gibt an, mit welcher Wahrscheinlichkeit eine geltende Alternativhypothese auch tatsächlich angenommen wird.

Beispiel:
In einer Untersuchung wird eine herkömmliche mit einer neuen Lehrmethode verglichen. Der Experimentalgruppe wird ein Lehrstoff mit der neuen Methode gelehrt, die Kontrollgruppe wird nach der herkömmlichen Methode unterrichtet. Es wird vermutet, dass die Experimentalgruppe einen besseren Lernerfolg (bessere Noten) erzielt als die Kontrollgruppe (H1: µEG < µKG [Schulnoten sind negativ gepolt! Je geringer die Note, umso besser ist der Schüler!]). Die Nullhypothese besagt, dass entweder kein Unterschied zwischen den Gruppen besteht oder die Experimentalgruppe schlechtere Noten erzielt als die Kontrollgruppe (H0: µEG ≥ µKG). Der Signifikanztest ergibt, dass die Zeugnisnoten der Experimentalgruppe signifikant (p<.01) besser sind als die der Kontrollgruppe. Das bedeutet, dass der Alpha-Fehler sehr gering ist – es sagt jedoch nichts über den Beta-Fehler aus! Dieser lässt sich nur mithilfe der genauen Kenntnis der Stichprobengröße und der Verteilung der abhängigen Variablen in den Gruppen schätzen.



Zum Zusammenhang mit dem Alpha-Fehler siehe hier.