Robustheits- und Power-Vergleiche: Unterschied zwischen den Versionen

Aus eLearning - Methoden der Psychologie - TU Dresden
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
 
Zeile 3: Zeile 3:
Robustheits- und Power-Vergleiche beschäftigen sich mit den Ergebnissen von verschiedenen Signifikanztests in Abhängigkeit der vorliegenden Untersuchungssituation.  
Robustheits- und Power-Vergleiche beschäftigen sich mit den Ergebnissen von verschiedenen Signifikanztests in Abhängigkeit der vorliegenden Untersuchungssituation.  


Robustheitsuntersuchungen verfolgen dabei das Ziel zu ermitteln, ob ein bestimmter statistischer Test trotz verletzter Voraussetzungen robuste Ergebnisse erzielt und somit anwendbar ist. Ein Test ist dann robust, wenn die Wahrscheinlichkeit für einen Fehler 1. Art ein gegebenes Signifikanzniveau α nicht überschreitet. Power-Vergleiche ermöglichen es durch Simulationen eine Einschätzung über die Wahrscheinlichkeit, dass bestimmte statistische Tests unter gegebenen Parametern die Nullhypothese korrekterweise ablehnen, zu erhalten.  
Mit Robustheitsuntersuchungen kann analysiert werden, ob ein bestimmter statistischer Test trotz verletzter Voraussetzungen korrekte Ergebnisse erzielt und somit anwendbar ist. Ein Test ist dann robust, wenn die Wahrscheinlichkeit für einen Fehler 1. Art ein gegebenes Signifikanzniveau α nicht überschreitet. Mit Power-Vergleiche kann man durch Simulationen eine Schätzung der Wahrscheinlichkeit erhalten, dass bestimmte statistische Tests unter gegebenen Parametern die Nullhypothese korrekterweise ablehnen.


* [[Robustheitsuntersuchungen]]
* [[Robustheitsuntersuchungen]]
* [[Power-Vergleiche]]
* [[Power-Vergleiche]]

Aktuelle Version vom 18. März 2020, 19:10 Uhr

Robustheits- und Power-Vergleiche beschäftigen sich mit den Ergebnissen von verschiedenen Signifikanztests in Abhängigkeit der vorliegenden Untersuchungssituation.

Mit Robustheitsuntersuchungen kann analysiert werden, ob ein bestimmter statistischer Test trotz verletzter Voraussetzungen korrekte Ergebnisse erzielt und somit anwendbar ist. Ein Test ist dann robust, wenn die Wahrscheinlichkeit für einen Fehler 1. Art ein gegebenes Signifikanzniveau α nicht überschreitet. Mit Power-Vergleiche kann man durch Simulationen eine Schätzung der Wahrscheinlichkeit erhalten, dass bestimmte statistische Tests unter gegebenen Parametern die Nullhypothese korrekterweise ablehnen.