Grundbegriffe der Statistik: Unterschied zwischen den Versionen

Aus eLearning - Methoden der Psychologie - TU Dresden
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
 
Zeile 5: Zeile 5:
== Grundlagen von Signifikanztests ==
== Grundlagen von Signifikanztests ==


Ein statistischer Test auf signifikante Unterschiede prüft, wie wahrscheinlich es unter Gültigkeit der Nullhypothese ist, den in einer Stichprobe berechneten Schätzwert, oder einen der Nullhypothese noch mehr widersprechenden Wert zu erhalten. Die ermittelte Wahrscheinlichkeit wird als p-Wert bezeichnet. Je geringer der p-Wert ist, desto eher kann die Nullhypothese abgelehnt werden. In Abhängigkeit der vorliegenden Untersuchungssituation werden verschiedene Signifikanztests (t-Test, F-Test, …) angewandt. In den folgenden Artikeln sollen sowohl das eben beschriebene Konzept des p-Wertes sowie weitere Grundlagen von Signifikanztests beschrieben werden. Dazu gehört die Entstehung des Standardfehlers, welcher eine zentrale statistische Kenngröße und wichtige Grundlage vieler statistischer Tests ist, die t-Verteilung und F-Verteilung (Wahrscheinlichkeitsverteilungen, die in der Teststatistik im Rahmen unterschiedlicher Signifikanztests eine wichtige Rolle spielen) sowie Konfidenzintervalle. Ein Konfidenzintervall bezeichnet ein Intervall möglicher Parameterausprägungen, in dem sich ein untersuchter Populationsparameter mit der Wahrscheinlichkeit des Konfidenzniveaus (1-α) befindet.  
Ein statistischer Test ermittelt, wie wahrscheinlich es unter Gültigkeit der Nullhypothese ist, den in einer Stichprobe berechneten Schätzwert oder einen der Nullhypothese noch mehr widersprechenden Wert zu erhalten. Die ermittelte Wahrscheinlichkeit wird als p-Wert bezeichnet. Je geringer der p-Wert ist, desto eher kann die Nullhypothese abgelehnt werden. In Abhängigkeit der vorliegenden Untersuchungssituation werden verschiedene Signifikanztests (t-Test, F-Test, …) angewandt. In den folgenden Artikeln sollen sowohl das eben beschriebene Konzept des p-Wertes sowie weitere Grundlagen von Signifikanztests beschrieben werden. Dazu gehört die Entstehung des Standardfehlers, welcher eine zentrale statistische Kenngröße und wichtige Grundlage vieler statistischer Tests ist, die t-Verteilung und die F-Verteilung (Wahrscheinlichkeitsverteilungen, die in der Teststatistik im Rahmen unterschiedlicher Signifikanztests eine wichtige Rolle spielen) sowie Konfidenzintervalle. Ein Konfidenzintervall bezeichnet ein Intervall möglicher Parameterausprägungen, in dem sich ein untersuchter Populationsparameter mit der Wahrscheinlichkeit des Konfidenzniveaus (1-α) befindet.  


* [[Der p-Wert]]
* [[Der p-Wert]]
Zeile 15: Zeile 15:
== Stichprobenumfangsplanungen ==
== Stichprobenumfangsplanungen ==


Die Stichprobenumfangsplanung spielt eine wichtige Rolle bei der Versuchsplanung. Es soll dabei eine möglichst hohe Genauigkeit der Ergebnisse erzielt werden. Die Genauigkeit der ermittelten Ergebnisse wird durch die Teststärke bestimmt. Gleichzeitig soll jedoch der wirtschaftliche und organisatorische Aufwand der Untersuchung so gering wie möglich sein. Um einen möglichst guten Kompromiss zwischen beiden gegensätzlichen Zielen zu finden, werden Stichprobenumfangsplanungen zur Ermittlung der optimalen Stichprobengröße eingesetzt. Das Konzept der Teststärke und Stichprobenumfangsplanung soll in den folgenden Artikeln genauer erläutert werden.  
Die Stichprobenumfangsplanung spielt eine wichtige Rolle bei der Versuchsplanung. Es soll dabei eine möglichst hohe Genauigkeit der Ergebnisse erzielt werden, für deren Bestimmung die Teststärke eine zentrale Größe ist. Gleichzeitig soll jedoch der wirtschaftliche und organisatorische Aufwand der Untersuchung so gering wie möglich sein. Um einen möglichst guten Kompromiss zwischen beiden gegensätzlichen Zielen zu finden, werden Stichprobenumfangsplanungen zur Ermittlung der optimalen Stichprobengröße eingesetzt. Die Konzepte der Teststärke und der Stichprobenumfangsplanung sollen in den folgenden Artikeln genauer erläutert werden.  


* [[Teststärke]]
* [[Teststärke]]
Zeile 22: Zeile 22:
== Resampling-Verfahren ==
== Resampling-Verfahren ==


Parametrische Tests wie beispielsweise der t-Test basieren auf bestimmten Voraussetzungen wie z.B. einer Normalverteilung der Modellfehler. Oft kann jedoch keine Aussage über die vorliegende Verteilung getroffen werden. Die Ergebnisse eines parametrischen Tests sind somit nicht zuverlässig interpretierbar. Eine Lösung für dieses Problem bietet die Anwendung eines Resampling-Verfahrens. Ein Resampling-Verfahren basiert auf dem Monte-Carlo Prinzip, d.h. das Problem der fehlenden Verteilungsannahme wird numerisch gelöst. Dazu simuliert man die Nullhypothesenverteilung anhand der vorhandenen Datenpunkte. Man unterscheidet verschiedene Arten von Resampling-Verfahren, dazu gehören zum Beispiel:
Parametrische Tests wie beispielsweise der t-Test basieren auf bestimmten Voraussetzungen wie z.B. einer Normalverteilung der Modellfehler. Oft kann jedoch keine Aussage über die vorliegende Verteilung getroffen werden. Die Ergebnisse eines parametrischen Tests sind somit nicht zuverlässig interpretierbar. Eine Lösung für dieses Problem bietet die Anwendung eines Resampling-Verfahrens. Ein Resampling-Verfahren basiert auf dem Monte-Carlo Prinzip, d.h. das Problem der fehlenden Verteilungsannahme wird numerisch gelöst. Dazu simuliert man die Nullhypothesenverteilung anhand der vorhandenen Daten. Man unterscheidet verschiedene Arten von Resampling-Verfahren, dazu gehören zum Beispiel:


* [[Bootstrapping]]
* [[Bootstrapping]]
Zeile 29: Zeile 29:
== Robustheits- und Power-Vergleiche ==
== Robustheits- und Power-Vergleiche ==


Robustheits- und Power-Vergleiche beschäftigen sich mit den Ergebnissen von verschiedenen Signifikanztests in Abhängigkeit der vorliegenden Untersuchungssituation. Robustheitsuntersuchungen verfolgen dabei das Ziel zu ermitteln, ob ein bestimmter statistischer Test trotz verletzter Voraussetzungen robuste Ergebnisse erzielt und somit anwendbar ist. Ein Test ist dann robust, wenn die Wahrscheinlichkeit für einen Fehler 1. Art ein gegebenes Signifikanzniveau α nicht überschreitet. Power-Vergleiche ermöglichen es durch Simulationen eine Einschätzung über die Wahrscheinlichkeit, dass bestimmte statistische Tests unter gegebenen Parametern die Nullhypothese korrekterweise ablehnen, zu erhalten.  
Robustheits- und Power-Vergleiche beschäftigen sich mit den Ergebnissen von verschiedenen Signifikanztests in Abhängigkeit der vorliegenden Untersuchungssituation. Mit Robustheitsuntersuchungen kann analysiert werden, ob ein bestimmter statistischer Test trotz verletzter Voraussetzungen korrekte Ergebnisse erzielt und somit anwendbar ist. Ein Test ist dann robust, wenn die Wahrscheinlichkeit für einen Fehler 1. Art ein gegebenes Signifikanzniveau α nicht überschreitet. Mit Power-Vergleiche kann man durch Simulationen eine Schätzung der Wahrscheinlichkeit erhalten, dass bestimmte statistische Tests unter gegebenen Parametern die Nullhypothese korrekterweise ablehnen.


* [[Robustheitsuntersuchungen]]
* [[Robustheitsuntersuchungen]]
* [[Power-Vergleiche]]
* [[Power-Vergleiche]]

Aktuelle Version vom 18. März 2020, 19:04 Uhr

Die Artikel dieses Abschnittes stellen einige zentrale Grundbegriffe und Methoden der Statistik vor, deren Kenntnis zum Verständnis der Ergebnisse empirischer Untersuchungen und komplexer statistischer Verfahren unverzichtbar ist.

Grundlagen von Signifikanztests

Ein statistischer Test ermittelt, wie wahrscheinlich es unter Gültigkeit der Nullhypothese ist, den in einer Stichprobe berechneten Schätzwert oder einen der Nullhypothese noch mehr widersprechenden Wert zu erhalten. Die ermittelte Wahrscheinlichkeit wird als p-Wert bezeichnet. Je geringer der p-Wert ist, desto eher kann die Nullhypothese abgelehnt werden. In Abhängigkeit der vorliegenden Untersuchungssituation werden verschiedene Signifikanztests (t-Test, F-Test, …) angewandt. In den folgenden Artikeln sollen sowohl das eben beschriebene Konzept des p-Wertes sowie weitere Grundlagen von Signifikanztests beschrieben werden. Dazu gehört die Entstehung des Standardfehlers, welcher eine zentrale statistische Kenngröße und wichtige Grundlage vieler statistischer Tests ist, die t-Verteilung und die F-Verteilung (Wahrscheinlichkeitsverteilungen, die in der Teststatistik im Rahmen unterschiedlicher Signifikanztests eine wichtige Rolle spielen) sowie Konfidenzintervalle. Ein Konfidenzintervall bezeichnet ein Intervall möglicher Parameterausprägungen, in dem sich ein untersuchter Populationsparameter mit der Wahrscheinlichkeit des Konfidenzniveaus (1-α) befindet.

Stichprobenumfangsplanungen

Die Stichprobenumfangsplanung spielt eine wichtige Rolle bei der Versuchsplanung. Es soll dabei eine möglichst hohe Genauigkeit der Ergebnisse erzielt werden, für deren Bestimmung die Teststärke eine zentrale Größe ist. Gleichzeitig soll jedoch der wirtschaftliche und organisatorische Aufwand der Untersuchung so gering wie möglich sein. Um einen möglichst guten Kompromiss zwischen beiden gegensätzlichen Zielen zu finden, werden Stichprobenumfangsplanungen zur Ermittlung der optimalen Stichprobengröße eingesetzt. Die Konzepte der Teststärke und der Stichprobenumfangsplanung sollen in den folgenden Artikeln genauer erläutert werden.

Resampling-Verfahren

Parametrische Tests wie beispielsweise der t-Test basieren auf bestimmten Voraussetzungen wie z.B. einer Normalverteilung der Modellfehler. Oft kann jedoch keine Aussage über die vorliegende Verteilung getroffen werden. Die Ergebnisse eines parametrischen Tests sind somit nicht zuverlässig interpretierbar. Eine Lösung für dieses Problem bietet die Anwendung eines Resampling-Verfahrens. Ein Resampling-Verfahren basiert auf dem Monte-Carlo Prinzip, d.h. das Problem der fehlenden Verteilungsannahme wird numerisch gelöst. Dazu simuliert man die Nullhypothesenverteilung anhand der vorhandenen Daten. Man unterscheidet verschiedene Arten von Resampling-Verfahren, dazu gehören zum Beispiel:

Robustheits- und Power-Vergleiche

Robustheits- und Power-Vergleiche beschäftigen sich mit den Ergebnissen von verschiedenen Signifikanztests in Abhängigkeit der vorliegenden Untersuchungssituation. Mit Robustheitsuntersuchungen kann analysiert werden, ob ein bestimmter statistischer Test trotz verletzter Voraussetzungen korrekte Ergebnisse erzielt und somit anwendbar ist. Ein Test ist dann robust, wenn die Wahrscheinlichkeit für einen Fehler 1. Art ein gegebenes Signifikanzniveau α nicht überschreitet. Mit Power-Vergleiche kann man durch Simulationen eine Schätzung der Wahrscheinlichkeit erhalten, dass bestimmte statistische Tests unter gegebenen Parametern die Nullhypothese korrekterweise ablehnen.