Grundbegriffe der Statistik: Unterschied zwischen den Versionen
Wehner (Diskussion | Beiträge) Keine Bearbeitungszusammenfassung |
Wehner (Diskussion | Beiträge) Keine Bearbeitungszusammenfassung |
||
(2 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
Zeile 1: | Zeile 1: | ||
{{Nav|Navigation|Statistik_Grundbegriffe|Hauptseite}} | {{Nav|Navigation|Statistik_Grundbegriffe|Hauptseite}} | ||
Die Artikel dieses Abschnittes stellen einige zentrale Grundbegriffe der Statistik | Die Artikel dieses Abschnittes stellen einige zentrale Grundbegriffe und Methoden der Statistik vor, deren Kenntnis zum Verständnis der Ergebnisse empirischer Untersuchungen und komplexer statistischer Verfahren unverzichtbar ist. | ||
== Grundlagen von Signifikanztests == | == Grundlagen von Signifikanztests == | ||
Ein statistischer Test ermittelt, wie wahrscheinlich es unter Gültigkeit der Nullhypothese ist, den in einer Stichprobe berechneten Schätzwert oder einen der Nullhypothese noch mehr widersprechenden Wert zu erhalten. Die ermittelte Wahrscheinlichkeit wird als p-Wert bezeichnet. Je geringer der p-Wert ist, desto eher kann die Nullhypothese abgelehnt werden. In Abhängigkeit der vorliegenden Untersuchungssituation werden verschiedene Signifikanztests (t-Test, F-Test, …) angewandt. In den folgenden Artikeln sollen sowohl das eben beschriebene Konzept des p-Wertes sowie weitere Grundlagen von Signifikanztests beschrieben werden. Dazu gehört die Entstehung des Standardfehlers, welcher eine zentrale statistische Kenngröße und wichtige Grundlage vieler statistischer Tests ist, die t-Verteilung und die F-Verteilung (Wahrscheinlichkeitsverteilungen, die in der Teststatistik im Rahmen unterschiedlicher Signifikanztests eine wichtige Rolle spielen) sowie Konfidenzintervalle. Ein Konfidenzintervall bezeichnet ein Intervall möglicher Parameterausprägungen, in dem sich ein untersuchter Populationsparameter mit der Wahrscheinlichkeit des Konfidenzniveaus (1-α) befindet. | |||
* [[Der p-Wert]] | * [[Der p-Wert]] | ||
Zeile 12: | Zeile 14: | ||
== Stichprobenumfangsplanungen == | == Stichprobenumfangsplanungen == | ||
Die Stichprobenumfangsplanung spielt eine wichtige Rolle bei der Versuchsplanung. Es soll dabei eine möglichst hohe Genauigkeit der Ergebnisse erzielt werden, für deren Bestimmung die Teststärke eine zentrale Größe ist. Gleichzeitig soll jedoch der wirtschaftliche und organisatorische Aufwand der Untersuchung so gering wie möglich sein. Um einen möglichst guten Kompromiss zwischen beiden gegensätzlichen Zielen zu finden, werden Stichprobenumfangsplanungen zur Ermittlung der optimalen Stichprobengröße eingesetzt. Die Konzepte der Teststärke und der Stichprobenumfangsplanung sollen in den folgenden Artikeln genauer erläutert werden. | |||
* [[Teststärke]] | * [[Teststärke]] | ||
Zeile 17: | Zeile 21: | ||
== Resampling-Verfahren == | == Resampling-Verfahren == | ||
Parametrische Tests wie beispielsweise der t-Test basieren auf bestimmten Voraussetzungen wie z.B. einer Normalverteilung der Modellfehler. Oft kann jedoch keine Aussage über die vorliegende Verteilung getroffen werden. Die Ergebnisse eines parametrischen Tests sind somit nicht zuverlässig interpretierbar. Eine Lösung für dieses Problem bietet die Anwendung eines Resampling-Verfahrens. Ein Resampling-Verfahren basiert auf dem Monte-Carlo Prinzip, d.h. das Problem der fehlenden Verteilungsannahme wird numerisch gelöst. Dazu simuliert man die Nullhypothesenverteilung anhand der vorhandenen Daten. Man unterscheidet verschiedene Arten von Resampling-Verfahren, dazu gehören zum Beispiel: | |||
* [[Bootstrapping]] | * [[Bootstrapping]] | ||
Zeile 22: | Zeile 28: | ||
== Robustheits- und Power-Vergleiche == | == Robustheits- und Power-Vergleiche == | ||
Robustheits- und Power-Vergleiche beschäftigen sich mit den Ergebnissen von verschiedenen Signifikanztests in Abhängigkeit der vorliegenden Untersuchungssituation. Mit Robustheitsuntersuchungen kann analysiert werden, ob ein bestimmter statistischer Test trotz verletzter Voraussetzungen korrekte Ergebnisse erzielt und somit anwendbar ist. Ein Test ist dann robust, wenn die Wahrscheinlichkeit für einen Fehler 1. Art ein gegebenes Signifikanzniveau α nicht überschreitet. Mit Power-Vergleiche kann man durch Simulationen eine Schätzung der Wahrscheinlichkeit erhalten, dass bestimmte statistische Tests unter gegebenen Parametern die Nullhypothese korrekterweise ablehnen. | |||
* [[Robustheitsuntersuchungen]] | * [[Robustheitsuntersuchungen]] | ||
* [[Power-Vergleiche]] | * [[Power-Vergleiche]] |
Aktuelle Version vom 18. März 2020, 18:04 Uhr
Die Artikel dieses Abschnittes stellen einige zentrale Grundbegriffe und Methoden der Statistik vor, deren Kenntnis zum Verständnis der Ergebnisse empirischer Untersuchungen und komplexer statistischer Verfahren unverzichtbar ist.
Grundlagen von Signifikanztests
Ein statistischer Test ermittelt, wie wahrscheinlich es unter Gültigkeit der Nullhypothese ist, den in einer Stichprobe berechneten Schätzwert oder einen der Nullhypothese noch mehr widersprechenden Wert zu erhalten. Die ermittelte Wahrscheinlichkeit wird als p-Wert bezeichnet. Je geringer der p-Wert ist, desto eher kann die Nullhypothese abgelehnt werden. In Abhängigkeit der vorliegenden Untersuchungssituation werden verschiedene Signifikanztests (t-Test, F-Test, …) angewandt. In den folgenden Artikeln sollen sowohl das eben beschriebene Konzept des p-Wertes sowie weitere Grundlagen von Signifikanztests beschrieben werden. Dazu gehört die Entstehung des Standardfehlers, welcher eine zentrale statistische Kenngröße und wichtige Grundlage vieler statistischer Tests ist, die t-Verteilung und die F-Verteilung (Wahrscheinlichkeitsverteilungen, die in der Teststatistik im Rahmen unterschiedlicher Signifikanztests eine wichtige Rolle spielen) sowie Konfidenzintervalle. Ein Konfidenzintervall bezeichnet ein Intervall möglicher Parameterausprägungen, in dem sich ein untersuchter Populationsparameter mit der Wahrscheinlichkeit des Konfidenzniveaus (1-α) befindet.
Stichprobenumfangsplanungen
Die Stichprobenumfangsplanung spielt eine wichtige Rolle bei der Versuchsplanung. Es soll dabei eine möglichst hohe Genauigkeit der Ergebnisse erzielt werden, für deren Bestimmung die Teststärke eine zentrale Größe ist. Gleichzeitig soll jedoch der wirtschaftliche und organisatorische Aufwand der Untersuchung so gering wie möglich sein. Um einen möglichst guten Kompromiss zwischen beiden gegensätzlichen Zielen zu finden, werden Stichprobenumfangsplanungen zur Ermittlung der optimalen Stichprobengröße eingesetzt. Die Konzepte der Teststärke und der Stichprobenumfangsplanung sollen in den folgenden Artikeln genauer erläutert werden.
Resampling-Verfahren
Parametrische Tests wie beispielsweise der t-Test basieren auf bestimmten Voraussetzungen wie z.B. einer Normalverteilung der Modellfehler. Oft kann jedoch keine Aussage über die vorliegende Verteilung getroffen werden. Die Ergebnisse eines parametrischen Tests sind somit nicht zuverlässig interpretierbar. Eine Lösung für dieses Problem bietet die Anwendung eines Resampling-Verfahrens. Ein Resampling-Verfahren basiert auf dem Monte-Carlo Prinzip, d.h. das Problem der fehlenden Verteilungsannahme wird numerisch gelöst. Dazu simuliert man die Nullhypothesenverteilung anhand der vorhandenen Daten. Man unterscheidet verschiedene Arten von Resampling-Verfahren, dazu gehören zum Beispiel:
Robustheits- und Power-Vergleiche
Robustheits- und Power-Vergleiche beschäftigen sich mit den Ergebnissen von verschiedenen Signifikanztests in Abhängigkeit der vorliegenden Untersuchungssituation. Mit Robustheitsuntersuchungen kann analysiert werden, ob ein bestimmter statistischer Test trotz verletzter Voraussetzungen korrekte Ergebnisse erzielt und somit anwendbar ist. Ein Test ist dann robust, wenn die Wahrscheinlichkeit für einen Fehler 1. Art ein gegebenes Signifikanzniveau α nicht überschreitet. Mit Power-Vergleiche kann man durch Simulationen eine Schätzung der Wahrscheinlichkeit erhalten, dass bestimmte statistische Tests unter gegebenen Parametern die Nullhypothese korrekterweise ablehnen.