Aufgaben - Multiple lineare Regression: Unterschied zwischen den Versionen

Aus eLearning - Methoden der Psychologie - TU Dresden
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
Zeile 44: Zeile 44:
+ [[Datei:3_3_MC_4.PNG|400px]]
+ [[Datei:3_3_MC_4.PNG|400px]]


{
{1. Was versteht man unter dem Begriff der „Multikollinearität“?
|type="[]"}
|type="[]"}
+ Multikollinearität ist ein Problem der Regressionsanalyse und liegt vor, wenn zwei oder mehr der Prädiktoren stark miteinander korrelieren.
- Multikollinearität ist ein Problem der Regressionsanalyse und liegt vor, wenn zwei oder mehr der abhängigen Variablen stark miteinander korrelieren
- Multikollinearität ist ein Problem der Regressionsanalyse und liegt vor, wenn keine oder nur schwache Korrelationen zwischen den Prädiktoren bestehen.
- Multikollinearität ist ein Problem der Regressionsanalyse und liegt vor, wenn keine oder nur schwache Korrelationen zwischen den abhängigen Variablen bestehen.


{
{2. Welche der folgenden Begriffe stellen Folgen des Vorliegens von Multikollinearität dar?
|type="[]"}
|type="[]"}
- Introjektion
- Konversion
+ Redundanz
+ Suppressionseffekte


{
{3. Welche Folgen können durch das Vorhandensein von Multikollinearität bei der Durchführung einer multiplen linearen Regression auftreten?
|type="[]"}
|type="[]"}
+ Erhöhung der Standardfehler der Schätzungen der Regressionskoeffizienten
+ Instabilität des Verfahrens zur Schätzung der Regressionskoeffizienten
+ Ungenauigkeit von Aussagen zur Schätzung von Regressionskoeffizienten
- Eindeutigkeit der Modellinterpretation


{
{4. Welche der folgenden Beobachtungen können Warnzeichen für das Vorliegen von Multikollinearität darstellen?
|type="[]"}
|type="[]"}
+ Nach der Aufnahme eines weiteren Prädiktors in ein Regressionsmodell kommt es zu einer starken Veränderung der Regressionskoeffizienten.
+ Ein Prädiktor, der sehr stark mit der Kriteriumsvariablen korreliert, besitzt im Ergebnis der Regressionsanalyse keinen signifikanten Regressionskoeffizienten.
+ Die Prädiktoren korrelieren sehr stark miteinander.
- Der VIF (Varianzinflationsfaktor) des Regressionsmodells ist gering und der Wert der Toleranz des Regressionsmodells ist sehr hoch.


{
{5. Welche Beziehungen sind Hinweise für Redundanz eines Prädiktors?
|type="[]"}
|type="[]"}
- Prädiktor korreliert hoch und signifikant mit dem Kriterium und mit anderen Prädiktoren und hat einen signifikanten Regressionskoeffizienten in der multiplen Regressionsanalyse
+ Prädiktor korreliert hoch und signifikant mit dem Kriterium und mit anderen Prädiktoren und hat keinen signifikanten Regressionskoeffizienten in der multiplen Regressionsanalyse
- Prädiktor korreliert hoch und signifikant mit dem Kriterium, aber nicht mit den anderen Prädiktoren und hat einen signifikanten Regressionskoeffizienten in der multiplen Regressionsanalyse
- Prädiktor korreliert hoch und signifikant mit anderen Prädiktoren, nicht aber mit dem Kriterium, und hat einen signifikanten Regressionskoeffizienten in der multiplen Regressionsanalyse


{
{1. Welche der folgenden Ziele werden von einem Merkmalselektionsverfahrens im Rahmen einer multiplen linearen Regression verfolgt?
|type="[]"}
|type="[]"}
+ Identifikation von möglichst wenigen Prädiktoren, welche eine gute Vorhersage der Kriteriumsvariable ermöglichen
+ klare inhaltliche Interpretation des Regressionsmodells
- Erhöhung der Fehlervarianz
+ Minimierung des erforderlichen ökonomischen, inhaltlichen und statistischen Aufwands


{
{2. Das Grundprinzip von Merkmalsselektionsverfahren im Rahmen einer multiplen linearen Regression besteht darin, für einzelne Prädiktorvariablen zu beurteilen, inwieweit sich durch ihre Hinzunahme zw. Entfernung aus dem Merkmalssatz das multiple Bestimmtheitsmaß signifikant verändert. Welcher Test wird zur Prüfung der Signifikanz dieser Veränderung verwendet?
|type="[]"}
|type="[]"}
- t-Test
+ F-Test
- Kolmogorow-Smirnow-Test
- Chi-Quadrat Test


{
{3. Welche Arten von Merkmalssektionsverfahren werden üblicherweise im Rahmen einer multiplen linearen Regression angewandt?
|type="[]"}
|type="[]"}
+ Verfahren der schrittweisen Merkmalsentfernung bzw. Merkmalsaufnahme („schrittweises Verfahren“)
+ Verfahren der schrittweisen Merkmalsentfernung („Rückwärtsverfahren“)
+ Verfahren der schrittweisen Merkmalsaufnahme („Vorwärtsverfahren“)
- Verfahren der sofortigen Merkmalsaufnahme („Absolutverfahren“)


{
{4. Welche der folgenden Aussagen über Merkmalsselektionsverfahren im Rahmen einer multiplen linearen Regression sind wahr?
|type="[]"}
|type="[]"}
- Jedes Merkmalsselektionsverfahren (Vorwärtsverfahren, Rückwärtsverfahren, …) führt dazu, dass im Regressionsmodell nach Abschluss des Verfahrens die gleichen Prädiktoren enthalten sind.
+ Das multiple Bestimmtheitsmaß R² des mithilfe eines Merkmalsselektionsverfahrens ermittelten Regressionsmodells kann sich in Abhängigkeit des ausgewählten Verfahrens unterscheiden.
- Die Anwendung eines Vorwärtsverfahrens führt in jedem Fall zu einem größeren multiplen Bestimmtheitsmaß als die Anwendung eines Rückwärtsverfahrens.
+ Das schrittweise Verfahren kombiniert das Rückwärts- und das Vorwärtsverfahren.


{
{5. Die Kriteriumsvariable Y soll durch die Prädiktoren A, B, C, D und E vorhergesagt werden. Die Durchführung eines Verfahrens der schrittweisen Merkmalsaufnahme (Vorwärtsverfahren) führt zur Aufnahme der Prädiktoren A und C ins Regressionsmodell. Das multiple Bestimmtheitsmaß beträgt 0.68. Basierend auf beschriebenen Ausgangsdatensatz wird außerdem ein Verfahren der schrittweisen Merkmalsentfernung (Rückwärtsverfahren) durchgeführt. Welche der folgenden Ergebnisse könnten durch dieses Verfahren ermittelt werden?
|type="[]"}
|type="[]"}
+ Aufnahme der Prädiktoren A und C ins Modell ; R² = 0.68
- Aufnahme der Prädiktoren B und C ins Modell ; R² = 1.08
+ Aufnahme der Prädiktoren B und D ins Modell ; R² = 0.69
- Aufnahme der Prädiktoren A und C ins Modell ; R² = 0.72


{
{1. Welche(s) Ziel(e) verfolgt eine hierarchische Regression?
|type="[]"}
|type="[]"}
- Untersuchung des Erklärungsbeitrages von Zeitreihen
- Untersuchung des Erklärungsbeitrages der Regressionskonstante
- Untersuchung des Erklärungsbeitrages aus dem Datensatz extrahierter Hauptkomponenten
+ Untersuchung des Erklärungsbeitrages inhaltlich strukturierter Merkmalsmengen


{
{2. Was dient als Orientierung für die Auswahl der Reihenfolge der Aufnahme von Merkmalsmengen im Rahmen einer hierarchischen Regression?
|type="[]"}
|type="[]"}
- Anzahl der Prädiktoren in den Merkmalsmengen
+ inhaltliche Gesichtspunkte
- Summe der β-Gewichte der Prädiktoren der Merkmalsmenge
- Summe der t-Werte der Prädiktoren der Merkmalsmenge


{
{3. Welche der folgenden Aussage(n) über eine hierarchische Regression sind zutreffend?
|type="[]"}
|type="[]"}
+ Die Reihenfolge der Aufnahme von Merkmalsmengen ist besonders dann wichtig, wenn die Merkmalsmengen stark korrelieren.
+ Resultieren in Abhängigkeit der Reihenfolge der Aufnahme der Merkmalsmengen unterschiedliche Regressionsmodelle, liefert dies einen Hinweis auf Multikollinearität.
- Korrelieren die Merkmalsmengen kaum untereinander, dann resultieren abhängig von der Reihenfolge der Aufnahme der Merkmalsmengen oftmals sehr unterschiedliche Ergebnisse.
- Die Bedeutsamkeit der Reihenfolge der Aufnahme von Merkmalsmengen ist unabhängig von Multikollinearität im Datensatz.


{
{4. Welche der folgenden Aussage(n) über das multiple Bestimmtheitsmaß R² einer hierarchischen Regression sind wahr?
|type="[]"}
|type="[]"}
+ Ob eine Merkmalsmenge zu einer signifikanten Zunahme an Bestimmtheitsmaß führt, kann davon abhängen, in welchem Schritt die betreffende Merkmalsmenge aufgenommen wird.
- Das multiple Bestimmtheitsmaß R² nimmt ab, je mehr Merkmalsmengen ins Regressionsmodell aufgenommen werden.
- Die Aufnahme von 50 % aller Merkmalsmengen führt in jedem Fall zu einem multiplen Bestimmtheitsmaß R² größer als 25 %.
+ Das multiple Bestimmtheitsmaß R² nimmt für die Aufnahme aller verfügbaren Merkmalsmengen ins Regressionsmodell den maximal möglichen Wert an.
{5. Die Kriteriumsvariable Y soll durch die Merkmalsmengen A (Prädiktor 1 und 3), B (Prädiktor 2 und 4) und C (Prädiktor 5, 6 und 7) vorhergesagt werden. Es wird eine hierarchische Regression angewandt. Zunächst wird die Merkmalsmenge A ins Modell einbezogen. Das ermittelte multiple Bestimmtheitsmaß R² beträgt 0.65. Im Anschluss wird die Merkmalsmenge C ins Modell ins Regressionsmodell aufgenommen. Dies führt zu einer Zunahme des multiplen Bestimmtheitsmaßes R² um 0.30.
In einer zweiten Analyse basierend auf dem gleichen Datensatz wird eine andere Reihenfolge der Aufnahme der Merkmalsmengen gewählt. Welche der folgenden Ergebnisse sind in dieser zweiten Analyse möglich?
+ Aufnahme Merkmalsmenge B → R² = 0.40; anschließend
Aufnahme Merkmalsmenge C → Anstieg R² um 0.40
+ Aufnahme Merkmalsmenge C → R² = 0.60; anschließend
Aufnahme Merkmalsmenge A → Anstieg R² um 0.35
- Aufnahme Merkmalsmenge C → R² = 0.75; anschließend
Aufnahme Merkmalsmenge A → Anstieg R² um 0.15
- Aufnahme Merkmalsmenge B → R² = 0.85; anschließend
Aufnahme Merkmalsmenge A → Anstieg R² um 0.20


{
|type="[]"}
|type="[]"}



Version vom 6. März 2020, 01:03 Uhr

Der folgenden Bereich enthält Fragen zur multiplen linearen Regression. Alle Fragen sind Multiple Choice Fragen, d.h. es können immer mehrere Antworten richtig sein. Klicken Sie zur Beantwortung einer Frage die korrekten Antwortmöglichkeiten an. Um Ihre Ergebnisse auszuwerten, wählen Sie bitte den Button "Speichern" am unteren Ende der Seite.

Für jede vollständig richtig beantwortete Frage erhalten Sie einen Punkt. Für falsche beantwortete Fragen werden Ihnen keine Punkte abgezogen. Sie können diese Einstellung jedoch beliebig verändern. Ihre Gesamtpunktzahl finden Sie am unteren Seitenende.


  

1 1. Welche der folgenden Definitionen kann zur Beschreibung einer multiplen linearen Regression verwendet werden?

Die multiple lineare Regression ist ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige metrische Variable durch mehrere unabhängige Variablen zu erklären.
Die multiple lineare Regression ist ein statistisches Verfahren, mit dem versucht wird, mehrere beobachtete abhängige ordinale oder kategoriale Variablen durch mehrere unabhängige Variablen zu erklären.
Die multiple lineare Regression ist ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige ordinale oder kategoriale Variable durch mehrere unabhängige Variablen zu erklären.
Die multiple lineare Regression ist ein statistisches Verfahren, mit dem versucht wird, mehrere abhängige metrische Variablen durch eine oder mehrere unabhängige Variablen zu erklären.

2 2. Mithilfe welches allgemeinen Schätzprinzips können die Regressionskoeffizienten im Rahmen einer multiplen linearen Regression bestimmt werden?

Methode der größten Quadrate
Methode der multiplen Quadrate
Methode der multiplen linearen Quadrate
Methode der kleinsten Quadrate

3 3. Welche Voraussetzungen sollten für die Durchführung einer multiplen linearen Regressionsanalyse erfüllt sein?

Gültigkeit des linearen Modells
Normalverteilung der Modellfehler
Homoskedastizität
Statistische Abhängigkeit der Modellfehler
Festlegung von Prädiktoren und Kriterium

4 4. Was bedeutet Homoskedastizität?

Varianzen der Modellfehler sind in Abhängigkeit der konkreten Werten der Prädiktoren verschieden
Mittelwerte der Modellfehler sind normalverteilt
Varianzen der Modellfehler sind unabhängig von den konkreten Werten der Prädiktoren gleich
Mittelwerte der Modellfehler sind nicht normalverteilt

5 5. Die folgenden Abbildungen stellen eine grafische Gegenüberstellung der z-standardisierten Residuen und der z-standardisierten Schätzungen für die Kriteriumsvariablen einer multiplen linearen Regression dar. Welche der Abbildungen liefern einen Hinweis auf Heteroskedastizität?

3 3 MC 1.PNG
3 3 MC 3.PNG
3 3 MC 2.PNG
3 3 MC 4.PNG

6 1. Was versteht man unter dem Begriff der „Multikollinearität“?

Multikollinearität ist ein Problem der Regressionsanalyse und liegt vor, wenn keine oder nur schwache Korrelationen zwischen den abhängigen Variablen bestehen.
Multikollinearität ist ein Problem der Regressionsanalyse und liegt vor, wenn zwei oder mehr der Prädiktoren stark miteinander korrelieren.
Multikollinearität ist ein Problem der Regressionsanalyse und liegt vor, wenn keine oder nur schwache Korrelationen zwischen den Prädiktoren bestehen.
Multikollinearität ist ein Problem der Regressionsanalyse und liegt vor, wenn zwei oder mehr der abhängigen Variablen stark miteinander korrelieren

7 2. Welche der folgenden Begriffe stellen Folgen des Vorliegens von Multikollinearität dar?

Redundanz
Suppressionseffekte
Konversion
Introjektion

8 3. Welche Folgen können durch das Vorhandensein von Multikollinearität bei der Durchführung einer multiplen linearen Regression auftreten?

Eindeutigkeit der Modellinterpretation
Instabilität des Verfahrens zur Schätzung der Regressionskoeffizienten
Erhöhung der Standardfehler der Schätzungen der Regressionskoeffizienten
Ungenauigkeit von Aussagen zur Schätzung von Regressionskoeffizienten

9 4. Welche der folgenden Beobachtungen können Warnzeichen für das Vorliegen von Multikollinearität darstellen?

Die Prädiktoren korrelieren sehr stark miteinander.
Der VIF (Varianzinflationsfaktor) des Regressionsmodells ist gering und der Wert der Toleranz des Regressionsmodells ist sehr hoch.
Nach der Aufnahme eines weiteren Prädiktors in ein Regressionsmodell kommt es zu einer starken Veränderung der Regressionskoeffizienten.
Ein Prädiktor, der sehr stark mit der Kriteriumsvariablen korreliert, besitzt im Ergebnis der Regressionsanalyse keinen signifikanten Regressionskoeffizienten.

10 5. Welche Beziehungen sind Hinweise für Redundanz eines Prädiktors?

Prädiktor korreliert hoch und signifikant mit dem Kriterium, aber nicht mit den anderen Prädiktoren und hat einen signifikanten Regressionskoeffizienten in der multiplen Regressionsanalyse
Prädiktor korreliert hoch und signifikant mit dem Kriterium und mit anderen Prädiktoren und hat einen signifikanten Regressionskoeffizienten in der multiplen Regressionsanalyse
Prädiktor korreliert hoch und signifikant mit dem Kriterium und mit anderen Prädiktoren und hat keinen signifikanten Regressionskoeffizienten in der multiplen Regressionsanalyse
Prädiktor korreliert hoch und signifikant mit anderen Prädiktoren, nicht aber mit dem Kriterium, und hat einen signifikanten Regressionskoeffizienten in der multiplen Regressionsanalyse

11 1. Welche der folgenden Ziele werden von einem Merkmalselektionsverfahrens im Rahmen einer multiplen linearen Regression verfolgt?

Minimierung des erforderlichen ökonomischen, inhaltlichen und statistischen Aufwands
klare inhaltliche Interpretation des Regressionsmodells
Identifikation von möglichst wenigen Prädiktoren, welche eine gute Vorhersage der Kriteriumsvariable ermöglichen
Erhöhung der Fehlervarianz

12 2. Das Grundprinzip von Merkmalsselektionsverfahren im Rahmen einer multiplen linearen Regression besteht darin, für einzelne Prädiktorvariablen zu beurteilen, inwieweit sich durch ihre Hinzunahme zw. Entfernung aus dem Merkmalssatz das multiple Bestimmtheitsmaß signifikant verändert. Welcher Test wird zur Prüfung der Signifikanz dieser Veränderung verwendet?

F-Test
Kolmogorow-Smirnow-Test
Chi-Quadrat Test
t-Test

13 3. Welche Arten von Merkmalssektionsverfahren werden üblicherweise im Rahmen einer multiplen linearen Regression angewandt?

Verfahren der schrittweisen Merkmalsentfernung („Rückwärtsverfahren“)
Verfahren der schrittweisen Merkmalsentfernung bzw. Merkmalsaufnahme („schrittweises Verfahren“)
Verfahren der schrittweisen Merkmalsaufnahme („Vorwärtsverfahren“)
Verfahren der sofortigen Merkmalsaufnahme („Absolutverfahren“)

14 4. Welche der folgenden Aussagen über Merkmalsselektionsverfahren im Rahmen einer multiplen linearen Regression sind wahr?

Jedes Merkmalsselektionsverfahren (Vorwärtsverfahren, Rückwärtsverfahren, …) führt dazu, dass im Regressionsmodell nach Abschluss des Verfahrens die gleichen Prädiktoren enthalten sind.
Die Anwendung eines Vorwärtsverfahrens führt in jedem Fall zu einem größeren multiplen Bestimmtheitsmaß als die Anwendung eines Rückwärtsverfahrens.
Das multiple Bestimmtheitsmaß R² des mithilfe eines Merkmalsselektionsverfahrens ermittelten Regressionsmodells kann sich in Abhängigkeit des ausgewählten Verfahrens unterscheiden.
Das schrittweise Verfahren kombiniert das Rückwärts- und das Vorwärtsverfahren.

15 5. Die Kriteriumsvariable Y soll durch die Prädiktoren A, B, C, D und E vorhergesagt werden. Die Durchführung eines Verfahrens der schrittweisen Merkmalsaufnahme (Vorwärtsverfahren) führt zur Aufnahme der Prädiktoren A und C ins Regressionsmodell. Das multiple Bestimmtheitsmaß beträgt 0.68. Basierend auf beschriebenen Ausgangsdatensatz wird außerdem ein Verfahren der schrittweisen Merkmalsentfernung (Rückwärtsverfahren) durchgeführt. Welche der folgenden Ergebnisse könnten durch dieses Verfahren ermittelt werden?

Aufnahme der Prädiktoren A und C ins Modell ; R² = 0.72
Aufnahme der Prädiktoren A und C ins Modell ; R² = 0.68
Aufnahme der Prädiktoren B und D ins Modell ; R² = 0.69
Aufnahme der Prädiktoren B und C ins Modell ; R² = 1.08

16 1. Welche(s) Ziel(e) verfolgt eine hierarchische Regression?

Untersuchung des Erklärungsbeitrages aus dem Datensatz extrahierter Hauptkomponenten
Untersuchung des Erklärungsbeitrages inhaltlich strukturierter Merkmalsmengen
Untersuchung des Erklärungsbeitrages der Regressionskonstante
Untersuchung des Erklärungsbeitrages von Zeitreihen

17 2. Was dient als Orientierung für die Auswahl der Reihenfolge der Aufnahme von Merkmalsmengen im Rahmen einer hierarchischen Regression?

Anzahl der Prädiktoren in den Merkmalsmengen
Summe der β-Gewichte der Prädiktoren der Merkmalsmenge
inhaltliche Gesichtspunkte
Summe der t-Werte der Prädiktoren der Merkmalsmenge

18 3. Welche der folgenden Aussage(n) über eine hierarchische Regression sind zutreffend?

Resultieren in Abhängigkeit der Reihenfolge der Aufnahme der Merkmalsmengen unterschiedliche Regressionsmodelle, liefert dies einen Hinweis auf Multikollinearität.
Korrelieren die Merkmalsmengen kaum untereinander, dann resultieren abhängig von der Reihenfolge der Aufnahme der Merkmalsmengen oftmals sehr unterschiedliche Ergebnisse.
Die Reihenfolge der Aufnahme von Merkmalsmengen ist besonders dann wichtig, wenn die Merkmalsmengen stark korrelieren.
Die Bedeutsamkeit der Reihenfolge der Aufnahme von Merkmalsmengen ist unabhängig von Multikollinearität im Datensatz.

19 4. Welche der folgenden Aussage(n) über das multiple Bestimmtheitsmaß R² einer hierarchischen Regression sind wahr?

Das multiple Bestimmtheitsmaß R² nimmt ab, je mehr Merkmalsmengen ins Regressionsmodell aufgenommen werden.
Das multiple Bestimmtheitsmaß R² nimmt für die Aufnahme aller verfügbaren Merkmalsmengen ins Regressionsmodell den maximal möglichen Wert an.
Die Aufnahme von 50 % aller Merkmalsmengen führt in jedem Fall zu einem multiplen Bestimmtheitsmaß R² größer als 25 %.
Ob eine Merkmalsmenge zu einer signifikanten Zunahme an Bestimmtheitsmaß führt, kann davon abhängen, in welchem Schritt die betreffende Merkmalsmenge aufgenommen wird.
5. Die Kriteriumsvariable Y soll durch die Merkmalsmengen A (Prädiktor 1 und 3), B (Prädiktor 2 und 4) und C (Prädiktor 5, 6 und 7) vorhergesagt werden. Es wird eine hierarchische Regression angewandt. Zunächst wird die Merkmalsmenge A ins Modell einbezogen. Das ermittelte multiple Bestimmtheitsmaß R² beträgt 0.65. Im Anschluss wird die Merkmalsmenge C ins Modell ins Regressionsmodell aufgenommen. Dies führt zu einer Zunahme des multiplen Bestimmtheitsmaßes R² um 0.30.

In einer zweiten Analyse basierend auf dem gleichen Datensatz wird eine andere Reihenfolge der Aufnahme der Merkmalsmengen gewählt. Welche der folgenden Ergebnisse sind in dieser zweiten Analyse möglich? + Aufnahme Merkmalsmenge B → R² = 0.40; anschließend Aufnahme Merkmalsmenge C → Anstieg R² um 0.40 + Aufnahme Merkmalsmenge C → R² = 0.60; anschließend Aufnahme Merkmalsmenge A → Anstieg R² um 0.35 - Aufnahme Merkmalsmenge C → R² = 0.75; anschließend Aufnahme Merkmalsmenge A → Anstieg R² um 0.15 - Aufnahme Merkmalsmenge B → R² = 0.85; anschließend

Aufnahme Merkmalsmenge A → Anstieg R² um 0.20





20