Grundlagen der multiplen linearen Regression: Unterschied zwischen den Versionen
Wehner (Diskussion | Beiträge) Keine Bearbeitungszusammenfassung |
Elisa (Diskussion | Beiträge) Keine Bearbeitungszusammenfassung |
||
(13 dazwischenliegende Versionen von 3 Benutzern werden nicht angezeigt) | |||
Zeile 6: | Zeile 6: | ||
[[File:3_3_MLR_Formel_1.PNG|300px|link=Ausgelagerte_Formeln#Multiple lineare Regression|Ausgelagerte Formel Multiple lineare Regression]] | |||
[[File:3_3_MLR_Formel_1.PNG|300px]] | |||
Zeile 63: | Zeile 16: | ||
'''''Beispiel''''' | '''''Beispiel''''' | ||
In einer fiktiven Studie wird der Einfluss von vier Prädiktoren auf ein Kriterium untersucht. Um deskriptiv die Zusammenhänge zwischen den Prädiktoren und dem Kriterium und zwischen den Prädiktoren zu berechnen, werden zunächst die [[Einfache lineare Korrelation|bivariaten Korrelationskoeffizienten]] berechnet. Aus dem signifikanten Korrelationskoeffizienten zwischen Prädiktor 2 und dem Kriterium (r = 0.81) lässt sich z.B. vermuten, dass Prädiktor 2 einen bedeutenden Einfluss auf das Kriterium hat (Abbildung 1). | In einer fiktiven Studie wird der Einfluss von vier Prädiktoren auf ein Kriterium untersucht. Um deskriptiv die Zusammenhänge zwischen den Prädiktoren und dem Kriterium und zwischen den Prädiktoren zu berechnen, werden zunächst die [[Einfache lineare Korrelation|bivariaten Korrelationskoeffizienten]] berechnet. Aus dem signifikanten Korrelationskoeffizienten zwischen Prädiktor 2 und dem Kriterium (r = 0.81) lässt sich z.B. vermuten, dass Prädiktor 2 einen bedeutenden Einfluss auf das Kriterium hat (Abbildung 1). Dies wird in der regressionsanalytischen Betrachtung (Abbildung 2) bestätigt. | ||
Dies wird in der regressionsanalytischen Betrachtung (Abbildung 2) bestätigt. | |||
[[File:3_3_MLR_2.PNG| | [[File:3_3_MLR_1.PNG|500px|Abbildung 1: Korrelationsmatrix aller in das Modell einbezogener Variablen|link=Ausgelagerte_Bildbeschreibungen#Korrelationsmatrix_2|Ausgelagerte Bildbeschreibung von Korrelationsmatrix 2]]<span style="color: white"> kkk </span>[[File:3_3_MLR_2.PNG|500px|Abbildung 2: Ergebnisse der multiplen Regressionsanalyse|link=Ausgelagerte_Bildbeschreibungen#Ergebnisse_Regressionsanalyse|Ausgelagerte Bildbeschreibung von Ergebnisse Regressionsanalyse]] | ||
Zeile 78: | Zeile 25: | ||
[[File:3_3_MLR_Formel_2.PNG|350px]] | [[File:3_3_MLR_Formel_2.PNG|350px|link=Ausgelagerte_Formeln#Regressionsgleichung im Beispiel Multiple lineare Regression|Ausgelagerte Formel Regressionsgleichung]] | ||
Zeile 89: | Zeile 36: | ||
[[Datei:Videolink_neu.PNG|link=http://141.76.19.82:3838/mediawiki/ | [[Datei:Videolink_neu.PNG|link=http://141.76.19.82:3838/mediawiki/MUVE_STAT/Videolinks/3_3_MLR_Grundlagen_Link.html | ||
|120px]] <span style="color: white"> kkk </span> Im [http://141.76.19.82:3838/mediawiki/ | |120px]] <span style="color: white"> kkk </span> Im [http://141.76.19.82:3838/mediawiki/MUVE_STAT/Videolinks/3_3_MLR_Grundlagen_Link.html Video] wird die multiple lineare Regression näher erläutert. | ||
[[Datei:Simulationslink_neu2.PNG|link=http://141.76.19.82:3838/mediawiki/ | [[Datei:Simulationslink_neu2.PNG|link=http://141.76.19.82:3838/mediawiki/MUVE_STAT/Apps/3_3_MLR_Grundlagen/ | ||
|120px]] <span style="color: white"> kkk </span> In der [http://141.76.19.82:3838/mediawiki/ | |120px]] <span style="color: white"> kkk </span> In der [http://141.76.19.82:3838/mediawiki/MUVE_STAT/Apps/3_3_MLR_Grundlagen/ interaktiven Simulation] kann die Entstehung unterschiedlicher Regressionskoeffizienten und die Überprüfung der Voraussetzungen anhand verschiedener Datensätze nachvollzogen werden. | ||
Aktuelle Version vom 9. Dezember 2021, 23:57 Uhr
In der psychologischen Forschung wird häufig der Einfluss von mehr als einem Prädiktor auf eine Kriteriumsvariable untersucht. Die multiple lineare Regression (MLR) ist die Methode der Wahl, um aus mehreren Prädiktoren diejenigen auszuwählen, die einen entscheidenden Beitrag zur Vorhersage liefern.
Die MLR ist eine Erweiterung der einfachen linearen Regression. Sie stellt das Kriterium als lineare Funktion von zwei oder mehr Prädiktoren dar und kann mit der folgenden Formel beschrieben werden:
Jeder Messwert yi kann durch die lineare Kombination der Prädiktorwerte (x1i, …, x1k) und einem zufälligen Residuum ei erklärt werden. Die Regressionskoeffizienten (b0, b1, …, bk) sind nicht bekannt und werden mithilfe der Methode der kleinsten Quadrate aus den Daten geschätzt.
Die Methode der kleinsten Quadrate zur Schätzung der Regressionskoeffizienten, die Voraussetzungen zur Anwendung der MLR und die Berechnung des Bestimmtheitsmaßes sind analog zu der einfachen linearen Regression und können im Text zur einfachen linearen Regression nachvollzogen werden. Anders als bei der einfachen linearen Regression gibt es keine Möglichkeit, die Schätzung der Regressionskoeffizienten bzw. des Bestimmtheitsmaßes zu vereinfachen. Um diese zu bestimmen muss dementsprechend auf Computerprogramme zurückgegriffen werden.
Beispiel
In einer fiktiven Studie wird der Einfluss von vier Prädiktoren auf ein Kriterium untersucht. Um deskriptiv die Zusammenhänge zwischen den Prädiktoren und dem Kriterium und zwischen den Prädiktoren zu berechnen, werden zunächst die bivariaten Korrelationskoeffizienten berechnet. Aus dem signifikanten Korrelationskoeffizienten zwischen Prädiktor 2 und dem Kriterium (r = 0.81) lässt sich z.B. vermuten, dass Prädiktor 2 einen bedeutenden Einfluss auf das Kriterium hat (Abbildung 1). Dies wird in der regressionsanalytischen Betrachtung (Abbildung 2) bestätigt.
Unter Einbezug aller Prädiktoren ergibt sich für das vorliegende Beispiel die folgende Regressionsgleichung:
Die Signifikanz der einzelnen Regressionskoeffizienten lässt sich mithilfe eines t-Tests feststellen, welcher die Nullhypothese H0: bi = 0 (i= 1, …, k) testet. Die t-Werte werden als Quotient aus Regressionskoeffizient und dessen Standardfehler bestimmt und geben Aufschluss darüber, ob die Prädiktoren dieses Modells einen statistisch abgesicherten Einfluss auf das Kriterium haben. In diesem Fall haben sowohl Prädiktor 1 als auch Prädiktor 2 einen signifikanten Einfluss auf das Kriterium. Dass Prädiktor 1 trotz sehr geringer und nichtsignifikanter Korrelation mit dem Kriterium im Regressionsmodell signifikant von 0 verschieden ist, könnte ein Hinweis auf Multikollinearität sein.
Um die Regressionskonstante interpretieren und daraus spezifische Aussagen gewinnen zu können, bietet sich analog zur einfachen linearen Regression die Zentrierung aller Prädiktorvariablen vor der Analyse an. Danach entspricht die geschätzte Regressionskonstante dem erwarteten Wert des Kriteriums bei durchschnittlichen Ausprägungen aller Prädiktoren.
Die Höhe der einzelnen Regressionskoeffizienten ist stark abhängig von dem Wertebereich des jeweiligen Prädiktors und sagt somit nichts über die tatsächliche Stärke des Einflusses eines Prädiktors im Vergleich zu den anderen Prädiktoren aus. Um die Einflüsse der Prädiktoren vergleichbar zu machen, kann auf die Methode der z-Standardisierung zurückgegriffen werden. Bei der z-Standardisierung wird die Differenz aus Messwert und arithmetischen Mittelwert zusätzlich durch die Standardabweichung des jeweiligen Merkmals geteilt. Dadurch erhalten alle Merkmale einen Mittelwert von 0 und eine Standardabweichung von 1. Hierbei werden nicht nur die Prädiktoren, sondern auch das Kriterium z-standardisiert. Die daraus entstehenden Regressionskoeffizienten werden als Beta-Koeffizienten bezeichnet und ermöglichen es, vergleichende Aussagen über den Einfluss der Prädiktoren zu treffen. Im beschriebenen Beispiel zeigt sich durch den Vergleich der Beta-Koeffizienten, dass innerhalb des untersuchten Regressionsmodells Prädiktor 2 den größten Einfluss auf das Kriterium hat (β2 = 0.81). Die Regressionskonstante beträgt bei einer Regressionsanalyse mit z-standardisierten Variablen stets 0, da der Mittelwert aller Variablen 0 beträgt. Die Regressionsgerade verläuft damit durch den Koordinatenursprung. Bei verletzter Homoskedastizitätsvoraussetzung sollte eine Regression mit robusten Standardfehlern berechnet werden (vgl. einfache lineare Regression).
kkk Im Video wird die multiple lineare Regression näher erläutert.
kkk In der interaktiven Simulation kann die Entstehung unterschiedlicher Regressionskoeffizienten und die Überprüfung der Voraussetzungen anhand verschiedener Datensätze nachvollzogen werden.
Weiterführende Literatur
Bortz, J., & Schuster, C. (2016). Statistik für Human- und Sozialwissenschaftler. Berlin: Springer.
Eid, M., Gollwitzer, M., & Schmitt, M. (2017). Statistik und Forschungsmethoden. Weinheim: Beltz.
Rudolf, M. & Buse, J. (2020). Multivariate Verfahren. Eine praxisorientierte Einführung mit Anwendungsbeispielen (3. Aufl., Kapitel 2.2). Göttingen: Hogrefe.
Rudolf, M., & Kuhlisch, W. (2008). Biostatistik: Eine Einführung für Biowissenschaftler (Kapitel 7.6). München: Pearson Studium.