Ausgelagerte Formeln

Aus eLearning - Methoden der Psychologie - TU Dresden
Zur Navigation springen Zur Suche springen

Hier werden alle zu langen Formeln als LaTeX-Code hinterlegt.

Cronbachs Alpha


Inzidenz

$$\mathrm{Inzidenz}=\frac{\mathrm{\text{Anzahl neuer Fälle (Zeit t)}}}
{\mathrm{Grundgesamtheit}}$$

Standardfehler

$$\sigma_{\overline{\mathrm{x}}}=\frac{\sigma}{\sqrt{\mathrm{n}}}$$

t-Wert

$$\mathrm{t}=\frac{\overline{\mathrm{x}}-\mu}{\mathrm{s}} \sqrt{\mathrm{n}}$$

F-Wert

$$\mathrm{F}=\frac{\mathrm{QS}_{\mathrm{zwischen}}}{\mathrm{df}_{\mathrm{zwischen}}}: 
\frac{\mathrm{QS}_{\text {innerhalb }}}{\mathrm{df}_{\text {innerhalb }}}$$

Grenzen eines Konfidenzintervalls

$$G_{u}=\bar{X}-z_{1-\frac{\alpha}{2}} \cdot \sigma_{\bar{x}}$$
$$G_{o}=\bar{X}+z_{1-\frac{\alpha}{2}} \cdot \sigma_{\bar{x}}$$

Stichprobenumfang

$$\mathrm{n}=\frac{\left(\mathrm{z}_{1-\beta} + \mathrm{z}_{1-\alpha}\right)^{2} \cdot \sigma^{2}}{\Delta^{2}}$$

Pearsons Produkt-Moment-Korrelationskoeffizient r

$$\mathrm{r}_{\mathrm{xy}}=\frac{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\mathrm{x}_{\mathrm{i}}-\overline{\mathrm{x}}\right) \cdot\left(\mathrm{y}_{\mathrm{i}}-\overline{\mathrm{y}}\right)}{(\mathrm{n}-1) \cdot \mathrm{s}_{\mathrm{x}} \cdot \mathrm{s}_{\mathrm{y}}}$$

Spearmans Rangkorrelationskoeffizient

$$\rho_{\mathrm{xy}}=\frac{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\mathrm{r}_{\mathrm{x}_{\mathrm{i}}}-\overline{\mathrm{r}}_{\mathrm{x}}\right) \cdot\left(\mathrm{r}_{\mathrm{y}_{\mathrm{i}}}-\overline{\mathrm{r}}_{\mathrm{y}}\right)}{(\mathrm{n}-1) \cdot \mathrm{s}_{\mathrm{r}_{\mathrm{x}}} \cdot \mathrm{s}_{\mathrm{r}_{\mathrm{y}}}}$$

Kendalls Tau

$$\tau=\frac{2 S}{n(n-1)}$$

Partieller Korrelationskoeffizient

$$r_{x y, z}=\frac{r_{x y}-r_{x z} \cdot r_{y z}}{\sqrt{\left(1-r_{x z}^{2}\right) \cdot\left(1-r_{y z}^{2}\right)}}$$

Einfache lineare Regression

$$y_{i}=b_{0}+b_{1} \cdot x_{i}+e_{i}$$

Anzahl k (Trimmed Squares Methode)

$$\mathrm{k}=\frac{\mathrm{n}+\mathrm{p}+1}{2}$$

Regressionskoeffizient

$$\widehat{\mathrm{b}}_{1}=\frac{\mathrm{s}_{\mathrm{xy}}}{\mathrm{s}_{\mathrm{x}}^{2}}$$

Regressionskonstante

$$\widehat{\mathrm{b}}_{0}=\overline{\mathrm{y}}-\widehat{\mathrm{b}}_{1} \cdot \overline{\mathrm{x}}$$

Summe der Residuen

$$\sum_{i=1}^{n} e_{i}=0$$

Bestimmtheitsmaß R²

$$\mathrm{R}^{2}=\frac{\mathrm{QS}(\widehat{\mathrm{y}})}{\mathrm{QS}(\mathrm{y})}
=\frac{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\widehat{\mathrm{y}}_{\mathrm{i}}-\overline{\mathrm{y}}\right)^{2}}{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\mathrm{y}_{\mathrm{i}}-\overline{\mathrm{y}}\right)^{2}}$$

Multiple lineare Regression

$$y_{i}=b_{0}+b_{1} \cdot x_{1 i}+b_{2} \cdot x_{2 i}+\ldots+b_{k} \cdot x_{k i}+e_{i}$$

Regressionsgleichung im Beispiel Multiple lineare Regression

$$y_{i}=3.93-0.38 \cdot x_{1}+0.77 \cdot x_{2}+0.13 \cdot x_{3}+0.16 \cdot x_{4}$$

Varianzinflationsfaktor

$$\mathrm{VIF}_{\mathrm{j}}=\frac{1}{\mathrm{Tol}_{\mathrm{j}}}$$

Moderierte Regression

$$y_{i}=b_{0}+b_{1} \cdot x_{1 i}+b_{2} \cdot x_{2 i}+b_{3} \cdot x_{1 i} \cdot x_{2 i}+e_{i}$$

Hauptkomponentenanalyse

$$\mathrm{z}_{\mathrm{ik}}=\mathrm{a}_{\mathrm{i} 1} \cdot \mathrm{f}_{1 \mathrm{k}}+\mathrm{a}_{\mathrm{i} 2} \cdot 
\mathrm{f}_{2 \mathrm{k}}+\cdots+\mathrm{a}_{\mathrm{im}} \cdot \mathrm{f}_{\mathrm{mk}}$$

Exponentielles Discounting

$$D U(x, t)=U(x) \cdot \delta^{t}$$

Hyperbolisches Discounting

$$D U(x, t)=\frac{U(x)}{1+k t}$$

Hyperboloid Modell

$$D U(x, t)=\frac{U(x)}{(1+kt)^{2}}$$

Quasi-hyperbolisches Discounting t = 0

$$D U(x, t)=U(x)$$

Quasi-hyperbolisches Discounting t > 0

$$D U(x, t)=U(x) \cdot \beta \delta^{t}$$

SSE

$$S S E=\sum\left(Y_{d}-Y_{m}\right)^{2}$$

Likelihood L

$$L=P(\text { Daten } \mid \text { Modellparameter })=\prod_{i} P\left(d_{i} \mid p, b\right)$$

Log-Likelihood

$$\log (L)=\log (P(\text { Daten } \mid \text { Modellparameter }))=\sum_{i} \log \left(P\left(d_{i} \mid p, b\right)\right)$$

Lernregel (Hebb'sches Lernen)

$$\Delta w_{x y}=\lambda \cdot x \cdot y$$

Deltaregel

$$\Delta w_{x y}=\alpha \cdot\left(y_{k o r r e k t}-y_{b e o b a c h t e t}\right) \cdot x$$

Deltaregel (verkürzt)

$$\Delta w_{x y}=\alpha \cdot \Delta y \cdot x$$

Gesamtfehler

$$E_{G e s a m t}=\sum E_{i}=\sum \text { Output }_{i}-\text { Vorgabe }_{i}$$

Ableitung des Gesamtfehlers nach Gewicht w46

$$\frac{d E_{\text {Gesamt }}}{d w_{46}}=\delta_{6} \cdot O u t p u t_{6}$$

Veränderung des Gewichts w46

$$w_{46}=w_{46}-\eta \cdot \frac{d E_{G e s a m t}}{d w_{46}}$$

Aktivierung der Knoten

$$\tau \dot{u}(x, t)=-u(x, t)+h+\int f\left(u\left(x^{\prime}, t\right)\right) \cdot \omega\left(x-x^{\prime}\right) d x^{\prime}+S(x, t)$$
  • x – ein Knoten
  • x' – ein Nachbarknoten
  • u(x,t) – Aktivierung u eines Knotens x zum Zeitpunkt t
  • τ – Zeitkonstante
  • h – Ruhepotential
  • f – (meist) sigmoidale Aktivierungsfunktion
  • ω – Interaktionskernel (Mexican-Hat-Funktion)
  • S(x,t) – externer stimulusbedingter Input für jeden Knoten x zu jedem Zeitpunkt t

General Linear Model

$$\boldsymbol{Y}=\boldsymbol{X} \cdot \boldsymbol{b}+\boldsymbol{e}$$

Dichtefunktion Normalverteilung

$$f(x)=\frac{1}{\sigma \cdot \sqrt{2 \pi}} \cdot e^{-\frac{1}{2} \cdot\left(\frac{x-\mu}{\sigma}\right)^{2}}$$

Schätzung μ

$$\mu=\frac{1}{n} \cdot \sum_{i=1}^{n} x_{i}$$

Objective Functions Beispiel

$$Y=D U(x, t)=U(x) \cdot \delta^{t}$$

Fehlerquadratsumme SSE

$$S S E(\delta)=\sum\left(Y_{d}-Y_{m}(\delta)\right)^{2}$$

$Y_d$ ... empirische Werte
$Y_m(\delta)$ ... Y-Werte des Modells mit entsprechendem Parameter delta

Verbundswahrscheinlichkeit

$$P\left(X=x_{i}, Y=y_{i}\right)=p\left(x_{i}, y_{i}\right)=\frac{n_{i j}}{N}$$

Randwahrscheinlichkeit

$$P\left(X=x_{i}\right)=\frac{c_{i}}{N}$$

Bedingte Wahrscheinlichkeit

$$P\left(X=x_{i}, Y=y_{i}\right)=\frac{n_{i j}}{c_{i}}$$

Produktregel

$$P\left(X=x_{i}, Y=y_{i}\right)=\frac{n_{i_{j}}}{N}=\frac{n_{i_{j}}}{c_{i}} * \frac{c_{i}}{N}=P\left(X=x_{i}, Y=y_{i}\right) * P\left(X=x_{i}\right)$$

Satz von Bayes

$$p(y \mid x)=\frac{p(x \mid y) p(y)}{p(x)}$$

Regressionsmodell

$$y=\beta_{0}+\beta_{1} * x$$

Satz von Bayes mit Parameter β

$$p(\boldsymbol{\beta} \mid D)=\frac{p(D \mid \boldsymbol{\beta}) p(\boldsymbol{\beta})}{p(D)}$$

blau dargestellt: $p(\boldsymbol{\beta} \mid D)$
grün dargestellt: $p(D \mid \boldsymbol{\beta}$
gelb dargestellt: $p(\boldsymbol{\beta}$

Hierarchical Gaussian Filtering (1)

$$x^{(k)} \sim N\left(x^{(k-1)}, \vartheta\right), \quad k=1,2, \ldots$$

Hierarchical Gaussian Filtering (2)

$$x_{1}^{(k)} \sim N\left(x_{1}^{(k-1)}, f\left(x_{2}\right)\right)$$

Hierarchical Gaussian Filtering (3)

$$x_{2}^{(k)} \sim N\left(x_{2}^{(k-1)}, f_{2}\left(x_{3}\right)\right)$$

Hierarchical Gaussian Filtering (4)

$$x_{i}^{(k)} \sim N\left(x_{i}^{(k-1)}, f_{i}\left(x_{i+1}\right)\right), \quad i=1, \ldots, n-1$$

Hierarchical Gaussian Filtering (5)

$$x_{n}^{(k)} \sim N\left(x_{n}^{k-1)}, \vartheta\right), \quad \vartheta>0$$

AIC

$$A I C_{m}=-2 \cdot \ln \left(L_{m}\right)+2 \cdot\left|k_{m}\right|$$

$L_m$ ... Likelihood des Modells
$k_m$ ... Anzahl der Parameter

BIC

$$B I C_{m}=-2 \cdot \ln \left(L_{m}\right)+\ln (n) \cdot\left|k_{m}\right|$$

$L_m$ ... Likelihood des Modells
$k_m$ ... Anzahl der Parameter
$n$ ... Anzahl der Beobachtungen

Beispiel einfache lineare Regression

$$y_{i}=b_{0}+b_{1} \cdot x_{i}+e_{i} \quad(i=1, \ldots, n)$$

$y_i$ : Wert der Kriteriumsvariablen Y des i-ten Probanden
$x_i$ : Wert der Prädiktorvariabalen X des i-ten Probanden
$e_i$ : Residuum des i-ten Probanden
$b_0, b_1$ : Regressionskoeffizienten
$n$ : Anzahl der Probanden

Mittelwert μ und Standardabweichung σ


Berechnung Modellparameter b1


Berechnung Modellparameter b0


Bitte testen

Frage von Paul

geht tiefgestellter und hochgestellter Text. eine tiefgestellte Formel fx+1

eine hochgestellter Formel fx+1

Frage von Josephine