Ausgelagerte Formeln: Unterschied zwischen den Versionen
(93 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt) | |||
Zeile 3: | Zeile 3: | ||
== Cronbachs Alpha == | == Cronbachs Alpha == | ||
<pre> | <pre> | ||
\begin{equation} | |||
\alpha = \frac{p}{p-1}\times (1 -\frac{\sum\limits_{i=1}^p s^2_{Item}}{s^2_{Testwert}}) | |||
\end{equation} | |||
$p$ ... Anzahl der Items | |||
$s^2_{Item}$ ... Varianz der Items | |||
$s^2_{Testwert}$ ... Varianz der Rohwerte | |||
</pre> | </pre> | ||
Zeile 90: | Zeile 97: | ||
=\frac{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\widehat{\mathrm{y}}_{\mathrm{i}}-\overline{\mathrm{y}}\right)^{2}}{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\mathrm{y}_{\mathrm{i}}-\overline{\mathrm{y}}\right)^{2}}$$ | =\frac{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\widehat{\mathrm{y}}_{\mathrm{i}}-\overline{\mathrm{y}}\right)^{2}}{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\mathrm{y}_{\mathrm{i}}-\overline{\mathrm{y}}\right)^{2}}$$ | ||
</pre> | </pre> | ||
== Multiple lineare Regression == | |||
<pre> | |||
$$y_{i}=b_{0}+b_{1} \cdot x_{1 i}+b_{2} \cdot x_{2 i}+\ldots+b_{k} \cdot x_{k i}+e_{i}$$ | |||
</pre> | |||
== Regressionsgleichung im Beispiel Multiple lineare Regression == | |||
<pre> | |||
$$y_{i}=3.93-0.38 \cdot x_{1}+0.77 \cdot x_{2}+0.13 \cdot x_{3}+0.16 \cdot x_{4}$$ | |||
</pre> | |||
== Varianzinflationsfaktor == | |||
<pre> | |||
$$\mathrm{VIF}_{\mathrm{j}}=\frac{1}{\mathrm{Tol}_{\mathrm{j}}}$$ | |||
</pre> | |||
== Moderierte Regression == | |||
<pre> | |||
$$y_{i}=b_{0}+b_{1} \cdot x_{1 i}+b_{2} \cdot x_{2 i}+b_{3} \cdot x_{1 i} \cdot x_{2 i}+e_{i}$$ | |||
</pre> | |||
== Hauptkomponentenanalyse == | |||
<pre> | |||
$$\mathrm{z}_{\mathrm{ik}}=\mathrm{a}_{\mathrm{i} 1} \cdot \mathrm{f}_{1 \mathrm{k}}+\mathrm{a}_{\mathrm{i} 2} \cdot | |||
\mathrm{f}_{2 \mathrm{k}}+\cdots+\mathrm{a}_{\mathrm{im}} \cdot \mathrm{f}_{\mathrm{mk}}$$ | |||
</pre> | |||
== Exponentielles Discounting == | |||
<pre> | |||
$$D U(x, t)=U(x) \cdot \delta^{t}$$ | |||
</pre> | |||
== Hyperbolisches Discounting == | |||
<pre> | |||
$$D U(x, t)=\frac{U(x)}{1+k t}$$ | |||
</pre> | |||
== Hyperboloid Modell == | |||
<pre> | |||
$$D U(x, t)=\frac{U(x)}{(1+kt)^{2}}$$ | |||
</pre> | |||
== Quasi-hyperbolisches Discounting t = 0 == | |||
<pre> | |||
$$D U(x, t)=U(x)$$ | |||
</pre> | |||
== Quasi-hyperbolisches Discounting t > 0 == | |||
<pre> | |||
$$D U(x, t)=U(x) \cdot \beta \delta^{t}$$ | |||
</pre> | |||
== SSE == | |||
<pre> | |||
$$S S E=\sum\left(Y_{d}-Y_{m}\right)^{2}$$ | |||
</pre> | |||
== Likelihood L == | |||
<pre> | |||
$$L=P(\text { Daten } \mid \text { Modellparameter })=\prod_{i} P\left(d_{i} \mid p, b\right)$$ | |||
</pre> | |||
== Log-Likelihood == | |||
<pre> | |||
$$\log (L)=\log (P(\text { Daten } \mid \text { Modellparameter }))=\sum_{i} \log \left(P\left(d_{i} \mid p, b\right)\right)$$ | |||
</pre> | |||
== Lernregel (Hebb'sches Lernen) == | |||
<pre> | |||
$$\Delta w_{x y}=\lambda \cdot x \cdot y$$ | |||
</pre> | |||
== Deltaregel == | |||
<pre> | |||
$$\Delta w_{x y}=\alpha \cdot\left(y_{k o r r e k t}-y_{b e o b a c h t e t}\right) \cdot x$$ | |||
</pre> | |||
== Deltaregel (verkürzt) == | |||
<pre> | |||
$$\Delta w_{x y}=\alpha \cdot \Delta y \cdot x$$ | |||
</pre> | |||
== Gesamtfehler == | |||
<pre> | |||
$$E_{G e s a m t}=\sum E_{i}=\sum \text { Output }_{i}-\text { Vorgabe }_{i}$$ | |||
</pre> | |||
== Ableitung des Gesamtfehlers nach Gewicht w46 == | |||
<pre> | |||
$$\frac{d E_{\text {Gesamt }}}{d w_{46}}=\delta_{6} \cdot O u t p u t_{6}$$ | |||
</pre> | |||
== Veränderung des Gewichts w46 == | |||
<pre> | |||
$$w_{46}=w_{46}-\eta \cdot \frac{d E_{G e s a m t}}{d w_{46}}$$ | |||
</pre> | |||
== Aktivierung der Knoten == | |||
<pre> | |||
$$\tau \dot{u}(x, t)=-u(x, t)+h+\int f\left(u\left(x^{\prime}, t\right)\right) \cdot \omega\left(x-x^{\prime}\right) d x^{\prime}+S(x, t)$$ | |||
</pre> | |||
* x – ein Knoten | |||
* x' – ein Nachbarknoten | |||
* u(x,t) – Aktivierung u eines Knotens x zum Zeitpunkt t | |||
* τ – Zeitkonstante | |||
* h – Ruhepotential | |||
* f – (meist) sigmoidale Aktivierungsfunktion | |||
* ω – Interaktionskernel (Mexican-Hat-Funktion) | |||
* S(x,t) – externer stimulusbedingter Input für jeden Knoten x zu jedem Zeitpunkt t | |||
== General Linear Model 1 == | |||
<pre> | |||
$$\boldsymbol{Y}=\boldsymbol{X} \cdot \boldsymbol{b}+\boldsymbol{e}$$ | |||
</pre> | |||
$Y$ ... Vektor der Kriteriumsvariablen </br> | |||
$X$ ... Matrix der Prädiktoren (= Designmatrix) </br> | |||
$b$ ... Vektor der Gewichte aller Prädiktoren </br> | |||
$e$ ... Vektor der Residuen | |||
== General Linear Model 2 == | |||
<pre> | |||
$$\sum_{i=1}^{n} e_{i}^{2}=\sum_{i=1}^{n}\left[Y_{i}-(X b)_{i}\right]^{2} \rightarrow Minimum$$ | |||
</pre> | |||
$n$ ... Anzahl an Individuen | |||
== General Linear Model 3 == | |||
<pre> | |||
$$\hat{b}=\left(X^{T} \cdot X\right)^{-1} \cdot X^{T} \cdot Y$$ | |||
</pre> | |||
$\hat{b}$ ... Schätzung von b </br> | |||
$(X^{T} \cdot X)^{-1}$ ... inverse Matrix von $X^{T} X$ </br> | |||
$X^{T}$ ... Transposition der Matrix X | |||
== t-Test als Spezialfall des GLM == | |||
<pre> | |||
$$y=b_{o}+x \cdot b_{1}$$ | |||
</pre> | |||
mit </br> | |||
$b_0$ = Konstante </br> | |||
$x$ = Wert der Prädiktorvariable </br> | |||
$b_1$ = Steigung der Prädiktorvariable pro Einheit | |||
== Prüfgröße t == | |||
<pre> | |||
$$t=\frac{x_1-x_2}{s}$$ | |||
</pre> | |||
mit | |||
$x_1$ = Mittelwert Gruppe 1 </br> | |||
$x_2$ = Mittelwert Gruppe 2 </br> | |||
$s$ = gepoolte Standardabweichung | |||
== General Linear Model 4 == | |||
<pre> | |||
$$b=x_1+g \cdot \Delta$$ | |||
</pre> | |||
mit g = 0 für Mittelwert der Gruppe 1 und g = 1 für Mittelwert der Gruppe 2 | |||
== Dichtefunktion Normalverteilung == | |||
<pre> | |||
$$f(x)=\frac{1}{\sigma \cdot \sqrt{2 \pi}} \cdot e^{-\frac{1}{2} \cdot\left(\frac{x-\mu}{\sigma}\right)^{2}}$$ | |||
</pre> | |||
== Schätzung My und Schätzung Sigma == | |||
<pre> | |||
My: | |||
$$\mu=\frac{1}{n} \cdot \sum_{i=1}^{n} x_{i}$$ | |||
Sigma: | |||
$$\sigma=\sqrt{\sum_{i=1}^{n}}\left(x_{i}-\mu\right)^{2}$$ | |||
</pre> | |||
== Dichtefunktion Ex-Gauß-Verteilung == | |||
<pre> | |||
$$\mu=\frac{\lambda}{2} \cdot e^{\frac{\lambda}{2} \cdot\left(2 \mu+\lambda \sigma^{2}-2 x\right)} \cdot e r f c\left(\frac{\mu+\lambda \sigma^{2}-x}{\sqrt{2} \sigma}\right)$$ | |||
</pre> | |||
== Komplementäre Fehlerfunktion Ex-Gauß == | |||
<pre> | |||
$$e r f c(x)=\frac{2}{\sqrt{\pi}} \int_{x}^{\infty} e^{-t^{2}} d t$$ | |||
</pre> | |||
== Dichtefunktion Gammaverteilung == | |||
<pre> | |||
$$f(x)=\left\{\begin{array}{ll} | |||
\frac{b^{p}}{\Gamma(p)} x^{p-1} e^{-b x} & x>0 \\ | |||
0 & x \leq 0 | |||
\end{array}\right.$$ | |||
</pre> | |||
== Gammafunktion == | |||
<pre> | |||
$$\Gamma(x)=\lim _{n \rightarrow \infty} \frac{n ! n^{x}}{x(x+1)(x+2) \ldots(x+n)}$$ | |||
</pre> | |||
== Gammaverteilung: Erwartungswert, Varianz, Schiefe == | |||
<pre> | |||
$$ | |||
\begin{array}{lll} | |||
\text { Erwartungswert } & = & \frac{p}{b} \\ | |||
\text { Varianz } & = & \frac{p}{b^{2}} \\ | |||
\text { Schiefe } & = & \frac{2}{\sqrt{p}} | |||
\end{array} | |||
$$ | |||
</pre> | |||
== Dichtefunktion Shifted-Wald Verteilung == | |||
<pre> | |||
\begin{equation} | |||
f(x) = \frac{\gamma}{2 \pi (x-\theta)}\cdot e^\frac{-(\gamma-\delta x + \delta\theta)^2}{2(x-\theta)} | |||
\end{equation} | |||
</pre> | |||
== Shifted-Wald Verteilung: Erwartungswert, Varianz == | |||
<pre> | |||
$$ | |||
\begin{array}{lll} | |||
\text { Erwartungswert } & = & \Theta+\frac{\gamma}{\delta} \\ | |||
\text { Varianz } & = & \frac{\gamma}{\delta^{3}} | |||
\end{array} | |||
$$ | |||
</pre> | |||
== Dichtefunktion Weibullverteilung == | |||
<pre> | |||
$$f(x)=\lambda k \cdot(\lambda x)^{k-1} \cdot e^{-(\lambda x)^{k}}$$ | |||
</pre> | |||
== Objective Functions Beispiel == | |||
<pre> | |||
$$Y=D U(x, t)=U(x) \cdot \delta^{t}$$ | |||
</pre> | |||
== Fehlerquadratsumme SSE == | |||
<pre> | |||
$$S S E(\delta)=\sum\left(Y_{d}-Y_{m}(\delta)\right)^{2}$$ | |||
</pre> | |||
$Y_d$ ... empirische Werte <br/> | |||
$Y_m(\delta)$ ... Y-Werte des Modells mit entsprechendem Parameter delta | |||
== Verbundswahrscheinlichkeit == | |||
<pre> | |||
$$P\left(X=x_{i}, Y=y_{i}\right)=p\left(x_{i}, y_{i}\right)=\frac{n_{i j}}{N}$$ | |||
</pre> | |||
== Randwahrscheinlichkeit == | |||
<pre> | |||
$$P\left(X=x_{i}\right)=\frac{c_{i}}{N}$$ | |||
</pre> | |||
== Bedingte Wahrscheinlichkeit == | |||
<pre> | |||
$$P\left(X=x_{i}, Y=y_{i}\right)=\frac{n_{i j}}{c_{i}}$$ | |||
</pre> | |||
== Produktregel == | |||
<pre> | |||
$$P\left(X=x_{i}, Y=y_{i}\right)=\frac{n_{i_{j}}}{N}=\frac{n_{i_{j}}}{c_{i}} * \frac{c_{i}}{N}=P\left(X=x_{i}, Y=y_{i}\right) * P\left(X=x_{i}\right)$$ | |||
</pre> | |||
== Satz von Bayes == | |||
<pre> | |||
$$p(y \mid x)=\frac{p(x \mid y) p(y)}{p(x)}$$ | |||
</pre> | |||
== Regressionsmodell == | |||
<pre> | |||
$$y=\beta_{0}+\beta_{1} * x$$ | |||
</pre> | |||
== Satz von Bayes mit Parameter β == | |||
<pre> | |||
$$p(\boldsymbol{\beta} \mid D)=\frac{p(D \mid \boldsymbol{\beta}) p(\boldsymbol{\beta})}{p(D)}$$ | |||
blau dargestellt: $p(\boldsymbol{\beta} \mid D)$ | |||
grün dargestellt: $p(D \mid \boldsymbol{\beta}$ | |||
gelb dargestellt: $p(\boldsymbol{\beta}$ | |||
</pre> | |||
== Hierarchical Gaussian Filtering (1) == | |||
<pre> | |||
$$x^{(k)} \sim N\left(x^{(k-1)}, \vartheta\right), \quad k=1,2, \ldots$$ | |||
</pre> | |||
== Hierarchical Gaussian Filtering (2) == | |||
<pre> | |||
$$x_{1}^{(k)} \sim N\left(x_{1}^{(k-1)}, f\left(x_{2}\right)\right)$$ | |||
</pre> | |||
== Hierarchical Gaussian Filtering (3) == | |||
<pre> | |||
$$x_{2}^{(k)} \sim N\left(x_{2}^{(k-1)}, f_{2}\left(x_{3}\right)\right)$$ | |||
</pre> | |||
== Hierarchical Gaussian Filtering (4) == | |||
<pre> | |||
$$x_{i}^{(k)} \sim N\left(x_{i}^{(k-1)}, f_{i}\left(x_{i+1}\right)\right), \quad i=1, \ldots, n-1$$ | |||
</pre> | |||
== Hierarchical Gaussian Filtering (5)== | |||
<pre> | |||
$$x_{n}^{(k)} \sim N\left(x_{n}^{k-1)}, \vartheta\right), \quad \vartheta>0$$ | |||
</pre> | |||
== AIC == | |||
<pre> | |||
$$A I C_{m}=-2 \cdot \ln \left(L_{m}\right)+2 \cdot\left|k_{m}\right|$$ | |||
</pre> | |||
$L_m$ ... Likelihood des Modells </br> | |||
$k_m$ ... Anzahl der Parameter | |||
== BIC == | |||
<pre> | |||
$$B I C_{m}=-2 \cdot \ln \left(L_{m}\right)+\ln (n) \cdot\left|k_{m}\right|$$ | |||
</pre> | |||
$L_m$ ... Likelihood des Modells </br> | |||
$k_m$ ... Anzahl der Parameter </br> | |||
$n$ ... Anzahl der Beobachtungen | |||
== Beispiel einfache lineare Regression == | |||
<pre> | |||
$$y_{i}=b_{0}+b_{1} \cdot x_{i}+e_{i} \quad(i=1, \ldots, n)$$ | |||
</pre> | |||
$y_i$ : Wert der Kriteriumsvariablen Y des i-ten Probanden </br> | |||
$x_i$ : Wert der Prädiktorvariabalen X des i-ten Probanden </br> | |||
$e_i$ : Residuum des i-ten Probanden </br> | |||
$b_0, b_1$ : Regressionskoeffizienten </br> | |||
$n$ : Anzahl der Probanden | |||
== Mittelwert μ == | |||
<pre> | |||
$$\mu=\frac{1}{n} \cdot \sum_{i=1}^{n} x_{i}$$ | |||
</pre> | |||
== Standardabweichung σ == | |||
<pre> | |||
$$\sigma=\sqrt{\sum_{i=1}^{n}\left(x_{i}-\mu\right)^{2}}$$ | |||
</pre> | |||
== Berechnung Modellparameter b1 == | |||
<pre> | |||
$$b_{1}=\frac{S S_{X Y}}{S S_{X X}}=\frac{n \cdot \sum_{i=1}^{n} x_{i} \cdot y_{i}-\sum_{i=1}^{n} x_{i} \cdot \sum_{i=1}^{n} y_{i}}{n \cdot \sum_{i=1}^{n} x_{i}{ }^{2}-\left(\sum_{i=1}^{n} x_{i}\right)^{2}}$$ | |||
</pre> | |||
== Berechnung Modellparameter b0 == | |||
<pre> | |||
$$b_{0}=\bar{y}-b_{1} \cdot \bar{x}=\frac{\sum_{i=1}^{n} x_{i}{ }^{2} \cdot \sum_{i=1}^{n} y_{i}-\sum_{i=1}^{n} x_{i} \cdot \sum_{i=1}^{n} x_{i} y_{i}}{n \cdot \sum_{i=1}^{n} x_{i}{ }^{2}-\left(\sum_{i=1}^{n} x_{i}\right)^{2}}$$ | |||
</pre> | |||
== Sequential Sampling == | |||
<pre> | |||
$$x(t)=x(t-1)+A+n$$ | |||
</pre> | |||
$x(t)$ … Entscheidungszustand zum Zeitpunkt t | |||
$A$ … Evidenz (positiv / negativ) | |||
$n$ … Noise (Rauschen / Fehler) | |||
== Modell von Tuller 1 == | |||
<pre> | |||
$$V(P h i)=k * P h i-s\left(\frac{P h i^{2}}{2}-\frac{P h i^{4}}{4}\right)$$ | |||
</pre> | |||
== Modell von Tuller 2 == | |||
<pre> | |||
$$V^{\prime}(P h i)=k-s\left(P h i-P h i^{3}\right)$$ | |||
</pre> | |||
== Modell von Tuller 3 == | |||
<pre> | |||
$$P h i(t)=P h i(t-1)+k-s\left(P h i-P h i^{3}\right)$$ | |||
</pre> | |||
== Rescorla-Wagner Modell == | |||
<pre> | |||
$$V_{t}=V_{t-1}+\alpha\left(\lambda-V_{t-1}\right)$$ | |||
</pre> | |||
$V$ = Assoziationsstärke der Reize (CS+US) </br> | |||
$\alpha$ = Lernrate </br> | |||
$\lambda$ = Stärke des präsentierten US (z.B. $\lambda = 1$, wenn US; $\lambda = 0$, wenn kein US) </br> | |||
$t$ = Lerndurchgänge / Trial Nummer | |||
== TVA 1 == | |||
<pre> | |||
$$w(x)=\sum_{j \in R} \eta(x, j) \cdot \pi_{j}$$ | |||
</pre> | |||
== TVA 2 == | |||
<pre> | |||
$$\mathrm{v}(\mathrm{x}, \mathrm{j})=\eta(\mathrm{x}, \mathrm{j}) \cdot \beta_{j} \cdot \frac{w_{x}}{\sum_{\mathrm{z \in S}} w_{x}}$$ | |||
</pre> | |||
== Differentialgleichungsmodelle 1 == | |||
<pre> | |||
$$t_0: p=10$$ | |||
$$t_1: p=20$$ | |||
$$t_2: p=40$$ | |||
$$t_3: p=80$$ | |||
</pre> | |||
== Differentialgleichungsmodelle 2 == | |||
<pre> | |||
$$p(t)=10 * 2^{t}$$ | |||
</pre> | |||
== Differentialgleichungsmodelle 3 == | |||
<pre> | |||
$$p(t+1)=p(t)+p(t) * 1$$ | |||
</pre> | |||
== Differentialgleichungsmodelle 4 == | |||
<pre> | |||
$$p(t+1)=p(t)+\alpha * p(t)$$ | |||
</pre> | |||
== Differentialgleichungsmodelle 5 == | |||
<pre> | |||
$$p(t+\Delta t)=p(t)+\alpha * \Delta t * p(t)$$ | |||
</pre> | |||
== Differentialgleichungsmodelle 6 == | |||
<pre> | |||
$$\frac{p(t+\Delta t)-p(t)}{\Delta t}=\alpha * p(t)$$ | |||
</pre> | |||
== Differentialgleichungsmodelle 7 == | |||
<pre> | |||
$$\lim _{\Delta t \rightarrow 0} \frac{p(t+\Delta t)-p(t)}{\Delta t}=\alpha * p(t)$$ | |||
</pre> | |||
== Differentialgleichungsmodelle 8 == | |||
<pre> | |||
$$\dot{p}(t)=\alpha * p(t)$$ | |||
</pre> | |||
== Differentialgleichungsmodelle 9 == | |||
<pre> | |||
$$\dot{p}(t)=\frac{d p}{d t}=\alpha * p(t)$$ | |||
</pre> | |||
== Differentialgleichungsmodelle 10 == | |||
<pre> | |||
$$\text { Hase }=\text { Geburtenrate } * \text { Hase }-\text { Verlustrate } * \text { Fuchs } * \text { Hase }$$ | |||
</pre> | |||
== Differentialgleichungsmodelle 11 == | |||
<pre> | |||
$$\text { Fuchs }=\text { Erfolgsrate } * \text { Hase } * \text { Fuchs }-\text { Sterberate } * \text { Fuchs }$$ | |||
</pre> | |||
== Bitte testen == | |||
=== Frage von Paul=== | |||
geht tiefgestellter und hochgestellter Text. | |||
eine tiefgestellte Formel f<sub>x+1</sup> | |||
eine hochgestellter Formel f<sup>x+1</sup> | |||
===Frage von Josephine=== | |||
* Wie beschreibt man Balkendiagramme? | |||
** Bsp.: [[File:1_7_Bootstrapping.PNG|800px|Abbildung 1: Mittelwerte von 20000 Bootstrap-Stichproben (n=50) mit Darstellung des 95%-Konfidenzintervalls]] | |||
* Wie beschreibt man Streudiagramme? | |||
** Bsp.: [[File:3_1_ELR_1.PNG|700px|Abbildung 1: Streudiagramm und Parameter der einfachen linearen Regression aus Alter und Gedächtnisleistung]] | |||
* Wie beschreibt man solche Verläufe? | |||
** Bsp.: [[File:BeispielInhaltsanalyseRobinson1976.png]] | |||
* Wie beschreibt man solche Darstellungen? | |||
** Bsp. 1: [[File:multiplikativeindexbildung.png|256px]] | |||
** Bsp. 2: [[File:gewichteteadditiveindexbildung.png|256px]] |
Aktuelle Version vom 14. Februar 2022, 14:53 Uhr
Hier werden alle zu langen Formeln als LaTeX-Code hinterlegt.
Cronbachs Alpha
\begin{equation} \alpha = \frac{p}{p-1}\times (1 -\frac{\sum\limits_{i=1}^p s^2_{Item}}{s^2_{Testwert}}) \end{equation} $p$ ... Anzahl der Items $s^2_{Item}$ ... Varianz der Items $s^2_{Testwert}$ ... Varianz der Rohwerte
Inzidenz
$$\mathrm{Inzidenz}=\frac{\mathrm{\text{Anzahl neuer Fälle (Zeit t)}}} {\mathrm{Grundgesamtheit}}$$
Standardfehler
$$\sigma_{\overline{\mathrm{x}}}=\frac{\sigma}{\sqrt{\mathrm{n}}}$$
t-Wert
$$\mathrm{t}=\frac{\overline{\mathrm{x}}-\mu}{\mathrm{s}} \sqrt{\mathrm{n}}$$
F-Wert
$$\mathrm{F}=\frac{\mathrm{QS}_{\mathrm{zwischen}}}{\mathrm{df}_{\mathrm{zwischen}}}: \frac{\mathrm{QS}_{\text {innerhalb }}}{\mathrm{df}_{\text {innerhalb }}}$$
Grenzen eines Konfidenzintervalls
$$G_{u}=\bar{X}-z_{1-\frac{\alpha}{2}} \cdot \sigma_{\bar{x}}$$
$$G_{o}=\bar{X}+z_{1-\frac{\alpha}{2}} \cdot \sigma_{\bar{x}}$$
Stichprobenumfang
$$\mathrm{n}=\frac{\left(\mathrm{z}_{1-\beta} + \mathrm{z}_{1-\alpha}\right)^{2} \cdot \sigma^{2}}{\Delta^{2}}$$
Pearsons Produkt-Moment-Korrelationskoeffizient r
$$\mathrm{r}_{\mathrm{xy}}=\frac{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\mathrm{x}_{\mathrm{i}}-\overline{\mathrm{x}}\right) \cdot\left(\mathrm{y}_{\mathrm{i}}-\overline{\mathrm{y}}\right)}{(\mathrm{n}-1) \cdot \mathrm{s}_{\mathrm{x}} \cdot \mathrm{s}_{\mathrm{y}}}$$
Spearmans Rangkorrelationskoeffizient
$$\rho_{\mathrm{xy}}=\frac{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\mathrm{r}_{\mathrm{x}_{\mathrm{i}}}-\overline{\mathrm{r}}_{\mathrm{x}}\right) \cdot\left(\mathrm{r}_{\mathrm{y}_{\mathrm{i}}}-\overline{\mathrm{r}}_{\mathrm{y}}\right)}{(\mathrm{n}-1) \cdot \mathrm{s}_{\mathrm{r}_{\mathrm{x}}} \cdot \mathrm{s}_{\mathrm{r}_{\mathrm{y}}}}$$
Kendalls Tau
$$\tau=\frac{2 S}{n(n-1)}$$
Partieller Korrelationskoeffizient
$$r_{x y, z}=\frac{r_{x y}-r_{x z} \cdot r_{y z}}{\sqrt{\left(1-r_{x z}^{2}\right) \cdot\left(1-r_{y z}^{2}\right)}}$$
Einfache lineare Regression
$$y_{i}=b_{0}+b_{1} \cdot x_{i}+e_{i}$$
Anzahl k (Trimmed Squares Methode)
$$\mathrm{k}=\frac{\mathrm{n}+\mathrm{p}+1}{2}$$
Regressionskoeffizient
$$\widehat{\mathrm{b}}_{1}=\frac{\mathrm{s}_{\mathrm{xy}}}{\mathrm{s}_{\mathrm{x}}^{2}}$$
Regressionskonstante
$$\widehat{\mathrm{b}}_{0}=\overline{\mathrm{y}}-\widehat{\mathrm{b}}_{1} \cdot \overline{\mathrm{x}}$$
Summe der Residuen
$$\sum_{i=1}^{n} e_{i}=0$$
Bestimmtheitsmaß R²
$$\mathrm{R}^{2}=\frac{\mathrm{QS}(\widehat{\mathrm{y}})}{\mathrm{QS}(\mathrm{y})} =\frac{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\widehat{\mathrm{y}}_{\mathrm{i}}-\overline{\mathrm{y}}\right)^{2}}{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\mathrm{y}_{\mathrm{i}}-\overline{\mathrm{y}}\right)^{2}}$$
Multiple lineare Regression
$$y_{i}=b_{0}+b_{1} \cdot x_{1 i}+b_{2} \cdot x_{2 i}+\ldots+b_{k} \cdot x_{k i}+e_{i}$$
Regressionsgleichung im Beispiel Multiple lineare Regression
$$y_{i}=3.93-0.38 \cdot x_{1}+0.77 \cdot x_{2}+0.13 \cdot x_{3}+0.16 \cdot x_{4}$$
Varianzinflationsfaktor
$$\mathrm{VIF}_{\mathrm{j}}=\frac{1}{\mathrm{Tol}_{\mathrm{j}}}$$
Moderierte Regression
$$y_{i}=b_{0}+b_{1} \cdot x_{1 i}+b_{2} \cdot x_{2 i}+b_{3} \cdot x_{1 i} \cdot x_{2 i}+e_{i}$$
Hauptkomponentenanalyse
$$\mathrm{z}_{\mathrm{ik}}=\mathrm{a}_{\mathrm{i} 1} \cdot \mathrm{f}_{1 \mathrm{k}}+\mathrm{a}_{\mathrm{i} 2} \cdot \mathrm{f}_{2 \mathrm{k}}+\cdots+\mathrm{a}_{\mathrm{im}} \cdot \mathrm{f}_{\mathrm{mk}}$$
Exponentielles Discounting
$$D U(x, t)=U(x) \cdot \delta^{t}$$
Hyperbolisches Discounting
$$D U(x, t)=\frac{U(x)}{1+k t}$$
Hyperboloid Modell
$$D U(x, t)=\frac{U(x)}{(1+kt)^{2}}$$
Quasi-hyperbolisches Discounting t = 0
$$D U(x, t)=U(x)$$
Quasi-hyperbolisches Discounting t > 0
$$D U(x, t)=U(x) \cdot \beta \delta^{t}$$
SSE
$$S S E=\sum\left(Y_{d}-Y_{m}\right)^{2}$$
Likelihood L
$$L=P(\text { Daten } \mid \text { Modellparameter })=\prod_{i} P\left(d_{i} \mid p, b\right)$$
Log-Likelihood
$$\log (L)=\log (P(\text { Daten } \mid \text { Modellparameter }))=\sum_{i} \log \left(P\left(d_{i} \mid p, b\right)\right)$$
Lernregel (Hebb'sches Lernen)
$$\Delta w_{x y}=\lambda \cdot x \cdot y$$
Deltaregel
$$\Delta w_{x y}=\alpha \cdot\left(y_{k o r r e k t}-y_{b e o b a c h t e t}\right) \cdot x$$
Deltaregel (verkürzt)
$$\Delta w_{x y}=\alpha \cdot \Delta y \cdot x$$
Gesamtfehler
$$E_{G e s a m t}=\sum E_{i}=\sum \text { Output }_{i}-\text { Vorgabe }_{i}$$
Ableitung des Gesamtfehlers nach Gewicht w46
$$\frac{d E_{\text {Gesamt }}}{d w_{46}}=\delta_{6} \cdot O u t p u t_{6}$$
Veränderung des Gewichts w46
$$w_{46}=w_{46}-\eta \cdot \frac{d E_{G e s a m t}}{d w_{46}}$$
Aktivierung der Knoten
$$\tau \dot{u}(x, t)=-u(x, t)+h+\int f\left(u\left(x^{\prime}, t\right)\right) \cdot \omega\left(x-x^{\prime}\right) d x^{\prime}+S(x, t)$$
- x – ein Knoten
- x' – ein Nachbarknoten
- u(x,t) – Aktivierung u eines Knotens x zum Zeitpunkt t
- τ – Zeitkonstante
- h – Ruhepotential
- f – (meist) sigmoidale Aktivierungsfunktion
- ω – Interaktionskernel (Mexican-Hat-Funktion)
- S(x,t) – externer stimulusbedingter Input für jeden Knoten x zu jedem Zeitpunkt t
General Linear Model 1
$$\boldsymbol{Y}=\boldsymbol{X} \cdot \boldsymbol{b}+\boldsymbol{e}$$
$Y$ ... Vektor der Kriteriumsvariablen
$X$ ... Matrix der Prädiktoren (= Designmatrix)
$b$ ... Vektor der Gewichte aller Prädiktoren
$e$ ... Vektor der Residuen
General Linear Model 2
$$\sum_{i=1}^{n} e_{i}^{2}=\sum_{i=1}^{n}\left[Y_{i}-(X b)_{i}\right]^{2} \rightarrow Minimum$$
$n$ ... Anzahl an Individuen
General Linear Model 3
$$\hat{b}=\left(X^{T} \cdot X\right)^{-1} \cdot X^{T} \cdot Y$$
$\hat{b}$ ... Schätzung von b
$(X^{T} \cdot X)^{-1}$ ... inverse Matrix von $X^{T} X$
$X^{T}$ ... Transposition der Matrix X
t-Test als Spezialfall des GLM
$$y=b_{o}+x \cdot b_{1}$$
mit
$b_0$ = Konstante
$x$ = Wert der Prädiktorvariable
$b_1$ = Steigung der Prädiktorvariable pro Einheit
Prüfgröße t
$$t=\frac{x_1-x_2}{s}$$
mit
$x_1$ = Mittelwert Gruppe 1
$x_2$ = Mittelwert Gruppe 2
$s$ = gepoolte Standardabweichung
General Linear Model 4
$$b=x_1+g \cdot \Delta$$
mit g = 0 für Mittelwert der Gruppe 1 und g = 1 für Mittelwert der Gruppe 2
Dichtefunktion Normalverteilung
$$f(x)=\frac{1}{\sigma \cdot \sqrt{2 \pi}} \cdot e^{-\frac{1}{2} \cdot\left(\frac{x-\mu}{\sigma}\right)^{2}}$$
Schätzung My und Schätzung Sigma
My: $$\mu=\frac{1}{n} \cdot \sum_{i=1}^{n} x_{i}$$ Sigma: $$\sigma=\sqrt{\sum_{i=1}^{n}}\left(x_{i}-\mu\right)^{2}$$
Dichtefunktion Ex-Gauß-Verteilung
$$\mu=\frac{\lambda}{2} \cdot e^{\frac{\lambda}{2} \cdot\left(2 \mu+\lambda \sigma^{2}-2 x\right)} \cdot e r f c\left(\frac{\mu+\lambda \sigma^{2}-x}{\sqrt{2} \sigma}\right)$$
Komplementäre Fehlerfunktion Ex-Gauß
$$e r f c(x)=\frac{2}{\sqrt{\pi}} \int_{x}^{\infty} e^{-t^{2}} d t$$
Dichtefunktion Gammaverteilung
$$f(x)=\left\{\begin{array}{ll} \frac{b^{p}}{\Gamma(p)} x^{p-1} e^{-b x} & x>0 \\ 0 & x \leq 0 \end{array}\right.$$
Gammafunktion
$$\Gamma(x)=\lim _{n \rightarrow \infty} \frac{n ! n^{x}}{x(x+1)(x+2) \ldots(x+n)}$$
Gammaverteilung: Erwartungswert, Varianz, Schiefe
$$ \begin{array}{lll} \text { Erwartungswert } & = & \frac{p}{b} \\ \text { Varianz } & = & \frac{p}{b^{2}} \\ \text { Schiefe } & = & \frac{2}{\sqrt{p}} \end{array} $$
Dichtefunktion Shifted-Wald Verteilung
\begin{equation} f(x) = \frac{\gamma}{2 \pi (x-\theta)}\cdot e^\frac{-(\gamma-\delta x + \delta\theta)^2}{2(x-\theta)} \end{equation}
Shifted-Wald Verteilung: Erwartungswert, Varianz
$$ \begin{array}{lll} \text { Erwartungswert } & = & \Theta+\frac{\gamma}{\delta} \\ \text { Varianz } & = & \frac{\gamma}{\delta^{3}} \end{array} $$
Dichtefunktion Weibullverteilung
$$f(x)=\lambda k \cdot(\lambda x)^{k-1} \cdot e^{-(\lambda x)^{k}}$$
Objective Functions Beispiel
$$Y=D U(x, t)=U(x) \cdot \delta^{t}$$
Fehlerquadratsumme SSE
$$S S E(\delta)=\sum\left(Y_{d}-Y_{m}(\delta)\right)^{2}$$
$Y_d$ ... empirische Werte
$Y_m(\delta)$ ... Y-Werte des Modells mit entsprechendem Parameter delta
Verbundswahrscheinlichkeit
$$P\left(X=x_{i}, Y=y_{i}\right)=p\left(x_{i}, y_{i}\right)=\frac{n_{i j}}{N}$$
Randwahrscheinlichkeit
$$P\left(X=x_{i}\right)=\frac{c_{i}}{N}$$
Bedingte Wahrscheinlichkeit
$$P\left(X=x_{i}, Y=y_{i}\right)=\frac{n_{i j}}{c_{i}}$$
Produktregel
$$P\left(X=x_{i}, Y=y_{i}\right)=\frac{n_{i_{j}}}{N}=\frac{n_{i_{j}}}{c_{i}} * \frac{c_{i}}{N}=P\left(X=x_{i}, Y=y_{i}\right) * P\left(X=x_{i}\right)$$
Satz von Bayes
$$p(y \mid x)=\frac{p(x \mid y) p(y)}{p(x)}$$
Regressionsmodell
$$y=\beta_{0}+\beta_{1} * x$$
Satz von Bayes mit Parameter β
$$p(\boldsymbol{\beta} \mid D)=\frac{p(D \mid \boldsymbol{\beta}) p(\boldsymbol{\beta})}{p(D)}$$ blau dargestellt: $p(\boldsymbol{\beta} \mid D)$ grün dargestellt: $p(D \mid \boldsymbol{\beta}$ gelb dargestellt: $p(\boldsymbol{\beta}$
Hierarchical Gaussian Filtering (1)
$$x^{(k)} \sim N\left(x^{(k-1)}, \vartheta\right), \quad k=1,2, \ldots$$
Hierarchical Gaussian Filtering (2)
$$x_{1}^{(k)} \sim N\left(x_{1}^{(k-1)}, f\left(x_{2}\right)\right)$$
Hierarchical Gaussian Filtering (3)
$$x_{2}^{(k)} \sim N\left(x_{2}^{(k-1)}, f_{2}\left(x_{3}\right)\right)$$
Hierarchical Gaussian Filtering (4)
$$x_{i}^{(k)} \sim N\left(x_{i}^{(k-1)}, f_{i}\left(x_{i+1}\right)\right), \quad i=1, \ldots, n-1$$
Hierarchical Gaussian Filtering (5)
$$x_{n}^{(k)} \sim N\left(x_{n}^{k-1)}, \vartheta\right), \quad \vartheta>0$$
AIC
$$A I C_{m}=-2 \cdot \ln \left(L_{m}\right)+2 \cdot\left|k_{m}\right|$$
$L_m$ ... Likelihood des Modells
$k_m$ ... Anzahl der Parameter
BIC
$$B I C_{m}=-2 \cdot \ln \left(L_{m}\right)+\ln (n) \cdot\left|k_{m}\right|$$
$L_m$ ... Likelihood des Modells
$k_m$ ... Anzahl der Parameter
$n$ ... Anzahl der Beobachtungen
Beispiel einfache lineare Regression
$$y_{i}=b_{0}+b_{1} \cdot x_{i}+e_{i} \quad(i=1, \ldots, n)$$
$y_i$ : Wert der Kriteriumsvariablen Y des i-ten Probanden
$x_i$ : Wert der Prädiktorvariabalen X des i-ten Probanden
$e_i$ : Residuum des i-ten Probanden
$b_0, b_1$ : Regressionskoeffizienten
$n$ : Anzahl der Probanden
Mittelwert μ
$$\mu=\frac{1}{n} \cdot \sum_{i=1}^{n} x_{i}$$
Standardabweichung σ
$$\sigma=\sqrt{\sum_{i=1}^{n}\left(x_{i}-\mu\right)^{2}}$$
Berechnung Modellparameter b1
$$b_{1}=\frac{S S_{X Y}}{S S_{X X}}=\frac{n \cdot \sum_{i=1}^{n} x_{i} \cdot y_{i}-\sum_{i=1}^{n} x_{i} \cdot \sum_{i=1}^{n} y_{i}}{n \cdot \sum_{i=1}^{n} x_{i}{ }^{2}-\left(\sum_{i=1}^{n} x_{i}\right)^{2}}$$
Berechnung Modellparameter b0
$$b_{0}=\bar{y}-b_{1} \cdot \bar{x}=\frac{\sum_{i=1}^{n} x_{i}{ }^{2} \cdot \sum_{i=1}^{n} y_{i}-\sum_{i=1}^{n} x_{i} \cdot \sum_{i=1}^{n} x_{i} y_{i}}{n \cdot \sum_{i=1}^{n} x_{i}{ }^{2}-\left(\sum_{i=1}^{n} x_{i}\right)^{2}}$$
Sequential Sampling
$$x(t)=x(t-1)+A+n$$
$x(t)$ … Entscheidungszustand zum Zeitpunkt t
$A$ … Evidenz (positiv / negativ)
$n$ … Noise (Rauschen / Fehler)
Modell von Tuller 1
$$V(P h i)=k * P h i-s\left(\frac{P h i^{2}}{2}-\frac{P h i^{4}}{4}\right)$$
Modell von Tuller 2
$$V^{\prime}(P h i)=k-s\left(P h i-P h i^{3}\right)$$
Modell von Tuller 3
$$P h i(t)=P h i(t-1)+k-s\left(P h i-P h i^{3}\right)$$
Rescorla-Wagner Modell
$$V_{t}=V_{t-1}+\alpha\left(\lambda-V_{t-1}\right)$$
$V$ = Assoziationsstärke der Reize (CS+US)
$\alpha$ = Lernrate
$\lambda$ = Stärke des präsentierten US (z.B. $\lambda = 1$, wenn US; $\lambda = 0$, wenn kein US)
$t$ = Lerndurchgänge / Trial Nummer
TVA 1
$$w(x)=\sum_{j \in R} \eta(x, j) \cdot \pi_{j}$$
TVA 2
$$\mathrm{v}(\mathrm{x}, \mathrm{j})=\eta(\mathrm{x}, \mathrm{j}) \cdot \beta_{j} \cdot \frac{w_{x}}{\sum_{\mathrm{z \in S}} w_{x}}$$
Differentialgleichungsmodelle 1
$$t_0: p=10$$ $$t_1: p=20$$ $$t_2: p=40$$ $$t_3: p=80$$
Differentialgleichungsmodelle 2
$$p(t)=10 * 2^{t}$$
Differentialgleichungsmodelle 3
$$p(t+1)=p(t)+p(t) * 1$$
Differentialgleichungsmodelle 4
$$p(t+1)=p(t)+\alpha * p(t)$$
Differentialgleichungsmodelle 5
$$p(t+\Delta t)=p(t)+\alpha * \Delta t * p(t)$$
Differentialgleichungsmodelle 6
$$\frac{p(t+\Delta t)-p(t)}{\Delta t}=\alpha * p(t)$$
Differentialgleichungsmodelle 7
$$\lim _{\Delta t \rightarrow 0} \frac{p(t+\Delta t)-p(t)}{\Delta t}=\alpha * p(t)$$
Differentialgleichungsmodelle 8
$$\dot{p}(t)=\alpha * p(t)$$
Differentialgleichungsmodelle 9
$$\dot{p}(t)=\frac{d p}{d t}=\alpha * p(t)$$
Differentialgleichungsmodelle 10
$$\text { Hase }=\text { Geburtenrate } * \text { Hase }-\text { Verlustrate } * \text { Fuchs } * \text { Hase }$$
Differentialgleichungsmodelle 11
$$\text { Fuchs }=\text { Erfolgsrate } * \text { Hase } * \text { Fuchs }-\text { Sterberate } * \text { Fuchs }$$
Bitte testen
Frage von Paul
geht tiefgestellter und hochgestellter Text. eine tiefgestellte Formel fx+1
eine hochgestellter Formel fx+1