Ausgelagerte Formeln: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
Keine Bearbeitungszusammenfassung |
Keine Bearbeitungszusammenfassung |
||
Zeile 190: | Zeile 190: | ||
<pre> | <pre> | ||
$$\tau \dot{u}(x, t)=-u(x, t)+h+\int f\left(u\left(x^{\prime}, t\right)\right) \cdot \omega\left(x-x^{\prime}\right) d x^{\prime}+S(x, t)$$ | $$\tau \dot{u}(x, t)=-u(x, t)+h+\int f\left(u\left(x^{\prime}, t\right)\right) \cdot \omega\left(x-x^{\prime}\right) d x^{\prime}+S(x, t)$$ | ||
</pre> | |||
== General Linear Model == | |||
<pre> | |||
$$\boldsymbol{Y}=\boldsymbol{X} \cdot \boldsymbol{b}+\boldsymbol{e}$$ | |||
</pre> | </pre> |
Version vom 14. November 2021, 18:46 Uhr
Hier werden alle zu langen Formeln als LaTeX-Code hinterlegt.
Cronbachs Alpha
Inzidenz
$$\mathrm{Inzidenz}=\frac{\mathrm{\text{Anzahl neuer Fälle (Zeit t)}}} {\mathrm{Grundgesamtheit}}$$
Standardfehler
$$\sigma_{\overline{\mathrm{x}}}=\frac{\sigma}{\sqrt{\mathrm{n}}}$$
t-Wert
$$\mathrm{t}=\frac{\overline{\mathrm{x}}-\mu}{\mathrm{s}} \sqrt{\mathrm{n}}$$
F-Wert
$$\mathrm{F}=\frac{\mathrm{QS}_{\mathrm{zwischen}}}{\mathrm{df}_{\mathrm{zwischen}}}: \frac{\mathrm{QS}_{\text {innerhalb }}}{\mathrm{df}_{\text {innerhalb }}}$$
Grenzen eines Konfidenzintervalls
$$G_{u}=\bar{X}-z_{1-\frac{\alpha}{2}} \cdot \sigma_{\bar{x}}$$
$$G_{o}=\bar{X}+z_{1-\frac{\alpha}{2}} \cdot \sigma_{\bar{x}}$$
Stichprobenumfang
$$\mathrm{n}=\frac{\left(\mathrm{z}_{1-\beta} + \mathrm{z}_{1-\alpha}\right)^{2} \cdot \sigma^{2}}{\Delta^{2}}$$
Pearsons Produkt-Moment-Korrelationskoeffizient r
$$\mathrm{r}_{\mathrm{xy}}=\frac{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\mathrm{x}_{\mathrm{i}}-\overline{\mathrm{x}}\right) \cdot\left(\mathrm{y}_{\mathrm{i}}-\overline{\mathrm{y}}\right)}{(\mathrm{n}-1) \cdot \mathrm{s}_{\mathrm{x}} \cdot \mathrm{s}_{\mathrm{y}}}$$
Spearmans Rangkorrelationskoeffizient
$$\rho_{\mathrm{xy}}=\frac{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\mathrm{r}_{\mathrm{x}_{\mathrm{i}}}-\overline{\mathrm{r}}_{\mathrm{x}}\right) \cdot\left(\mathrm{r}_{\mathrm{y}_{\mathrm{i}}}-\overline{\mathrm{r}}_{\mathrm{y}}\right)}{(\mathrm{n}-1) \cdot \mathrm{s}_{\mathrm{r}_{\mathrm{x}}} \cdot \mathrm{s}_{\mathrm{r}_{\mathrm{y}}}}$$
Kendalls Tau
$$\tau=\frac{2 S}{n(n-1)}$$
Partieller Korrelationskoeffizient
$$r_{x y, z}=\frac{r_{x y}-r_{x z} \cdot r_{y z}}{\sqrt{\left(1-r_{x z}^{2}\right) \cdot\left(1-r_{y z}^{2}\right)}}$$
Einfache lineare Regression
$$y_{i}=b_{0}+b_{1} \cdot x_{i}+e_{i}$$
Anzahl k (Trimmed Squares Methode)
$$\mathrm{k}=\frac{\mathrm{n}+\mathrm{p}+1}{2}$$
Regressionskoeffizient
$$\widehat{\mathrm{b}}_{1}=\frac{\mathrm{s}_{\mathrm{xy}}}{\mathrm{s}_{\mathrm{x}}^{2}}$$
Regressionskonstante
$$\widehat{\mathrm{b}}_{0}=\overline{\mathrm{y}}-\widehat{\mathrm{b}}_{1} \cdot \overline{\mathrm{x}}$$
Summe der Residuen
$$\sum_{i=1}^{n} e_{i}=0$$
Bestimmtheitsmaß R²
$$\mathrm{R}^{2}=\frac{\mathrm{QS}(\widehat{\mathrm{y}})}{\mathrm{QS}(\mathrm{y})} =\frac{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\widehat{\mathrm{y}}_{\mathrm{i}}-\overline{\mathrm{y}}\right)^{2}}{\sum_{\mathrm{i}=1}^{\mathrm{n}}\left(\mathrm{y}_{\mathrm{i}}-\overline{\mathrm{y}}\right)^{2}}$$
Multiple lineare Regression
$$y_{i}=b_{0}+b_{1} \cdot x_{1 i}+b_{2} \cdot x_{2 i}+\ldots+b_{k} \cdot x_{k i}+e_{i}$$
Regressionsgleichung im Beispiel Multiple lineare Regression
$$y_{i}=3.93-0.38 \cdot x_{1}+0.77 \cdot x_{2}+0.13 \cdot x_{3}+0.16 \cdot x_{4}$$
Varianzinflationsfaktor
$$\mathrm{VIF}_{\mathrm{j}}=\frac{1}{\mathrm{Tol}_{\mathrm{j}}}$$
Moderierte Regression
$$y_{i}=b_{0}+b_{1} \cdot x_{1 i}+b_{2} \cdot x_{2 i}+b_{3} \cdot x_{1 i} \cdot x_{2 i}+e_{i}$$
Hauptkomponentenanalyse
$$\mathrm{z}_{\mathrm{ik}}=\mathrm{a}_{\mathrm{i} 1} \cdot \mathrm{f}_{1 \mathrm{k}}+\mathrm{a}_{\mathrm{i} 2} \cdot \mathrm{f}_{2 \mathrm{k}}+\cdots+\mathrm{a}_{\mathrm{im}} \cdot \mathrm{f}_{\mathrm{mk}}$$
Exponentielles Discounting
$$D U(x, t)=U(x) \cdot \delta^{t}$$
Hyperbolisches Discounting
$$D U(x, t)=\frac{U(x)}{1+k t}$$
Hyperboloid Modell
$$D U(x, t)=\frac{U(x)}{(1+kt)^{2}}$$
Quasi-hyperbolisches Discounting t = 0
$$D U(x, t)=U(x)$$
Quasi-hyperbolisches Discounting t > 0
$$D U(x, t)=U(x) \cdot \beta \delta^{t}$$
SSE
$$S S E=\sum\left(Y_{d}-Y_{m}\right)^{2}$$
Likelihood L
$$L=P(\text { Daten } \mid \text { Modellparameter })=\prod_{i} P\left(d_{i} \mid p, b\right)$$
Log-Likelihood
$$\log (L)=\log (P(\text { Daten } \mid \text { Modellparameter }))=\sum_{i} \log \left(P\left(d_{i} \mid p, b\right)\right)$$
Lernregel (Hebb'sches Lernen)
$$\Delta w_{x y}=\lambda \cdot x \cdot y$$
Deltaregel
$$\Delta w_{x y}=\alpha \cdot\left(y_{k o r r e k t}-y_{b e o b a c h t e t}\right) \cdot x$$
Deltaregel (verkürzt)
$$\Delta w_{x y}=\alpha \cdot \Delta y \cdot x$$
Gesamtfehler
$$E_{G e s a m t}=\sum E_{i}=\sum \text { Output }_{i}-\text { Vorgabe }_{i}$$
Ableitung des Gesamtfehlers nach Gewicht w46
$$\frac{d E_{\text {Gesamt }}}{d w_{46}}=\delta_{6} \cdot O u t p u t_{6}$$
Veränderung des Gewichts w46
$$w_{46}=w_{46}-\eta \cdot \frac{d E_{G e s a m t}}{d w_{46}}$$
Aktivierung der Knoten
$$\tau \dot{u}(x, t)=-u(x, t)+h+\int f\left(u\left(x^{\prime}, t\right)\right) \cdot \omega\left(x-x^{\prime}\right) d x^{\prime}+S(x, t)$$
General Linear Model
$$\boldsymbol{Y}=\boldsymbol{X} \cdot \boldsymbol{b}+\boldsymbol{e}$$