Aufgaben - Fitting & Modellvergleich: Unterschied zwischen den Versionen

Aus eLearning - Methoden der Psychologie - TU Dresden
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
 
(Eine dazwischenliegende Version desselben Benutzers wird nicht angezeigt)
Zeile 9: Zeile 9:
<quiz shuffleanswers=true>
<quiz shuffleanswers=true>


{QuestionA
{Welche Vorteile bringt die Log-Likelihood-Methode mit sich?
|type="[]"}
|type="[]"}
+ Correct answer.
+ Der Rechenaufwand verringert sich durch die Vermeidung von Multiplikation.
- Incorrect answer.
+ Sehr kleine Werte des Fehlermaßes werden vermieden.
+ Correct answer.
- Die Passung des Modells zu den Daten wird auf Werte zwischen 0 und 1 normiert.
- Incorrect answer.
- Das Fehlermaß wird besser interpretierbar.


{QuestionB
{Im Rahmen eines quantitativen Modellvergleichs werden häufig Vergleichsmaße berechnet. Welche Aussagen über Vergleichsmaße sind wahr?
|type="[]"}
|type="[]"}
+ Correct answer.
+ Zwei Modelle, welche gleich gut in der Lage sind, vorliegende empirische Daten zu beschreiben, können in Abhängigkeit ihrer Komplexität unterschiedliche Vergleichsmaßwerte besitzen. Je komplexer das Modell ist, desto höher sind diese Werte.
- Incorrect answer.
- Vergleichsmaße berücksichtigen neben der Vorhersagefähigkeit des Modells die Komplexität der verwendeten Berechnungsvorschrift.
+ Correct answer.
- Zwei Modelle, welche gleich gut in der Lage sind, vorliegende empirische Daten zu beschreiben, können in Abhängigkeit ihrer Komplexität unterschiedliche Vergleichsmaßwerte besitzen. Je weniger komplex das Modell ist, desto höher sind diese Werte.
- Incorrect answer.
+ Vergleichsmaße berücksichtigen neben der Vorhersagefähigkeit des Modells die Anzahl der verwendeten Parameter.


{QuestionB
{Welche Voraussetzungen müssen für die Anwendung der Maximum-Likelihood-Methode erfüllt sein?
|type="[]"}
|type="[]"}
+ Correct answer.
- Die Datenpunkte müssen statistisch voneinander abhängig sein.
- Incorrect answer.
- Die Daten müssen eine geringe Streuung haben.
+ Correct answer.
+ Die Stichprobe muss möglichst groß sein.
- Incorrect answer.
+ Die Verteilung der Daten muss bekannt sein.


{QuestionB
{Welche Folgen können aus der Verwendung unterschiedlich großer Parameteranzahlen beim Prozess des Fittings resultieren?
|type="[]"}
|type="[]"}
+ Correct answer.
+ viele freie Parameter führen zu „Overfitting“
- Incorrect answer.
- eine hohe Parameteranzahl kann dazu führen, dass das Modell nur unzureichend zur Beschreibung der vorliegenden Daten geeignet ist
+ Correct answer.
- eine zu geringe Parameteranzahl führt zu „Underfitting“
- Incorrect answer.
+ eine hohe Parameteranzahl kann dazu führen, dass das Modell nur schlecht zur korrekten Vorhersage neuer Daten in der Lage ist


{QuestionB
{Welche Aussagen über den Einsatz von quantitativen und qualitativen Modellvergleichen treffen zu?
|type="[]"}
|type="[]"}
+ Correct answer.
- Ein qualitativer Modellvergleich ermittelt den Fit zwischen den empirisch erhobenen und den basierend auf dem Modell simulierten Daten zur Bestimmung der Vorhersagegüte des Modells.
- Incorrect answer.
+ Ein qualitativer Modellvergleich sollte eingesetzt werden, wenn es sich beim Untersuchungsgegenstand um ein sehr komplexes Phänomen handelt.
+ Correct answer.
+ Ein qualitativer Modellvergleich untersucht die Übereinstimmung der Datenmuster zwischen empirischen und simulierten Daten.
- Incorrect answer.
- Ein quantitativer Modellvergleich sollte eingesetzt werden, wenn stärkeres Interesse am relativen Verhältnis der empirischen und simulierten Daten besteht.


{QuestionB
{Welche Methoden werden bei der Durchführung eines qualitativen Modellvergleichs angewandt?
|type="[]"}
|type="[]"}
+ Correct answer.
- Untersuchung der Übereinstimmung des Modells mit bestehenden Theorien
- Incorrect answer.
+ „Measure of Surprise Methode“
+ Correct answer.
+ Untersuchung der Übereinstimmung von Datenmustern
- Incorrect answer.
- Untersuchung des Fits zwischen empirisch erhobenen und simulierten Daten


{QuestionB
{Welche Probleme hat das Simulated Annealing?
|type="[]"}
|type="[]"}
+ Correct answer.
+ Optima, die weit weg vom Startpunkt liegen, können übersehen werden.
- Incorrect answer.
- Lokale Minima können nicht verlassen werden.
+ Correct answer.
- Es müssen viele Punkte der Fehlerfunktion gleichzeitig evaluiert werden.
- Incorrect answer.
+ Ein gefundenes Optimum kann im Verlauf wieder verloren gehen.


{QuestionB
{Wie wird im Simplexverfahren nach Nelder und Mead vorgegangen, wenn der reflektierte Punkt besser ist als das bisherige Minimum?
|type="[]"}
|type="[]"}
+ Correct answer.
- Der kontrahierte Punkt wird berechnet.
- Incorrect answer.
- Der reflektierte Punkt ersetzt direkt das bisherige Minimum.
+ Correct answer.
+ Der expandierte Punkt wird berechnet.
- Incorrect answer.
- Der Simplex wird komprimiert.


{QuestionB
{Was versteht man unter einem Simplex?
|type="[]"}
|type="[]"}
+ Correct answer.
- den Vektor, der in Richtung des steilsten Gefälles zeigt
- Incorrect answer.
- den einfachsten Weg vom Startpunkt zum Minimum
+ Correct answer.
- den Punkt mit dem geringsten Wert der Fehlerfunktion
- Incorrect answer.
+ die einfachste Form, die sich in einem Raum mit gegebener Dimensionalität aufspannen lässt


{QuestionB
{Welche Probleme können beim Data Fitting auftreten?
|type="[]"}
|type="[]"}
+ Correct answer.
- Stagnation des Algorithmus aufgrund globaler Minima
- Incorrect answer.
- Abbruch des Algorithmus aufgrund zu hoher Komplexität der Fehlerfunktion
+ Correct answer.
+ vorzeitiger Abbruch des Algorithmus an Stellen mit sehr flachem Anstieg
- Incorrect answer.
+ Wahl ungünstiger Startparameterwerte
 
{Was versteht man unter der Fitness beim Data Fitting mit genetischen Algorithmen?
|type="[]"}
- die Parameterwertkombination eines Punktes
- die Ausdauer des Algorithmus beim Suchen des Minimums
+ den Wert der Fehlerfunktion
- die Anzahl der Individuen pro Population
 
{Wobei handelt es sich um gebräuchliche Abweichungsmaße beim Data Fitting?
|type="[]"}
+ Maximale Plausibilität
+ Fehlerquadratsumme
- Cohen's d
+ Log-Likelihood
 
{Welche Eigenschaften treffen auf die Fehlerquadratsumme zu?
|type="[]"}
+ Große Abweichungen bekommen durch das Quadrieren mehr Gewicht bei der Optimierung als kleine.
- Die Fehlerquadratsumme ist als bedingte Wahrscheinlichkeit für die Daten bei einer bestimmten Verteilung zu interpretieren.
+ Ein gegenseitiger Ausgleich positiver und negativer Abweichungen wird verhindert.
- Datenpunkte am Rand der Punktewolke werden weniger stark gewichtet als Datenpunkte in der Mitte.
 
{Welche Aussagen über AIC und BIC sind wahr?
|type="[]"}
- Log-Likelihoodwert ist umso kleiner, je besser das Modell die realen Daten vorhersagen kann
+ Berechnungen von AIC und BIC basieren auf den Log-Likelihoodwerten der Modelle
- AIC und BIC sind unabhängig von der Stichprobengröße des Modells
+ Stichprobengröße > 12: BIC des Modells ist größer als AIC
 
{Welchen Einfluss hat die Temperatur beim Simulated Annealing auf die Wahl des neuen Punktes für die nächste Iteration?
|type="[]"}
- Sie beeinflusst die Anzahl der Nachbarpunkte, die zur Auswahl stehen.
+ Sie beeinflusst die Wahrscheinlichkeit, mit der ein schlechterer Punkt akzeptiert wird.
+ Sie sorgt dafür, dass gegen Ende der Optimierung ein gefundener Tiefpunkt selten verlassen wird.
- Sie beeinflusst die Wahrscheinlichkeit, dass ein zufällig erzeugter Nachbarpunkt schlechter ist.
 
{Ein qualitativer Vergleich verschiedener Modelle wird oftmals mittels neuer Vorhersagen durchgeführt. Welche Aussagen über diese Methode und ihre Ergebnisse treffen zu?
|type="[]"}
- ist ein Modell in der Lage, Verhalten zu zeigen oder Daten hervorzubringen, welche aufgrund theoretischer Überzeugung vorhergesagt wurden, ist es redundant und sollte verworfen werden
+ ist ein Modell in der Lage, Verhalten zu zeigen oder Daten hervorzubringen, welche aufgrund theoretischer Überzeugung vorhergesagt wurden, stellt dies Evidenz für das entsprechende Modell dar
- die Fähigkeit eines Modells ein bereits bekanntes Ereignis vorherzusagen liefert stärkere Evidenz für die Gültigkeit eines Modells als die Vorhersage eines unerwarteten komplexen Ereignisses
+ die Fähigkeit eines Modells ein unerwartetes Ereignis vorherzusagen liefert stärkere Evidenz für die Gültigkeit eines Modells als die Vorhersagefähigkeit eines bereits bekannten Ereignisses
 
{Welches Prinzip liegt dem Gradient Descent Algorithmus zugrunde?
|type="[]"}
- Akzeptanz der Verschlechterung des Funktionswertes mit sinkender Wahrscheinlichkeit
- Generierung neuer Punkte durch Reproduktion, Rekombination und Mutation
- zufällige Wahl von Punkten der Fehleroberfläche
+ Bewegung in Richtung des steilsten Gefälles
 
{Welche Aussagen über „Noise“ in empirisch erhobenen Daten treffen zu?
|type="[]"}
+ wird zusätzlich zur Modellierung der wahren Werten auch der in den wahren Werten enthaltene „Noise“ modelliert, spricht man von „overfitting“
- wird eine große Anzahl an Parametern zur Modellierung verwendet, werden nur die wahren Werte modelliert und nicht das der in den Daten enthaltene „Noise“
+ Verzerrungseffekte und Messfehler führen zu Rauschen (= „Noise“) in den Ergebnisdaten
+ „Noise“ führt zu Abweichungen zwischen den gemessenen Daten und den wahren Daten
 
{Wann sollte die gewichtete Fehlerquadratsumme eingesetzt werden?
|type="[]"}
+ wenn Heteroskedastizität vorliegt
+ wenn ein bestimmter Teil der Daten als relevanter erachtet wird als der Rest
+ wenn Ausreißer die Fehlerquadratsumme verzerren
- wenn keine Annahmen über die Relevanz bestimmter Datenpunkte vorliegen
 
{Was versteht man unter dem Begriff „Fitting“?
|type="[]"}
- Prozess der vereinfachten Beschreibung eines wirklichen Systems, um das Verständnis der natürlichen Realität zu erhöhen
+ Prozess der Verwendung eines Beispieldatensatzes zur Schätzung der Parameterwerte eines Modells, um diese bestmöglich an den Datensatz anzupassen
- Prozess der Implementierung eines Entwurfs in den Quellcode einer Programmiersprache
- Prozess der Analyse von Systemen durch die Ausführung von Experimenten an einem Modell, um Erkenntnisse über das reale System zu gewinnen
 
{Was versteht man unter hierarchischer Modellierung?
|type="[]"}
- Parameter werden nach ihrer Bedeutsamkeit für das Modell sortiert.
- Für alle Versuchspersonen wird ein gemeinsames Parameterset ermittelt.
+ Verschiedene Parameter können auf verschiedenen Ebenen geschätzt werden.
- Die Daten jeder Versuchsperson werden einzeln gefittet.
 
{Mit welchen Mechanismen wird bei genetischen Algorithmen die neue Population bestimmt?
|type="[]"}
- Evolution
+ Mutation
+ Rekombination
- Reanimation
+ Reproduktion
- Intuition
 
{Welche Abweichungsmaße werden zur Aufstellung einer Fehlerfunktion verwendet?
|type="[]"}
+ Maximum Likelihood
+ Fehlerquadratsummen
- α-Fehler
- p-Wert
 
{Welche Aussagen über das sogenannte „Overfitting“ treffen zu?
|type="[]"}
+ ein „overfitted“ Modell erklärt die zur Modellentwicklung verwendeten Daten meist sehr gut
- kann auftreten, wenn ein Modell nur sehr wenige freie Parameter besitzt
- ein „overfitted“ Modell ist gut zur korrekten Vorhersage neuer Daten in der Lage
+ es werden nicht nur wahre Werte modelliert, sondern auch das in den Daten enthaltene Rauschen
 
{Welche dieser Lösungswege entsprechen einer numerischen Lösung?
|type="[]"}
+ Gradientensuchverfahren
- Ermittlung der Regressionskoeffizienten bei der linearen Regression
+ Simplex Algorithmus
+ Genetische Algorithmen
 
{Die Fähigkeit eines Modells, vorliegende Daten möglichst exakt zu beschreiben, ist von der Parameteranzahl des Modells abhängig. Je mehr freie Parameter ein Modell besitzt, desto genauer kann es an die Werte eines bestimmten Datensatzes angepasst werden. Welche Folgen können aus einer großen Anzahl freier Parameter resultieren?
|type="[]"}
+ Erschwerung der Parameterinterpretierbarkeit
+ „overfitted” Modell
+ Erhöhung der Fehleranfälligkeit bestimmter Fittingalgorithmen
- „underfitted“ Modell
 
{Welche der folgenden Aussagen bezüglich der verschiedenen Teilschritte des „Fittings“ treffen zu?
|type="[]"}
+ empirische Ergebnisse und simulierte Daten werden durch eine Fehlerfunktion verglichen
+ ein Fittingalgorithmus ermöglicht die schrittweise Veränderung der Parameterwerte, um das Modell besser an den gegebenen Datensatz anzupassen
- eine Fehlerfunktion ermöglicht die schrittweise Veränderung der Parameterwerte, um das Modell besser an den gegebenen Datensatz anzupassen
+ eine Fehlerfunktion berechnet, wie sehr das Modell von den Daten abweicht
 
{Wofür werden Abweichungsmaße beim Data Fitting benötigt?
|type="[]"}
+ um zu quantifizieren, wie gut Modelldaten und empirische Daten zusammenpassen
+ um das unzuverlässige Fitten nach Augenmaß zu vermeiden
+ um eine Fehlerfunktion zu erstellen
- um die Streuung der Modelldaten auszudrücken
 
{Welche Probleme hat das Simulated Annealing?
|type="[]"}
- Es müssen viele Punkte der Fehlerfunktion gleichzeitig evaluiert werden.
+ Optima, die weit weg vom Startpunkt liegen, können übersehen werden.
- Lokale Minima können nicht verlassen werden.
+ Ein gefundenes Optimum kann im Verlauf wieder verloren gehen.
 
{Für die meisten kognitiven Prozesse existiert eine Vielzahl an Erklärungsmodelle. Der Vergleich alternativer Modelle kann dabei auf der Beurteilung verschiedener Kriterien basieren. Welche der folgenden Merkmale eines Modells sollten als Kriterien verwendet werden?
|type="[]"}
- Generalisierbarkeit auf alle bereits vorhandenen Modelle
+ Güte der deskriptiven Beschreibung der Daten
+ Plausibilität der Annahmen
+ Interpretierbarkeit des Modells und seiner Parameter
 
{Wie nennt man den tiefsten Punkt der Fehleroberfläche?
|type="[]"}
- globales Maximum
+ globales Minimum
- lokales Minimum
- Sattelpunkt
 
{Welche Maßnahmen sind sinnvoll und umsetzbar, um das globale Minimum der Fehleroberfläche mit einem Algorithmus zu finden?
|type="[]"}
- grafische Veranschaulichung der Fehleroberfläche
- analytische Lösung
+ mehrfaches Anwenden des Algorithmus mit verschiedenen Startpunkten
+ Algorithmen mit Zufallskomponente benutzen, durch die lokale Minima verlassen werden können
 
{Welche Aussagen über quantitative Modellvergleiche treffen zu?
|type="[]"}
- Durch die Verwendung von Parameterschätzverfahren ist es möglich gleichermaßen Komplexität und Vorhersagefähigkeit bei der Modellauswahl zu berücksichtigen.
+ Zusätzlich zur Übereinstimmung empirischer und simulierter Daten sollte bei einem Modellvergleich die Komplexität der jeweiligen Modelle berücksichtigt werden, welche sich in der Art und Anzahl wichtiger Annahmen und Parameter des Modells zeigt.
+ Durch die Verwendung von Vergleichsmaßen ist es möglich gleichermaßen Komplexität und Vorhersagefähigkeit bei der Modellauswahl zu berücksichtigen.
- Zusätzlich zur Übereinstimmung empirischer und simulierter Daten sollte bei einem Modellvergleich die Komplexität der jeweiligen Modelle berücksichtigt werden, welche sich in der Übereinstimmung mit bereits existierenden Modellen zeigt.
 
{Welche dieser Lösungswege entsprechen einer sogenannten „closed form“ bzw. einer analytischen Lösung?
|type="[]"}
+ Ermittlung von Mittelwert und Standardabweichung bei der Ex-Gauß Verteilung
- Simulated Anneahling
+ Ermittlung der Regressionskoeffizienten bei der logistischen Regression
- Gradientensuchverfahren
 
{Warum können Optimierungsprobleme oftmals nicht analytisch gelöst werden?
|type="[]"}
- Es existiert kein globales Minimum.
- Es kann keine Fehlerfunktion bestimmt werden.
+ Die Komplexität der Modelle ist sehr hoch.
+ Die Fehleroberfläche ist sehr komplex.
 
{Was benötigt ein Fittingalgorithmus für das Finden eines Minimums?
|type="[]"}
+ eine Fehlerfunktion
- Kenntnis aller Punkte der Fehleroberfläche
+ Startparameterwerte
+ ein Abbruchkriterium
 
{Wo liegen Probleme des Gradient Descent Verfahrens?
|type="[]"}
- Der Algorithmus akzeptiert die Verschlechterung des Funktionswertes im nächsten Schritt.
+ Lokale Minima können nicht verlassen werden.
+ Bei zu großer Schrittweite können schmale Täler der Fehleroberfläche übersprungen werden.
 
{Auf welcher Ebene findet das Fitting statt, wenn die Daten aller Versuchspersonen zusammengefasst werden?
|type="[]"}
+ Aggregatebene
- Summationsebene
- Hierarchische Modellierung
- Individualebene
 
{Welche dieser Aussagen über analytische und numerische Lösungswege treffen zu?
|type="[]"}
- Numerische Lösungen verursachen in der Regel einen geringeren Rechenaufwand als analytische Lösungen.
+ Analytische Lösungen ermöglichen die Ermittlung einer interessierenden Größe durch eine endliche Anzahl von Schritten mittels Standardoperationen.
+ Analytische Lösungen führen zu reproduzierbaren und objektiven Ergebnissen.
- Numerische Lösungen ermöglichen die Ermittlung einer interessierenden Größe durch eine endliche Anzahl von Schritten mittels Standardoperationen.
 
{Was gibt eine Fehlerfunktion (objective function) an?
|type="[]"}
- wie sehr die Anzahl an freien Parametern die Komplexität des Modells bestimmt
- wie sehr die Anzahl an freien Parametern zu Rauschen in den Daten führt
- wie sehr die Parameterwerte im folgenden Stimulationsschritt verändert werden müssen
+ wie sehr durch das Modell simulierte Daten von den erhobenen Daten abweichen
 
{Warum ist es notwendig, vor der Durchführung eines quantitativen Modellvergleichs die optimalen Parameterwerte der entsprechenden Modelle zu bestimmen?
|type="[]"}
+ ungünstige Parameterschätzwerte können zu einer fehlerhaften Modellauswahl führen
- ungünstige Parameterschätzwerte können zur Überschätzung der Vorhersagefähigkeit eines Modells führen
- ungünstige Parameterschätzwerte können zur Instabilität der Einschätzung der Vorhersagefähigkeit eines Modells führen
+ ungünstige Parameterschätzwerte können zur Unterschätzung der Vorhersagefähigkeit eines Modells führen
 


</quiz>
</quiz>

Aktuelle Version vom 28. November 2019, 11:54 Uhr

Der folgenden Bereich enthält Fragen zum Prozess des Fittings und dem Vergleich von Modellen. Alle Fragen sind Multiple Choice Fragen, d.h. es können immer mehrere Antworten richtig sein. Klicken Sie zur Beantwortung einer Frage die korrekten Antwortmöglichkeiten an. Um Ihre Ergebnisse auszuwerten, wählen Sie bitte den Button "Speichern" am unteren Ende der Seite.

Für jede vollständig richtig beantwortete Frage erhalten Sie einen Punkt. Für falsche beantwortete Fragen werden Ihnen keine Punkte abgezogen. Sie können diese Einstellung jedoch beliebig verändern. Ihre Gesamtpunktzahl finden Sie am unteren Seitenende.


  

1 Welche Vorteile bringt die Log-Likelihood-Methode mit sich?

Die Passung des Modells zu den Daten wird auf Werte zwischen 0 und 1 normiert.
Das Fehlermaß wird besser interpretierbar.
Sehr kleine Werte des Fehlermaßes werden vermieden.
Der Rechenaufwand verringert sich durch die Vermeidung von Multiplikation.

2 Im Rahmen eines quantitativen Modellvergleichs werden häufig Vergleichsmaße berechnet. Welche Aussagen über Vergleichsmaße sind wahr?

Vergleichsmaße berücksichtigen neben der Vorhersagefähigkeit des Modells die Komplexität der verwendeten Berechnungsvorschrift.
Zwei Modelle, welche gleich gut in der Lage sind, vorliegende empirische Daten zu beschreiben, können in Abhängigkeit ihrer Komplexität unterschiedliche Vergleichsmaßwerte besitzen. Je komplexer das Modell ist, desto höher sind diese Werte.
Zwei Modelle, welche gleich gut in der Lage sind, vorliegende empirische Daten zu beschreiben, können in Abhängigkeit ihrer Komplexität unterschiedliche Vergleichsmaßwerte besitzen. Je weniger komplex das Modell ist, desto höher sind diese Werte.
Vergleichsmaße berücksichtigen neben der Vorhersagefähigkeit des Modells die Anzahl der verwendeten Parameter.

3 Welche Voraussetzungen müssen für die Anwendung der Maximum-Likelihood-Methode erfüllt sein?

Die Verteilung der Daten muss bekannt sein.
Die Stichprobe muss möglichst groß sein.
Die Daten müssen eine geringe Streuung haben.
Die Datenpunkte müssen statistisch voneinander abhängig sein.

4 Welche Folgen können aus der Verwendung unterschiedlich großer Parameteranzahlen beim Prozess des Fittings resultieren?

eine hohe Parameteranzahl kann dazu führen, dass das Modell nur unzureichend zur Beschreibung der vorliegenden Daten geeignet ist
viele freie Parameter führen zu „Overfitting“
eine hohe Parameteranzahl kann dazu führen, dass das Modell nur schlecht zur korrekten Vorhersage neuer Daten in der Lage ist
eine zu geringe Parameteranzahl führt zu „Underfitting“

5 Welche Aussagen über den Einsatz von quantitativen und qualitativen Modellvergleichen treffen zu?

Ein qualitativer Modellvergleich ermittelt den Fit zwischen den empirisch erhobenen und den basierend auf dem Modell simulierten Daten zur Bestimmung der Vorhersagegüte des Modells.
Ein qualitativer Modellvergleich sollte eingesetzt werden, wenn es sich beim Untersuchungsgegenstand um ein sehr komplexes Phänomen handelt.
Ein qualitativer Modellvergleich untersucht die Übereinstimmung der Datenmuster zwischen empirischen und simulierten Daten.
Ein quantitativer Modellvergleich sollte eingesetzt werden, wenn stärkeres Interesse am relativen Verhältnis der empirischen und simulierten Daten besteht.

6 Welche Methoden werden bei der Durchführung eines qualitativen Modellvergleichs angewandt?

Untersuchung der Übereinstimmung von Datenmustern
„Measure of Surprise Methode“
Untersuchung des Fits zwischen empirisch erhobenen und simulierten Daten
Untersuchung der Übereinstimmung des Modells mit bestehenden Theorien

7 Welche Probleme hat das Simulated Annealing?

Lokale Minima können nicht verlassen werden.
Optima, die weit weg vom Startpunkt liegen, können übersehen werden.
Ein gefundenes Optimum kann im Verlauf wieder verloren gehen.
Es müssen viele Punkte der Fehlerfunktion gleichzeitig evaluiert werden.

8 Wie wird im Simplexverfahren nach Nelder und Mead vorgegangen, wenn der reflektierte Punkt besser ist als das bisherige Minimum?

Der Simplex wird komprimiert.
Der expandierte Punkt wird berechnet.
Der reflektierte Punkt ersetzt direkt das bisherige Minimum.
Der kontrahierte Punkt wird berechnet.

9 Was versteht man unter einem Simplex?

den einfachsten Weg vom Startpunkt zum Minimum
den Punkt mit dem geringsten Wert der Fehlerfunktion
die einfachste Form, die sich in einem Raum mit gegebener Dimensionalität aufspannen lässt
den Vektor, der in Richtung des steilsten Gefälles zeigt

10 Welche Probleme können beim Data Fitting auftreten?

vorzeitiger Abbruch des Algorithmus an Stellen mit sehr flachem Anstieg
Wahl ungünstiger Startparameterwerte
Abbruch des Algorithmus aufgrund zu hoher Komplexität der Fehlerfunktion
Stagnation des Algorithmus aufgrund globaler Minima

11 Was versteht man unter der Fitness beim Data Fitting mit genetischen Algorithmen?

die Anzahl der Individuen pro Population
die Parameterwertkombination eines Punktes
den Wert der Fehlerfunktion
die Ausdauer des Algorithmus beim Suchen des Minimums

12 Wobei handelt es sich um gebräuchliche Abweichungsmaße beim Data Fitting?

Cohen's d
Fehlerquadratsumme
Maximale Plausibilität
Log-Likelihood

13 Welche Eigenschaften treffen auf die Fehlerquadratsumme zu?

Ein gegenseitiger Ausgleich positiver und negativer Abweichungen wird verhindert.
Die Fehlerquadratsumme ist als bedingte Wahrscheinlichkeit für die Daten bei einer bestimmten Verteilung zu interpretieren.
Datenpunkte am Rand der Punktewolke werden weniger stark gewichtet als Datenpunkte in der Mitte.
Große Abweichungen bekommen durch das Quadrieren mehr Gewicht bei der Optimierung als kleine.

14 Welche Aussagen über AIC und BIC sind wahr?

Stichprobengröße > 12: BIC des Modells ist größer als AIC
AIC und BIC sind unabhängig von der Stichprobengröße des Modells
Berechnungen von AIC und BIC basieren auf den Log-Likelihoodwerten der Modelle
Log-Likelihoodwert ist umso kleiner, je besser das Modell die realen Daten vorhersagen kann

15 Welchen Einfluss hat die Temperatur beim Simulated Annealing auf die Wahl des neuen Punktes für die nächste Iteration?

Sie beeinflusst die Anzahl der Nachbarpunkte, die zur Auswahl stehen.
Sie beeinflusst die Wahrscheinlichkeit, mit der ein schlechterer Punkt akzeptiert wird.
Sie beeinflusst die Wahrscheinlichkeit, dass ein zufällig erzeugter Nachbarpunkt schlechter ist.
Sie sorgt dafür, dass gegen Ende der Optimierung ein gefundener Tiefpunkt selten verlassen wird.

16 Ein qualitativer Vergleich verschiedener Modelle wird oftmals mittels neuer Vorhersagen durchgeführt. Welche Aussagen über diese Methode und ihre Ergebnisse treffen zu?

die Fähigkeit eines Modells ein bereits bekanntes Ereignis vorherzusagen liefert stärkere Evidenz für die Gültigkeit eines Modells als die Vorhersage eines unerwarteten komplexen Ereignisses
die Fähigkeit eines Modells ein unerwartetes Ereignis vorherzusagen liefert stärkere Evidenz für die Gültigkeit eines Modells als die Vorhersagefähigkeit eines bereits bekannten Ereignisses
ist ein Modell in der Lage, Verhalten zu zeigen oder Daten hervorzubringen, welche aufgrund theoretischer Überzeugung vorhergesagt wurden, ist es redundant und sollte verworfen werden
ist ein Modell in der Lage, Verhalten zu zeigen oder Daten hervorzubringen, welche aufgrund theoretischer Überzeugung vorhergesagt wurden, stellt dies Evidenz für das entsprechende Modell dar

17 Welches Prinzip liegt dem Gradient Descent Algorithmus zugrunde?

Bewegung in Richtung des steilsten Gefälles
Generierung neuer Punkte durch Reproduktion, Rekombination und Mutation
Akzeptanz der Verschlechterung des Funktionswertes mit sinkender Wahrscheinlichkeit
zufällige Wahl von Punkten der Fehleroberfläche

18 Welche Aussagen über „Noise“ in empirisch erhobenen Daten treffen zu?

„Noise“ führt zu Abweichungen zwischen den gemessenen Daten und den wahren Daten
wird eine große Anzahl an Parametern zur Modellierung verwendet, werden nur die wahren Werte modelliert und nicht das der in den Daten enthaltene „Noise“
Verzerrungseffekte und Messfehler führen zu Rauschen (= „Noise“) in den Ergebnisdaten
wird zusätzlich zur Modellierung der wahren Werten auch der in den wahren Werten enthaltene „Noise“ modelliert, spricht man von „overfitting“

19 Wann sollte die gewichtete Fehlerquadratsumme eingesetzt werden?

wenn keine Annahmen über die Relevanz bestimmter Datenpunkte vorliegen
wenn Ausreißer die Fehlerquadratsumme verzerren
wenn Heteroskedastizität vorliegt
wenn ein bestimmter Teil der Daten als relevanter erachtet wird als der Rest

20 Was versteht man unter dem Begriff „Fitting“?

Prozess der Verwendung eines Beispieldatensatzes zur Schätzung der Parameterwerte eines Modells, um diese bestmöglich an den Datensatz anzupassen
Prozess der Analyse von Systemen durch die Ausführung von Experimenten an einem Modell, um Erkenntnisse über das reale System zu gewinnen
Prozess der Implementierung eines Entwurfs in den Quellcode einer Programmiersprache
Prozess der vereinfachten Beschreibung eines wirklichen Systems, um das Verständnis der natürlichen Realität zu erhöhen

21 Was versteht man unter hierarchischer Modellierung?

Für alle Versuchspersonen wird ein gemeinsames Parameterset ermittelt.
Die Daten jeder Versuchsperson werden einzeln gefittet.
Verschiedene Parameter können auf verschiedenen Ebenen geschätzt werden.
Parameter werden nach ihrer Bedeutsamkeit für das Modell sortiert.

22 Mit welchen Mechanismen wird bei genetischen Algorithmen die neue Population bestimmt?

Reproduktion
Reanimation
Intuition
Mutation
Rekombination
Evolution

23 Welche Abweichungsmaße werden zur Aufstellung einer Fehlerfunktion verwendet?

Maximum Likelihood
Fehlerquadratsummen
p-Wert
α-Fehler

24 Welche Aussagen über das sogenannte „Overfitting“ treffen zu?

ein „overfitted“ Modell ist gut zur korrekten Vorhersage neuer Daten in der Lage
kann auftreten, wenn ein Modell nur sehr wenige freie Parameter besitzt
es werden nicht nur wahre Werte modelliert, sondern auch das in den Daten enthaltene Rauschen
ein „overfitted“ Modell erklärt die zur Modellentwicklung verwendeten Daten meist sehr gut

25 Welche dieser Lösungswege entsprechen einer numerischen Lösung?

Gradientensuchverfahren
Genetische Algorithmen
Simplex Algorithmus
Ermittlung der Regressionskoeffizienten bei der linearen Regression

26 Die Fähigkeit eines Modells, vorliegende Daten möglichst exakt zu beschreiben, ist von der Parameteranzahl des Modells abhängig. Je mehr freie Parameter ein Modell besitzt, desto genauer kann es an die Werte eines bestimmten Datensatzes angepasst werden. Welche Folgen können aus einer großen Anzahl freier Parameter resultieren?

Erhöhung der Fehleranfälligkeit bestimmter Fittingalgorithmen
Erschwerung der Parameterinterpretierbarkeit
„underfitted“ Modell
„overfitted” Modell

27 Welche der folgenden Aussagen bezüglich der verschiedenen Teilschritte des „Fittings“ treffen zu?

eine Fehlerfunktion berechnet, wie sehr das Modell von den Daten abweicht
empirische Ergebnisse und simulierte Daten werden durch eine Fehlerfunktion verglichen
eine Fehlerfunktion ermöglicht die schrittweise Veränderung der Parameterwerte, um das Modell besser an den gegebenen Datensatz anzupassen
ein Fittingalgorithmus ermöglicht die schrittweise Veränderung der Parameterwerte, um das Modell besser an den gegebenen Datensatz anzupassen

28 Wofür werden Abweichungsmaße beim Data Fitting benötigt?

um zu quantifizieren, wie gut Modelldaten und empirische Daten zusammenpassen
um eine Fehlerfunktion zu erstellen
um die Streuung der Modelldaten auszudrücken
um das unzuverlässige Fitten nach Augenmaß zu vermeiden

29 Welche Probleme hat das Simulated Annealing?

Ein gefundenes Optimum kann im Verlauf wieder verloren gehen.
Es müssen viele Punkte der Fehlerfunktion gleichzeitig evaluiert werden.
Optima, die weit weg vom Startpunkt liegen, können übersehen werden.
Lokale Minima können nicht verlassen werden.

30 Für die meisten kognitiven Prozesse existiert eine Vielzahl an Erklärungsmodelle. Der Vergleich alternativer Modelle kann dabei auf der Beurteilung verschiedener Kriterien basieren. Welche der folgenden Merkmale eines Modells sollten als Kriterien verwendet werden?

Generalisierbarkeit auf alle bereits vorhandenen Modelle
Plausibilität der Annahmen
Güte der deskriptiven Beschreibung der Daten
Interpretierbarkeit des Modells und seiner Parameter

31 Wie nennt man den tiefsten Punkt der Fehleroberfläche?

Sattelpunkt
globales Maximum
globales Minimum
lokales Minimum

32 Welche Maßnahmen sind sinnvoll und umsetzbar, um das globale Minimum der Fehleroberfläche mit einem Algorithmus zu finden?

analytische Lösung
mehrfaches Anwenden des Algorithmus mit verschiedenen Startpunkten
Algorithmen mit Zufallskomponente benutzen, durch die lokale Minima verlassen werden können
grafische Veranschaulichung der Fehleroberfläche

33 Welche Aussagen über quantitative Modellvergleiche treffen zu?

Zusätzlich zur Übereinstimmung empirischer und simulierter Daten sollte bei einem Modellvergleich die Komplexität der jeweiligen Modelle berücksichtigt werden, welche sich in der Art und Anzahl wichtiger Annahmen und Parameter des Modells zeigt.
Durch die Verwendung von Parameterschätzverfahren ist es möglich gleichermaßen Komplexität und Vorhersagefähigkeit bei der Modellauswahl zu berücksichtigen.
Durch die Verwendung von Vergleichsmaßen ist es möglich gleichermaßen Komplexität und Vorhersagefähigkeit bei der Modellauswahl zu berücksichtigen.
Zusätzlich zur Übereinstimmung empirischer und simulierter Daten sollte bei einem Modellvergleich die Komplexität der jeweiligen Modelle berücksichtigt werden, welche sich in der Übereinstimmung mit bereits existierenden Modellen zeigt.

34 Welche dieser Lösungswege entsprechen einer sogenannten „closed form“ bzw. einer analytischen Lösung?

Ermittlung von Mittelwert und Standardabweichung bei der Ex-Gauß Verteilung
Ermittlung der Regressionskoeffizienten bei der logistischen Regression
Gradientensuchverfahren
Simulated Anneahling

35 Warum können Optimierungsprobleme oftmals nicht analytisch gelöst werden?

Es existiert kein globales Minimum.
Die Komplexität der Modelle ist sehr hoch.
Es kann keine Fehlerfunktion bestimmt werden.
Die Fehleroberfläche ist sehr komplex.

36 Was benötigt ein Fittingalgorithmus für das Finden eines Minimums?

ein Abbruchkriterium
eine Fehlerfunktion
Kenntnis aller Punkte der Fehleroberfläche
Startparameterwerte

37 Wo liegen Probleme des Gradient Descent Verfahrens?

Der Algorithmus akzeptiert die Verschlechterung des Funktionswertes im nächsten Schritt.
Bei zu großer Schrittweite können schmale Täler der Fehleroberfläche übersprungen werden.
Lokale Minima können nicht verlassen werden.

38 Auf welcher Ebene findet das Fitting statt, wenn die Daten aller Versuchspersonen zusammengefasst werden?

Hierarchische Modellierung
Aggregatebene
Summationsebene
Individualebene

39 Welche dieser Aussagen über analytische und numerische Lösungswege treffen zu?

Analytische Lösungen führen zu reproduzierbaren und objektiven Ergebnissen.
Numerische Lösungen verursachen in der Regel einen geringeren Rechenaufwand als analytische Lösungen.
Numerische Lösungen ermöglichen die Ermittlung einer interessierenden Größe durch eine endliche Anzahl von Schritten mittels Standardoperationen.
Analytische Lösungen ermöglichen die Ermittlung einer interessierenden Größe durch eine endliche Anzahl von Schritten mittels Standardoperationen.

40 Was gibt eine Fehlerfunktion (objective function) an?

wie sehr die Anzahl an freien Parametern zu Rauschen in den Daten führt
wie sehr die Parameterwerte im folgenden Stimulationsschritt verändert werden müssen
wie sehr durch das Modell simulierte Daten von den erhobenen Daten abweichen
wie sehr die Anzahl an freien Parametern die Komplexität des Modells bestimmt

41 Warum ist es notwendig, vor der Durchführung eines quantitativen Modellvergleichs die optimalen Parameterwerte der entsprechenden Modelle zu bestimmen?

ungünstige Parameterschätzwerte können zur Instabilität der Einschätzung der Vorhersagefähigkeit eines Modells führen
ungünstige Parameterschätzwerte können zu einer fehlerhaften Modellauswahl führen
ungünstige Parameterschätzwerte können zur Unterschätzung der Vorhersagefähigkeit eines Modells führen
ungünstige Parameterschätzwerte können zur Überschätzung der Vorhersagefähigkeit eines Modells führen