Objective Functions

Aus eLearning - Methoden der Psychologie - TU Dresden
Zur Navigation springen Zur Suche springen

Möchte man einen vorliegenden Datensatz bestmöglich durch ein Modell mit einem oder mehreren Parametern beschreiben, ist es notwendig, die Parameterwerte zu ermitteln, mit welchen das Modell bestmöglich an die existierenden Daten angepasst ist. Diesen Prozess bezeichnet man als „Fitting“ .

Um die Anpassung quantitativ beurteilen zu können, ist ein objektives Maß für den Fit notwendig. Dieses kann durch die Verwendung einer Fehlerfunktion gewonnen werden, die man im Englischen objective function nennt. Die objective function gibt an, wie sehr ein Modell von den erhobenen Daten abweicht.


Beispiel


Es wurde ein psychologisches Experiment zum exponentiellen Discounting durchgeführt. Die Messwerte DU(x) geben den subjektiven Wert einer Belohnung x zum Zeitpunkt t an und wurden im Vektor Y gespeichert.

Das Modell nimmt an, dass sich der subjektive Wert einer Belohnung zum Zeitpunkt t aus dem absoluten Betrag der Belohnung U(x) und einem Parameter δ, welcher das Ausmaß der Abwertung beschreibt, bestimmen lässt:


Objective Functions 1.png


Man möchte nun wissen, mithilfe welches Parameters δ die erhobenen Daten am besten durch das Modell vorhergesagt werden können. Dazu muss die Abweichung zwischen Modelldaten und empirisch erhobenen Daten ermittelt werden. Dies ist beispielsweise mithilfe der Fehlerquadratsumme SSE möglich:


Objective Functions 2.png


Objective Functions 3.PNG


Das Ziel des Fittings besteht nun darin, Parameterwerte δ zu finden, sodass der Wert dieser Fehlerfunktion minimiert wird. Alternativ zur Verwendung der Fehlerquadratsumme können auch andere Abweichungsmaße (z.B. Maximum Likelihood ) benutzt werden.

Die Rolle der Fehlerfunktion beim Fitting kann in der R-Shiny-App "Fitting" beobachtet und untersucht werden.