Attraktornetze
Attraktornetze (Hopfield-Netze)
Ein Beispiel für rekurrente Netze sind Attraktornetze, die nach ihrem Erfinder, dem Physiker John Joseph Hopfield, auch Hopfield-Netze genannt werden. Hopfield Netze sind Assoziationsnetze, das heißt sie assoziieren Eingabemuster mit fest zugeordneten Ausgabemustern, was eine Erkennung verrauschter, undeutlicher Muster oder auch eine Mustervervollständigung ermöglicht (hier ist die Fehlertoleranz als Eigenschaft von Bedeutung!). Da in einem Hopfield-Netz ein Neuron Kontakt zu allen innerhalb einer Schicht hat (laterale Rekurrenz), spricht man von einem autoassoziativen Netzwerk. In diesen Verbindungen werden Inhalte gespeichert, durch Anpassung der rekurrenten Gewichte. Das Modell lernt je nach Aufbau und Zweck entweder durch erhaltenes Feedback (supervised) oder durch simple Koaktivierung (unsupervised). In letzterem Fall werden die Gewichte zwischen den Knoten durch Koaktivierung verknüpft, sie folgen dabei also den Gesetzen der Hebb'schen Lernregel (siehe Neuronale Netze). Durch diesen Mechanismus können fehlerhafte oder beschädigte Muster wiederhergestellt werden. Ein beschädigtes/unbekanntes Eingabemuster führt dabei zu einem instabilen Aktivierungszustand des Netzwerks – wie von selbst strebt das Netzwerk anschließend zu einem stabileren, ihm bekannten Zustand und stellt dabei das ähnlichste gespeicherte Muster wieder her. Diesen Prozess, von einem instabilen Zustand weg und hin zu einem (für das Netzwerk attrakiven) stabilen Zustand (ein sogenannter Attraktor) nennt man die Attraktoreigenschaft des Modells.
Hopfield Netze bieten interessante Erklärungsansätze für Gedächtnismechanismen und die Wiedererkennung von beispielsweise Gesichtern, Schrift etc. und bestärkt zwei Hypothesen zu diesen Bereichen der Psychologie:
Die erste Hypothese stützt sich auf die Beobachtung, dass Gedächtnisinhalte robust sind gegen kortikale Verletzung und plädiert somit für eine verteilte Speicherung von Informationen. Die zweite Hypothese beruft sich auf den Effekt, dass sich schon an Teilen eines Musters ein ganzes Objekt erkennen lässt und plädiert somit für eine Speicherung, bei der vernetzte Gedächtnisinhalte sich gegenseitig ergänzen können müssen. Beide Hypothesen werden in Hopfield-Netzen anschaulich modelliert.