Attraktornetze: Unterschied zwischen den Versionen

Aus eLearning - Methoden der Psychologie - TU Dresden
Zur Navigation springen Zur Suche springen
(Die Seite wurde neu angelegt: „{{Nav||Modellierung|Neuronale Netzwerke}} =Attraktornetze (Hopfield-Netze)= Ein Beispiel für rekurrente Netze sind Attraktornetze, die nach ihrem Erfinder, de…“)
 
Keine Bearbeitungszusammenfassung
 
Zeile 1: Zeile 1:
{{Nav||Modellierung|Neuronale Netzwerke}}
{{Nav||Modellierung|Neuronale Netzwerke}}
=Attraktornetze (Hopfield-Netze)=
=Attraktornetze (Hopfield-Netze)=
Ein Beispiel für rekurrente Netze sind Attraktornetze, die nach ihrem Erfinder, dem Physiker John Joseph Hopfield, auch '''Hopfield-Netze''' genannt werden. Hopfield Netze sind Assoziationsnetze, das heißt sie assoziieren Eingabemuster mit fest zugeordneten Ausgabemustern, was eine ''Erkennung verrauschter, undeutlicher Muster'' oder auch eine ''Mustervervollständigung'' ermöglicht (hier ist die Fehlertoleranz als Eigenschaft von Bedeutung!). Da in einem Hopfield-Netz ein Neuron Kontakt zu allen innerhalb einer Schicht hat (laterale Rekurrenz), spricht man von einem ''autoassoziativen'' Netzwerk. In diesen Verbindungen werden Inhalte ''gespeichert'', durch Anpassung der rekurrenten Gewichte. Das Modell ''lernt'' je nach Aufbau und Zweck entweder durch erhaltenes Feedback (supervised) oder durch simple Koaktivierung (unsupervised). In letzterem Fall werden die Gewichte zwischen den Knoten durch Koaktivierung verknüpft, sie folgen dabei also den Gesetzen der '''Hebb'schen Lernregel''' (siehe [[Neuronale Netze]]). Durch diesen Mechanismus können fehlerhafte oder beschädigte Muster wiederhergestellt werden. Ein beschädigtes/unbekanntes Eingabemuster führt dabei zu einem instabilen Aktivierungszustand des Netzwerks – wie von selbst strebt das Netzwerk anschließend zu einem stabileren, ihm bekannten Zustand und stellt dabei das ähnlichste gespeicherte Muster wieder her. Diesen Prozess, von einem instabilen Zustand weg und hin zu einem (für das Netzwerk attrakiven) stabilen Zustand (ein sogenannter ''Attraktor'') nennt man die '''Attraktoreigenschaft''' des Modells.<br>
Ein Beispiel für rekurrente Netze sind Attraktornetze, die nach ihrem Erfinder, dem Physiker John Joseph Hopfield, auch '''Hopfield-Netze''' genannt werden. Hopfield Netze sind Assoziationsnetze, das heißt sie assoziieren Eingabemuster mit fest zugeordneten Ausgabemustern, was eine ''Erkennung verrauschter, undeutlicher Muster'' oder auch eine ''Mustervervollständigung'' ermöglicht (hier ist die Fehlertoleranz als Eigenschaft von Bedeutung!). Da in einem Hopfield-Netz ein Neuron Kontakt zu allen innerhalb einer Schicht hat (laterale Rekurrenz), spricht man von einem ''autoassoziativen'' Netzwerk. In diesen Verbindungen werden Inhalte ''gespeichert'', durch Anpassung der rekurrenten Gewichte. Das Modell ''lernt'' je nach Aufbau und Zweck entweder durch erhaltenes Feedback (supervised) oder durch simple Koaktivierung (unsupervised). In letzterem Fall werden die Gewichte zwischen den Knoten durch Koaktivierung verknüpft, sie folgen dabei also den Gesetzen der '''Hebb'schen Lernregel''' (siehe [[Neuronale Netzwerke]]). Durch diesen Mechanismus können fehlerhafte oder beschädigte Muster wiederhergestellt werden. Ein beschädigtes/unbekanntes Eingabemuster führt dabei zu einem instabilen Aktivierungszustand des Netzwerks – wie von selbst strebt das Netzwerk anschließend zu einem stabileren, ihm bekannten Zustand und stellt dabei das ähnlichste gespeicherte Muster wieder her. Diesen Prozess, von einem instabilen Zustand weg und hin zu einem (für das Netzwerk attrakiven) stabilen Zustand (ein sogenannter ''Attraktor'') nennt man die '''Attraktoreigenschaft''' des Modells.<br>
Hopfield Netze bieten interessante Erklärungsansätze für Gedächtnismechanismen und die Wiedererkennung von beispielsweise Gesichtern, Schrift etc. und bestärkt zwei Hypothesen zu diesen Bereichen der Psychologie:<br>
Hopfield Netze bieten interessante Erklärungsansätze für Gedächtnismechanismen und die Wiedererkennung von beispielsweise Gesichtern, Schrift etc. und bestärkt zwei Hypothesen zu diesen Bereichen der Psychologie:<br>
Die erste Hypothese stützt sich auf die Beobachtung, dass Gedächtnisinhalte robust sind gegen kortikale Verletzung und plädiert somit für eine verteilte Speicherung von Informationen. Die zweite Hypothese beruft sich auf den Effekt, dass sich schon an Teilen eines Musters ein ganzes Objekt erkennen lässt und plädiert somit für eine Speicherung, bei der vernetzte Gedächtnisinhalte sich gegenseitig ergänzen können müssen. Beide Hypothesen werden in Hopfield-Netzen anschaulich modelliert.
Die erste Hypothese stützt sich auf die Beobachtung, dass Gedächtnisinhalte robust sind gegen kortikale Verletzung und plädiert somit für eine verteilte Speicherung von Informationen. Die zweite Hypothese beruft sich auf den Effekt, dass sich schon an Teilen eines Musters ein ganzes Objekt erkennen lässt und plädiert somit für eine Speicherung, bei der vernetzte Gedächtnisinhalte sich gegenseitig ergänzen können müssen. Beide Hypothesen werden in Hopfield-Netzen anschaulich modelliert.

Aktuelle Version vom 19. April 2016, 10:29 Uhr

Attraktornetze (Hopfield-Netze)

Ein Beispiel für rekurrente Netze sind Attraktornetze, die nach ihrem Erfinder, dem Physiker John Joseph Hopfield, auch Hopfield-Netze genannt werden. Hopfield Netze sind Assoziationsnetze, das heißt sie assoziieren Eingabemuster mit fest zugeordneten Ausgabemustern, was eine Erkennung verrauschter, undeutlicher Muster oder auch eine Mustervervollständigung ermöglicht (hier ist die Fehlertoleranz als Eigenschaft von Bedeutung!). Da in einem Hopfield-Netz ein Neuron Kontakt zu allen innerhalb einer Schicht hat (laterale Rekurrenz), spricht man von einem autoassoziativen Netzwerk. In diesen Verbindungen werden Inhalte gespeichert, durch Anpassung der rekurrenten Gewichte. Das Modell lernt je nach Aufbau und Zweck entweder durch erhaltenes Feedback (supervised) oder durch simple Koaktivierung (unsupervised). In letzterem Fall werden die Gewichte zwischen den Knoten durch Koaktivierung verknüpft, sie folgen dabei also den Gesetzen der Hebb'schen Lernregel (siehe Neuronale Netzwerke). Durch diesen Mechanismus können fehlerhafte oder beschädigte Muster wiederhergestellt werden. Ein beschädigtes/unbekanntes Eingabemuster führt dabei zu einem instabilen Aktivierungszustand des Netzwerks – wie von selbst strebt das Netzwerk anschließend zu einem stabileren, ihm bekannten Zustand und stellt dabei das ähnlichste gespeicherte Muster wieder her. Diesen Prozess, von einem instabilen Zustand weg und hin zu einem (für das Netzwerk attrakiven) stabilen Zustand (ein sogenannter Attraktor) nennt man die Attraktoreigenschaft des Modells.
Hopfield Netze bieten interessante Erklärungsansätze für Gedächtnismechanismen und die Wiedererkennung von beispielsweise Gesichtern, Schrift etc. und bestärkt zwei Hypothesen zu diesen Bereichen der Psychologie:
Die erste Hypothese stützt sich auf die Beobachtung, dass Gedächtnisinhalte robust sind gegen kortikale Verletzung und plädiert somit für eine verteilte Speicherung von Informationen. Die zweite Hypothese beruft sich auf den Effekt, dass sich schon an Teilen eines Musters ein ganzes Objekt erkennen lässt und plädiert somit für eine Speicherung, bei der vernetzte Gedächtnisinhalte sich gegenseitig ergänzen können müssen. Beide Hypothesen werden in Hopfield-Netzen anschaulich modelliert.