<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="de">
	<id>http://methpsy.elearning.psych.tu-dresden.de/mediawiki/index.php?action=history&amp;feed=atom&amp;title=Attraktornetze</id>
	<title>Attraktornetze - Versionsgeschichte</title>
	<link rel="self" type="application/atom+xml" href="http://methpsy.elearning.psych.tu-dresden.de/mediawiki/index.php?action=history&amp;feed=atom&amp;title=Attraktornetze"/>
	<link rel="alternate" type="text/html" href="http://methpsy.elearning.psych.tu-dresden.de/mediawiki/index.php?title=Attraktornetze&amp;action=history"/>
	<updated>2026-04-14T03:15:42Z</updated>
	<subtitle>Versionsgeschichte dieser Seite in eLearning - Methoden der Psychologie - TU Dresden</subtitle>
	<generator>MediaWiki 1.38.2</generator>
	<entry>
		<id>http://methpsy.elearning.psych.tu-dresden.de/mediawiki/index.php?title=Attraktornetze&amp;diff=2169&amp;oldid=prev</id>
		<title>Diana am 19. April 2016 um 08:29 Uhr</title>
		<link rel="alternate" type="text/html" href="http://methpsy.elearning.psych.tu-dresden.de/mediawiki/index.php?title=Attraktornetze&amp;diff=2169&amp;oldid=prev"/>
		<updated>2016-04-19T08:29:52Z</updated>

		<summary type="html">&lt;p&gt;&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;de&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;← Nächstältere Version&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;Version vom 19. April 2016, 10:29 Uhr&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l1&quot;&gt;Zeile 1:&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;Zeile 1:&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{Nav||Modellierung|Neuronale Netzwerke}}&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;{{Nav||Modellierung|Neuronale Netzwerke}}&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;=Attraktornetze (Hopfield-Netze)=&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;=Attraktornetze (Hopfield-Netze)=&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;Ein Beispiel für rekurrente Netze sind Attraktornetze, die nach ihrem Erfinder, dem Physiker John Joseph Hopfield, auch '''Hopfield-Netze''' genannt werden. Hopfield Netze sind Assoziationsnetze, das heißt sie assoziieren Eingabemuster mit fest zugeordneten Ausgabemustern, was eine ''Erkennung verrauschter, undeutlicher Muster'' oder auch eine ''Mustervervollständigung'' ermöglicht (hier ist die Fehlertoleranz als Eigenschaft von Bedeutung!). Da in einem Hopfield-Netz ein Neuron Kontakt zu allen innerhalb einer Schicht hat (laterale Rekurrenz), spricht man von einem ''autoassoziativen'' Netzwerk. In diesen Verbindungen werden Inhalte ''gespeichert'', durch Anpassung der rekurrenten Gewichte. Das Modell ''lernt'' je nach Aufbau und Zweck entweder durch erhaltenes Feedback (supervised) oder durch simple Koaktivierung (unsupervised). In letzterem Fall werden die Gewichte zwischen den Knoten durch Koaktivierung verknüpft, sie folgen dabei also den Gesetzen der '''Hebb'schen Lernregel''' (siehe [[Neuronale &lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;Netze&lt;/del&gt;]]). Durch diesen Mechanismus können fehlerhafte oder beschädigte Muster wiederhergestellt werden. Ein beschädigtes/unbekanntes Eingabemuster führt dabei zu einem instabilen Aktivierungszustand des Netzwerks – wie von selbst strebt das Netzwerk anschließend zu einem stabileren, ihm bekannten Zustand und stellt dabei das ähnlichste gespeicherte Muster wieder her. Diesen Prozess, von einem instabilen Zustand weg und hin zu einem (für das Netzwerk attrakiven) stabilen Zustand (ein sogenannter ''Attraktor'') nennt man die '''Attraktoreigenschaft''' des Modells.&amp;lt;br&amp;gt;&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;Ein Beispiel für rekurrente Netze sind Attraktornetze, die nach ihrem Erfinder, dem Physiker John Joseph Hopfield, auch '''Hopfield-Netze''' genannt werden. Hopfield Netze sind Assoziationsnetze, das heißt sie assoziieren Eingabemuster mit fest zugeordneten Ausgabemustern, was eine ''Erkennung verrauschter, undeutlicher Muster'' oder auch eine ''Mustervervollständigung'' ermöglicht (hier ist die Fehlertoleranz als Eigenschaft von Bedeutung!). Da in einem Hopfield-Netz ein Neuron Kontakt zu allen innerhalb einer Schicht hat (laterale Rekurrenz), spricht man von einem ''autoassoziativen'' Netzwerk. In diesen Verbindungen werden Inhalte ''gespeichert'', durch Anpassung der rekurrenten Gewichte. Das Modell ''lernt'' je nach Aufbau und Zweck entweder durch erhaltenes Feedback (supervised) oder durch simple Koaktivierung (unsupervised). In letzterem Fall werden die Gewichte zwischen den Knoten durch Koaktivierung verknüpft, sie folgen dabei also den Gesetzen der '''Hebb'schen Lernregel''' (siehe [[Neuronale &lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;Netzwerke&lt;/ins&gt;]]). Durch diesen Mechanismus können fehlerhafte oder beschädigte Muster wiederhergestellt werden. Ein beschädigtes/unbekanntes Eingabemuster führt dabei zu einem instabilen Aktivierungszustand des Netzwerks – wie von selbst strebt das Netzwerk anschließend zu einem stabileren, ihm bekannten Zustand und stellt dabei das ähnlichste gespeicherte Muster wieder her. Diesen Prozess, von einem instabilen Zustand weg und hin zu einem (für das Netzwerk attrakiven) stabilen Zustand (ein sogenannter ''Attraktor'') nennt man die '''Attraktoreigenschaft''' des Modells.&amp;lt;br&amp;gt;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;Hopfield Netze bieten interessante Erklärungsansätze für Gedächtnismechanismen und die Wiedererkennung von beispielsweise Gesichtern, Schrift etc. und bestärkt zwei Hypothesen zu diesen Bereichen der Psychologie:&amp;lt;br&amp;gt;&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;Hopfield Netze bieten interessante Erklärungsansätze für Gedächtnismechanismen und die Wiedererkennung von beispielsweise Gesichtern, Schrift etc. und bestärkt zwei Hypothesen zu diesen Bereichen der Psychologie:&amp;lt;br&amp;gt;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;Die erste Hypothese stützt sich auf die Beobachtung, dass Gedächtnisinhalte robust sind gegen kortikale Verletzung und plädiert somit für eine verteilte Speicherung von Informationen. Die zweite Hypothese beruft sich auf den Effekt, dass sich schon an Teilen eines Musters ein ganzes Objekt erkennen lässt und plädiert somit für eine Speicherung, bei der vernetzte Gedächtnisinhalte sich gegenseitig ergänzen können müssen. Beide Hypothesen werden in Hopfield-Netzen anschaulich modelliert.&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;Die erste Hypothese stützt sich auf die Beobachtung, dass Gedächtnisinhalte robust sind gegen kortikale Verletzung und plädiert somit für eine verteilte Speicherung von Informationen. Die zweite Hypothese beruft sich auf den Effekt, dass sich schon an Teilen eines Musters ein ganzes Objekt erkennen lässt und plädiert somit für eine Speicherung, bei der vernetzte Gedächtnisinhalte sich gegenseitig ergänzen können müssen. Beide Hypothesen werden in Hopfield-Netzen anschaulich modelliert.&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;/table&gt;</summary>
		<author><name>Diana</name></author>
	</entry>
	<entry>
		<id>http://methpsy.elearning.psych.tu-dresden.de/mediawiki/index.php?title=Attraktornetze&amp;diff=1125&amp;oldid=prev</id>
		<title>Micha: Die Seite wurde neu angelegt: „{{Nav||Modellierung|Neuronale Netzwerke}} =Attraktornetze (Hopfield-Netze)= Ein Beispiel für rekurrente Netze sind Attraktornetze, die nach ihrem Erfinder, de…“</title>
		<link rel="alternate" type="text/html" href="http://methpsy.elearning.psych.tu-dresden.de/mediawiki/index.php?title=Attraktornetze&amp;diff=1125&amp;oldid=prev"/>
		<updated>2015-02-25T11:20:28Z</updated>

		<summary type="html">&lt;p&gt;Die Seite wurde neu angelegt: „{{Nav||Modellierung|Neuronale Netzwerke}} =Attraktornetze (Hopfield-Netze)= Ein Beispiel für rekurrente Netze sind Attraktornetze, die nach ihrem Erfinder, de…“&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Neue Seite&lt;/b&gt;&lt;/p&gt;&lt;div&gt;{{Nav||Modellierung|Neuronale Netzwerke}}&lt;br /&gt;
=Attraktornetze (Hopfield-Netze)=&lt;br /&gt;
Ein Beispiel für rekurrente Netze sind Attraktornetze, die nach ihrem Erfinder, dem Physiker John Joseph Hopfield, auch '''Hopfield-Netze''' genannt werden. Hopfield Netze sind Assoziationsnetze, das heißt sie assoziieren Eingabemuster mit fest zugeordneten Ausgabemustern, was eine ''Erkennung verrauschter, undeutlicher Muster'' oder auch eine ''Mustervervollständigung'' ermöglicht (hier ist die Fehlertoleranz als Eigenschaft von Bedeutung!). Da in einem Hopfield-Netz ein Neuron Kontakt zu allen innerhalb einer Schicht hat (laterale Rekurrenz), spricht man von einem ''autoassoziativen'' Netzwerk. In diesen Verbindungen werden Inhalte ''gespeichert'', durch Anpassung der rekurrenten Gewichte. Das Modell ''lernt'' je nach Aufbau und Zweck entweder durch erhaltenes Feedback (supervised) oder durch simple Koaktivierung (unsupervised). In letzterem Fall werden die Gewichte zwischen den Knoten durch Koaktivierung verknüpft, sie folgen dabei also den Gesetzen der '''Hebb'schen Lernregel''' (siehe [[Neuronale Netze]]). Durch diesen Mechanismus können fehlerhafte oder beschädigte Muster wiederhergestellt werden. Ein beschädigtes/unbekanntes Eingabemuster führt dabei zu einem instabilen Aktivierungszustand des Netzwerks – wie von selbst strebt das Netzwerk anschließend zu einem stabileren, ihm bekannten Zustand und stellt dabei das ähnlichste gespeicherte Muster wieder her. Diesen Prozess, von einem instabilen Zustand weg und hin zu einem (für das Netzwerk attrakiven) stabilen Zustand (ein sogenannter ''Attraktor'') nennt man die '''Attraktoreigenschaft''' des Modells.&amp;lt;br&amp;gt;&lt;br /&gt;
Hopfield Netze bieten interessante Erklärungsansätze für Gedächtnismechanismen und die Wiedererkennung von beispielsweise Gesichtern, Schrift etc. und bestärkt zwei Hypothesen zu diesen Bereichen der Psychologie:&amp;lt;br&amp;gt;&lt;br /&gt;
Die erste Hypothese stützt sich auf die Beobachtung, dass Gedächtnisinhalte robust sind gegen kortikale Verletzung und plädiert somit für eine verteilte Speicherung von Informationen. Die zweite Hypothese beruft sich auf den Effekt, dass sich schon an Teilen eines Musters ein ganzes Objekt erkennen lässt und plädiert somit für eine Speicherung, bei der vernetzte Gedächtnisinhalte sich gegenseitig ergänzen können müssen. Beide Hypothesen werden in Hopfield-Netzen anschaulich modelliert.&lt;/div&gt;</summary>
		<author><name>Micha</name></author>
	</entry>
</feed>