Lernen: Unterschied zwischen den Versionen

Aus eLearning - Methoden der Psychologie - TU Dresden
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
Zeile 6: Zeile 6:
Im Grunde lassen sich drei Arten von Lernregeln unterscheiden:
Im Grunde lassen sich drei Arten von Lernregeln unterscheiden:


* Das klassische [[Unsupervised: Hebb|Hebb’sche Lernen]] wird als unsupervised oder selbstorganisiertes Lernen bezeichnet, da es keine Vorgabe gibt, wie der Output aussehen soll. Die Gewichtsveränderungen erfolgen in Abhängigkeit der Ähnlichkeit der Gewichte mit den Inputs bzw. Outputs.
* Das klassische [[Unsupervised: Hebb|Hebb’sche Lernen]] wird als '''unsupervised''' oder '''selbstorganisiertes''' Lernen bezeichnet, da es keine Vorgabe gibt, wie der Output aussehen soll. Die Gewichtsveränderungen erfolgen in Abhängigkeit der Ähnlichkeit der Gewichte mit den Inputs bzw. Outputs.
* Beim [[Supervised|supervised]] beziehungsweise error-driven Lernen ist das Endergebnis bekannt und die Gewichtsanpassung erfolgt in Abhängigkeit der Abweichung vom Zielmuster (teaching output).  
* Beim '''[[Supervised|supervised]]''' beziehungsweise '''error-driven''' Lernen ist das Endergebnis bekannt und die Gewichtsanpassung erfolgt in Abhängigkeit der Abweichung vom Zielmuster (teaching output).  
* Eine weitere Form ist das [[Reinforcement]]- oder Verstärkungslernen, bei dem kein Output vorgegeben wird, sondern nur eine Rückmeldung darüber, ob der vom Netz erzeugte Output korrekt ist oder nicht.
* Eine weitere Form ist das '''[[Reinforcement]]-''' oder '''Verstärkungslernen''', bei dem kein Output vorgegeben wird, sondern nur eine Rückmeldung darüber, ob der vom Netz erzeugte Output korrekt ist oder nicht.


Wenn die Trainingsphase beendet ist, kann eine Testphase angeschlossen werden, die Auskunft darüber gibt, was und wie viel das [[Neuronale Netze|neuronale Netz]] gelernt hat. Dazu werden erneut Inputmuster präsentiert, jedoch ohne anschließende Veränderung der Gewichte. Es wird lediglich beobachtet, welchen Output das Netzwerk berechnet und mit dem korrekten Output abgeglichen. Neben der erneuten Präsentation der Ausgangsmuster ist es möglich, neue Inputmuster einzuführen, um die Generalisierungsfähigkeit des Netzes zu überprüfen.
Wenn die Trainingsphase beendet ist, kann eine Testphase angeschlossen werden, die Auskunft darüber gibt, was und wie viel das [[Neuronale Netze|neuronale Netz]] gelernt hat. Dazu werden erneut Inputmuster präsentiert, jedoch ohne anschließende Veränderung der Gewichte. Es wird lediglich beobachtet, welchen Output das Netzwerk berechnet und mit dem korrekten Output abgeglichen. Neben der erneuten Präsentation der Ausgangsmuster ist es möglich, neue Inputmuster einzuführen, um die Generalisierungsfähigkeit des Netzes zu überprüfen.


[[Datei:Lernen.PNG]]
[[Datei:Lernen.PNG]]

Version vom 24. August 2018, 16:27 Uhr

Lernen

Die Verbindungsgewichte zwischen Neuronen bzw. Knoten bilden das „Gedächtnis“ neuronaler Netze. In ihnen ist das Wissen gespeichert, welches das neuronale Netz während seiner Verarbeitung von Input-Information (der Trainingsphase) erworben hat. Zu Beginn werden die Gewichte üblicherweise zufällig gewählt oder alle mit Null beziehungsweise einem anderen Fixwert initialisiert. Darauf folgt die Trainingsphase, in welcher dem neuronalen Netz ein Set an Inputmustern dargeboten wird. Die Aktivierung der Inputneuronen breitet sich im Netzwerk aus und regt eine Modifikation der Verbindungsgewichte an (=> Lernen). Das grundlegende Prinzip der Gewichtsveränderung stammt von Hebb (1949): „What fires together, wires together“. Damit wird ausgedrückt, dass die Verbindung zwischen zwei gemeinsam aktivierten Neuronen stärker wird.

Im Grunde lassen sich drei Arten von Lernregeln unterscheiden:

  • Das klassische Hebb’sche Lernen wird als unsupervised oder selbstorganisiertes Lernen bezeichnet, da es keine Vorgabe gibt, wie der Output aussehen soll. Die Gewichtsveränderungen erfolgen in Abhängigkeit der Ähnlichkeit der Gewichte mit den Inputs bzw. Outputs.
  • Beim supervised beziehungsweise error-driven Lernen ist das Endergebnis bekannt und die Gewichtsanpassung erfolgt in Abhängigkeit der Abweichung vom Zielmuster (teaching output).
  • Eine weitere Form ist das Reinforcement- oder Verstärkungslernen, bei dem kein Output vorgegeben wird, sondern nur eine Rückmeldung darüber, ob der vom Netz erzeugte Output korrekt ist oder nicht.

Wenn die Trainingsphase beendet ist, kann eine Testphase angeschlossen werden, die Auskunft darüber gibt, was und wie viel das neuronale Netz gelernt hat. Dazu werden erneut Inputmuster präsentiert, jedoch ohne anschließende Veränderung der Gewichte. Es wird lediglich beobachtet, welchen Output das Netzwerk berechnet und mit dem korrekten Output abgeglichen. Neben der erneuten Präsentation der Ausgangsmuster ist es möglich, neue Inputmuster einzuführen, um die Generalisierungsfähigkeit des Netzes zu überprüfen.

Lernen.PNG