Lernen

Aus eLearning - Methoden der Psychologie - TU Dresden
Zur Navigation springen Zur Suche springen

Die Verbindungsgewichte zwischen Neuronen bzw. Knoten bilden das „Gedächtnis“ neuronaler Netze. In ihnen ist das Wissen gespeichert, welches das neuronale Netz während seiner Verarbeitung von Input-Information (der Trainingsphase) erworben hat. Zu Beginn werden die Gewichte üblicherweise zufällig gewählt oder alle mit Null beziehungsweise einem anderen Fixwert initialisiert. Darauf folgt die Trainingsphase, in welcher dem neuronalen Netz ein Set an Inputmustern dargeboten wird. Die Aktivierung der Inputneuronen breitet sich im Netzwerk aus und regt eine Modifikation der Verbindungsgewichte an (=> Lernen). Das grundlegende Prinzip der Gewichtsveränderung stammt von Hebb (1949): „What fires together, wires together“. Damit wird ausgedrückt, dass die Verbindung zwischen zwei gemeinsam aktivierten Neuronen stärker wird.

Im Grunde lassen sich drei Arten von Lernregeln unterscheiden:

  • Das klassische Hebb’sche Lernen wird als unsupervised oder selbstorganisiertes Lernen bezeichnet, da es keine Vorgabe gibt, wie der Output aussehen soll. Die Gewichtsveränderungen erfolgen in Abhängigkeit der Ähnlichkeit der Gewichte mit den Inputs bzw. Outputs.
  • Beim supervised beziehungsweise error-driven Lernen ist das Endergebnis bekannt und die Gewichtsanpassung erfolgt in Abhängigkeit der Abweichung vom Zielmuster (teaching output).
  • Eine weitere Form ist das Reinforcement- oder Verstärkungslernen, bei dem kein Output vorgegeben wird, sondern nur eine Rückmeldung darüber, ob der vom Netz erzeugte Output korrekt ist oder nicht.

Wenn die Trainingsphase beendet ist, kann eine Testphase angeschlossen werden, die Auskunft darüber gibt, was und wie viel das neuronale Netz gelernt hat. Dazu werden erneut Inputmuster präsentiert, jedoch ohne anschließende Veränderung der Gewichte. Es wird lediglich beobachtet, welchen Output das Netzwerk berechnet und mit dem korrekten Output abgeglichen. Neben der erneuten Präsentation der Ausgangsmuster ist es möglich, neue Inputmuster einzuführen, um die Generalisierungsfähigkeit des Netzes zu überprüfen.


Lernen.PNG

Ein einfaches Beispiel für das Lernen in künstlichen neuronalen Netzen kann in der R-Shiny-App "Neuronale Netze" beobachtet und untersucht werden.