Zurück Vor +Ebene Home Inhalt Index Hilfe

Standard Backpropagation

Wichtigstes Verfahren zur Berechnung des Gradienten einer Fehlerfunktion für vorwärtsgerichtete, zeitunabhängige Netze. Es beruht auf einer rückwärts gerichteten Weitergabe von sogenannten Fehler-Signalen  durch das Netz.

Fehler-Rückpropagation

Die typische Objektfunktion (eine Fehlerfunktion) summiert die Quadrate der Ausgabefehler an den einzelnen Ausgabe-Knoten. Nach der Berechnung aller Signale werden für jeden Ausgabe-Knoten ( Menge der Ausgabe-Knoten) das tatsächliche Signal und das gewünschte Signal verglichen:

Gewichts-Änderungen  berechnen sich mit Hilfe der Fehler-Signale nach

Fehler-Signale für Ausgabe-Knoten i () ergeben sich unmittelbar aus

Für versteckte Knoten gilt ():

(Für Eingabe-Knoten werden keine Fehler-Signale benötigt.)
 
Bei vorwärtsgerichteten Verbindungen können die Fehlersignale, beginnend an den Ausgabe-Knoten, sukzessive berechnet werden.
 
Sollen mehrere Muster auf einmal berücksichtigt werden ( Batch Learning ), so werden für jedes Muster entsprechende Fehler-Signale berechnet. Deren Beiträge zu den einzelnen Gewichts-Änderungen werden dann einfach summiert. Dies entspricht einer Summe über alle Lern-Muster in der Objektfunktion.
 
Überwachtes Lernen funktioniert häufig besser mit linearen Ausgabeknoten   (Sigmoidfunktion = Identität), da die Fehlersignale besser weitergegeben werden.
 
Binäre Eingabedaten sollten aus (statt aus ) gewählt werden, da Null-Signale nicht zum Lernen beitragen.

Zurück Vor +Ebene Home Inhalt Index Hilfe

Copyright Verlag Harri Deutsch AG  Stöcker DeskTop Mathematik