Zurück Vor +Ebene Home Inhalt Index Hilfe

Lernrate

Lernrate (engl. learning rate): Bestimmt den Verlauf des Gradientenabstiegs. Kleinere Lernrate führt zu kleineren Sprüngen in der Objektfunktion und eventuell auch exakterer Adaption. Größere Lernrate kann den Lernvorgang beschleunigen und Entkommen aus lokalen Minima erleichtern. Eine geeignete Lernrate ist von Fall zu Fall durch Probieren zu ermitteln.

Objektfunktion während des Lernens (links: große Lernrate, rechts: kleine Lernrate)

Inkrementelles Lernen  (engl. incremental learning), die Anpassung der Gewichte jeweils nach der Präsentation eines einzelnen Musters. Dazu wird für jedes Lern-Muster einmal der Gradient einer entsprechenden Objektfunktion berechnet. Es wird also kein ,,echter`` Gradientenabstieg durchgeführt, bei dem alle zu lernenden Muster auf einmal erfaßt würden ( Batch Learning ).
 
Bei großen Datensätzen, die viele Wiederholungen beinhalten, kann inkrementelles Lernen eine unter Umständen erhebliche Verminderung des Aufwands für das Lernen bewirken. Auch vermindert sich die Wahrscheinlichkeit, daß sich der Lernvorgang in lokalen Minima verfängt, vor allem, wenn nach jedem Lernzyklus die Reihenfolge der Muster im Lernsatz (zufällig) durchmischt wird.

Zurück Vor +Ebene Home Inhalt Index Hilfe

Copyright Verlag Harri Deutsch AG  Stöcker DeskTop Mathematik