Zurück Vor +Ebene Home Inhalt Index Hilfe

Kohonen-Modell

Das wohl bekannteste selbstorganisierende neuronale System. Jede Komponente eines Eingabevektors (jeder Eingabe-Knoten) wirkt über Verbindungen mit veränderlichen Gewichten auf eine Anzahl aktiver Knoten, denen ein geometrischer Zusammenhang zugeordnet ist.
 
Beispiel: eindimensionale (kettenförmige) Anordnung der aktiven Knoten.
 
Typischerweise reagieren im trainierten Netz benachbarte Knoten auf ähnliche Eingabewerte, wobei sich jeder Knoten auf einen bestimmten Bereich des Eingaberaums spezialisiert (Topologieerhaltung); die Auflösung (Zahl der ,,zuständigen`` Knoten) steigt mit der Wichtigkeit (Anzahl der ,,Stimuli``) des entsprechenden Areals im Eingaberaum.

Lernen im Kohonen-Modell. Links: Wahl der Knoten-Position mit maximaler Anregung; rechts: Adaption der Gewichte entsprechend der Knoten-Positionen

Die Gewichte werden mit Zufallswerten initialisiert. Für jeden Lernschritt unter einem Eingabevektor wird diejenige Knoten-Position ermittelt, für die der Wert

minimal ist.
 
Dies stellt eine Vereinfachung der Methode dar, nach Berechnung ,,herkömmlicher`` Knoten-Signale jeweils den Knoten mit maximalem Signal zu wählen.
 
Faßt man die Verbindungen jedes Knotens vektoriell auf, so muß also gelten

Gewichts-Änderungen:  Die Verbindungs-Gewichte für alle Knoten aus der ,,Umgebung`` des Knotens (hier tritt der geometrische Zusammenhang in Erscheinung) werden in Richtung auf die aktuelle Eingabe ,,verschoben``:

Der Einfluß der Verschiebung hängt von der Entfernung der den Knoten i und zugeordneten Positionen ab; die Intensitätsfunktion g muß dazu mit steigendem Abstand abnehmen.
 
Eine passende Wahl der Intensitätsfunktion ist zum Beispiel

mit als der Position des i-ten Ausgabe-Knotens und als Breite des beeinflußten Bereichs (hier eine Gauß-Glocke).
 
Die Lernrate gibt wieder die Größe der Lernschritte an.

Im Verlauf des Lernens werden dem Netz sehr viele verschiedene Eingabevektoren präsentiert, die meist zufällig (aber in der Regel nicht gleichverteilt) gewählt werden.
 
Ein- und Ausgaberaum können unterschiedliche Dimensionen haben.
 
Beispiel: Die Redundanz hochdimensionaler Daten soll unter Transformation in niederdimensionale Daten reduziert werden.
 
Um eine brauchbare Grobstruktur der Zuordnung zu erhalten, muß das Lernverfahren zu Beginn mit großem betrieben werden, das dann bei feiner werdender Zuordnung (Auflösung) verringert wird. Ebenso wird die Lernrate , die am Anfang groß gewählt wird, um rasch eine Struktur zu erzeugen, im Verlauf des Lernens verkleinert. Die Wahl entsprechender Verläufe ist stets mit einer gewissen Willkür verbunden.
 
Möglich sind zum Beispiel lineare, exponentielle oder hyperbolische Verläufe; die beste Wahl muß im Einzelfall durch Probieren ermittelt werden.

Zurück Vor +Ebene Home Inhalt Index Hilfe

Copyright Verlag Harri Deutsch AG  Stöcker DeskTop Mathematik