Meßwerte



Next: Auswertung Up: Ergebnisse Previous: Ergebnisse

Meßwerte

In den folgenden drei Abbildungen werden neben einem Ausschnitt der Trainingsmenge (links des Trennstrichs) auch einige nicht trainierte, d.h. prognostizierte Werte dargestellt.

Um die Approximationsfähigkeit des FMP-Netzwerkes zu testen, werden zwei Ansätze gewählt. Zum einen wird aus drei aufeinanderfolgenden Gliedern der nächste Wert bestimmt. Dabei wird ein kleines Netz mit nur einer Hidden-Schicht mit sechs Neuronen trainiert (s. Abb. 7).

Der zweite Ansatz verfolgt das Ziel, mehr Informationen über die Vergangenheit einfließen zu lassen. Dabei werden die Werte von 30 Input-Neuronen durch zwei Hidden-Schichten mit zehn bzw. 15 Neuronen propagiert (s. Abb. 8).

 
Figure 7: Trainingsergebnisse eines Netzes mit sechs verborgenen Neuronen

 
Figure 8: Trainingsergebnisse eines Netzes mit 15 und 10 verborgenen Neuronen

Der Vergleich der Abbildungen 7 und 8 zeigt deutlich eine bekannte Problematik: Die Adaptionsfähigkeit des großen Netzes ist nicht höher als die des kleineren; es lernt lediglich die Trainingsmenge auswendig.

Als neue Variante im Vergleich zur herkömmlichen Methode wird die Zahl der Neuronen in der Hidden-Schicht gemäß der modifizierten Lernregel aufgespalten. Das Netz beginnt mit sechs Neuronen in der Hidden-Schicht und wächst bis auf 24 Neuronen. Dieses wird in Abbildung 9 verglichen mit zwei Netzen mit konstant sechs bzw. 24 Neuronen in der Hidden-Schicht. Das Trainingsset und die Abfrage entsprechen dem ersten Ansatz.

 
Figure 9: Vergleich der Trainingsergebnisse mit und ohne Neuronenaufspaltung



Frank M. Thiesing
Mon Dec 19 15:35:21 MET 1994