Zusammenfassung



Next: References Up: Parallele Backpropagation Previous: Auswertung

Zusammenfassung

Für die Parallelisierung des zeitaufwendigen Trainings Neuronaler Netze mit der Backpropagation-Lernregel bieten sich zwei Verfahren an: Die Aufteilung des Trainingssets beim parallelen Batch-Learning und die Parallelisierung der notwendigen Matrix-Vektor-Operationen beim On-Line-Training. Beide Verfahren lassen sich in der Güte und der Geschwindigkeit der Konvergenz durch die modifizierte Lernregel noch steigern. Dabei wächst die Zahl der Neuronen in den Hidden-Schichten durch Aufspaltung schlecht trainierter Neuronen.

Die Kombination der vorgestellten Verfahren führt dazu, gut adaptierende Neuronale Netze schnell zu trainieren.



Frank M. Thiesing
Mon Dec 19 15:35:21 MET 1994