Die Back Propagation (Fehlerrückführung) ist die bei neuronalen Netzen am häufigsten eingesetzte Lernmethode. Etwa 80% der heutzutage verwendeten Netze fallen unter diese Kategorie. Back Propagation (BP) bezeichnet dabei die verwendete Lernmethode des Netzwerks und nicht die Netzwerkstruktur als solche.Ein Netzwerk mit BP funktioniert prinzipiell so wie das in Teil 1 behandelte: Sie bringen die Inputs an und berechnen die Outputs genau wie beschrieben. Die Fehlerrückführung erlaubt es Ihnen, die Gewichtungen zu verändern, so dass das Netzwerk lernt und Ihnen den gewünschten Output gibt. Die Gewichtungen, mit denen das Netzwerk zu arbeiten beginnt, können Sie im unteren Zahlenbereich willkürlich wählen (beispielsweise zwischen -1 und +1).
Diskussion (0 Kommentare)