Backward Pass
Der Backward Pass ist der zweite Schritt im Trainingszyklus eines neuronalen Netzes. Nachdem die Daten durch das Netz geflossen sind und ein Fehler berechnet wurde (Forward Pass), werden im Backward Pass die Gradienten (die Änderungsraten des Fehlers) für alle Parameter berechnet. Dies ist mathematisch die Anwendung der Kettenregel der Differentialrechnung und liefert die Information, in welche 'Richtung' die Gewichte angepasst werden müssen.