Training

Epoch

Eine Epoche (Epoch) ist eine Zeiteinheit im Training eines neuronalen Netzes. Sie definiert einen Zyklus, in dem der Lernalgorithmus den *gesamten* verfügbaren Trainingsdatensatz einmal komplett gesehen hat. Da KI-Training ein iterativer Prozess ist, reicht ein Durchgang fast nie aus.

Das Netz sieht die Daten, macht Fehler, passt die Gewichte an, und sieht die Daten in der nächsten Epoche erneut – diesmal mit etwas besserem Wissen. Das Training kann je nach Komplexität aus 10, 100 oder tausenden Epochen bestehen. Innerhalb einer Epoche werden die Daten meist noch in 'Batches' unterteilt, um die Updates häufiger durchzuführen.

Technik