Adam Optimizer
Adam (Adaptive Moment Estimation) ist einer der populärsten und effizientesten Optimierungsalgorithmen für das Training von Deep-Learning-Modellen. Er kombiniert die Vorteile von zwei anderen Methoden (AdaGrad und RMSProp), indem er adaptive Lernraten für jeden Parameter berechnet. Adam ist bekannt dafür, dass er oft 'out of the box' gut funktioniert, schnell konvergiert und robust gegenüber verschiedenen Problemstellungen ist.