Training

Regularization

Regularisierung umfasst Techniken, die verhindern sollen, dass ein Modell 'overfittet' (auswendig lernt). Methoden wie L1/L2-Regularisierung (Weight Decay) oder Dropout bestrafen zu komplexe Modelle oder zwingen sie dazu, nicht von einzelnen Features abhängig zu sein. Das Ziel ist bessere Generalisierung auf neuen Daten.

Optimization