Adam-Optimizer

Der ADAM-Optimizer ist ein Optimierungsalgorithmus, der in der Deep-Learning-Methode der künstlichen Intelligenz verwendet wird, um die Gewichte eines neuronalen Netzes anzupassen. Der Name steht für "Adaptive Moment Estimation". ADAM ist eine Erweiterung des Stochastic-Gradient-Descent-Verfahrens (SGD) und nutzt adaptive Schrittweiten und Momente, um die Lernrate automatisch zu justieren. Es ist ein effektiver Optimierungsalgorithmus, der in vielen Anwendungen verwendet wird.


» Glossar