Gradient Descent

Gradient Descent ist ein Optimierungsalgorithmus, der verwendet wird, um die Gewichte in einem neuronalen Netzwerk oder einem anderen maschinellen Lernmodell anzupassen. Der Algorithmus nutzt den Gradienten der Verlustfunktion, um die Richtung zu bestimmen, in der die Gewichte angepasst werden sollen. Durch die wiederholte Anwendung von Gradient Descent können die Gewichte so angepasst werden, dass die Verlustfunktion minimiert wird und das Modell bessere Vorhersagen macht.


» Glossar