Batch-Size

Der Batch-Size bezieht sich auf die Anzahl der Trainingsbeispiele, die in einer Iteration einer Lernmethode wie Gradient Descent oder Stochastic Gradient Descent verwendet werden. Ein höherer Batch-Size führt normalerweise zu einer schnelleren Konvergenz des Modells, da die Gewichte des Modells weniger häufig aktualisiert werden. Ein niedrigerer Batch-Size kann jedoch dazu beitragen, das Modell vor Überanpassung zu schützen, da es mehr Variationen in den Trainingsdaten gibt.


» Glossar