ReLU-Funktion

Die ReLU-Funktion ist eine Aktivierungsfunktion, die häufig in neuronalen Netzen verwendet wird. Sie ist definiert als max(0,x) und gibt den Wert von x zurück, wenn er positiv ist, und 0, wenn er negativ ist. Die ReLU-Funktion ist nützlich, um die Effizienz von neuronalen Netzen zu erhöhen und das Problem des Verschwindens des Gradienten zu vermeiden.


» Glossar