ReLU Layer
Dieser Funktionsblock implementiert eine ReLU (Rectified Linear Unit) Aktivierungsschicht, die häufig in neuronalen Netzwerken verwendet wird, um Nichtlinearität in das Modell einzuführen. Er bietet mehrere Konfigurationsparameter zur Formung des Verhaltens der Aktivierung.
📥 Eingänge
Dieser Block hat keine direkten Eingangsbuchsen.
📤 Ausgänge
Dieser Block erzeugt keine Ausgaben direkt; er wird typischerweise in einer Sequenz mit anderen Knoten verbunden, um Daten durch das neuronale Netzwerk zu verarbeiten.
🕹️ Steuerungen
Maximum Value
Diese Steuerung ermöglicht es Ihnen, den maximalen Schwellenwert für die ReLU-Aktivierung festzulegen. Jede Zahl, die diesen Wert überschreitet, wird begrenzt, um übermäßige Ausgaben zu verhindern.
Negative Side Slope
Diese Steuerung legt die Steigung für negative Werte fest. Ein Wert von null entspricht dem standardmäßigen ReLU-Verhalten.
Activation Threshold
Hier können Sie den Schwellenwert definieren, unter dem Aktivierungen auf null gesetzt werden, was eine Kontrolle darüber ermöglicht, was als aktives Signal zählt.
🎨 Funktionen
Customizable Activation Behavior
Benutzer können die Aktivierungsmerkmale durch anpassbare Parameter wie den maximalen Ausgangswert und die negative Steigung anpassen.
User-Friendly Interface
Das Layout bietet einfachen Zugriff zur Konfiguration kritischer Parameter, ohne in die Feinheiten des zugrunde liegenden Codes eintauchen zu müssen.
📝 Nutzungshinweise
Set Maximum Value: Passen Sie das Feld
Maximum Value
entsprechend der gewünschten Obergrenze für den Ausgang während der Aktivierung an.Set Negative Slope: Legen Sie bei Bedarf einen Wert für die
Negative Side Slope
fest, um das Verhalten der ReLU-Aktivierung in negativen Bereichen zu ändern.Define Activation Threshold: Verwenden Sie die Steuerung
Activation Threshold
, um eine Grenze für die Aktivierung festzulegen, damit nur signifikante Werte durchgelassen werden.Integrate into Model: Verbinden Sie diese Schicht innerhalb eines größeren Modells, um die ReLU-Aktivierung nach konvolutionalen oder dichten Schichten anzuwenden.
📊 Bewertung
Beim Ausführen dieses Funktionsblocks konfiguriert er eine ReLU-Schicht mit den angegebenen Einstellungen und integriert sich nahtlos in einen größeren Workflow, der neuronale Netzwerkmodule umfasst.
💡 Tipps und Tricks
🛠️ Fehlersuche
Last updated