ReLU Layer
Bu fonksiyon bloğu, modelde doğrusal olmayanlık sağlamak için yaygın olarak kullanılan bir ReLU (Düzleştirilmiş Linear Birim) aktivasyon katmanını uygulamaktadır. Aktivasyon davranışını şekillendirmek için birkaç yapılandırma parametresi sunar.
📥 Girdiler
Bu blok doğrudan herhangi bir giriş soketine sahip değildir.
📤 Çıktılar
Bu blok doğrudan herhangi bir çıktı üretmez; genellikle verileri sinir ağı üzerinden işlemek için diğer düğümlerle bir sırayla bağlanır.
🕹️ Kontroller
Maximum Value
Bu kontrol, ReLU aktivasyonu için maksimum eşiği ayarlamanıza olanak tanır. Bu değeri aşan herhangi bir sayı, aşırı çıktıları önlemek için sınırlandırılır.
Negative Side Slope
Bu kontrol, negatif değerler için eğimi belirler. Sıfır değeri, standart ReLU davranışına karşılık gelir.
Activation Threshold
Burada, aktivasyonların sıfıra ayarlandığı eşiği tanımlayabilirsiniz; bu, hangi sinyallerin aktif olarak sayılacağını kontrol etmenize olanak tanır.
🎨 Özellikler
Customizable Activation Behavior
Kullanıcılar, maksimum çıktı değeri ve negatif eğim gibi ayarlanabilir parametreler aracılığıyla aktivasyon özelliklerini özelleştirebilir.
User-Friendly Interface
Arayüz, temel parametreleri yapılandırmak için karmaşık kodların içine dalmaya gerek kalmadan kolay erişim sağlar.
📝 Kullanım Talimatları
Set Maximum Value: Aktivasyon sırasında çıktıda istenen sınırı ayarlamak için
Maximum Value
alanını düzenleyin.Set Negative Slope: Gerekirse, negatif bölgelerde ReLU aktivasyonunun davranışını değiştirmek için
Negative Side Slope
için bir değer belirtin.Define Activation Threshold: Önemli değerlerin geçmesini sağlamak için aktivasyon sınırını ayarlamak için
Activation Threshold
kontrolünü kullanın.Integrate into Model: Convolutional veya yoğun katmanlardan sonra ReLU aktivasyonunu uygulamak için bu katmanı daha büyük bir modele bağlayın.
📊 Değerlendirme
Bu fonksiyon bloğu çalıştırıldığında, belirli ayarlarla bir ReLU katmanı yapılandırarak, sinir ağı katmanlarıyla entegre bir şekilde akışa katılır.
💡 İpuçları ve Püf Noktaları
🛠️ Sorun Giderme
Last updated