Optimizer Nadam
Bu fonksiyon bloğu, Adam ve Nesterov hızlandırılmış gradyanlarının avantajlarını birleştiren popüler bir optimizasyon algoritması olan Nadam optimizasyonunu uygular. Kullanıcılara optimizörle ilişkili çeşitli parametreleri ayarlama imkanı tanır.
📥 Girdiler
Bu fonksiyon bloğu herhangi bir girdi gerektirmez.
📤 Çıktılar
Bu bloğun çıktısı, sinir ağlarını eğitmekte kullanılabilecek Nadam optimizasyonu örneğidir.
🕹️ Kontroller
Learning Rate Model parametrelerini güncelleme oranıdır. Tipik bir varsayılan değer 0.001dir.
Beta 1 Bu parametre, ilk an tahminleri için üstel çürüme oranını kontrol eder. Standart değer genellikle 0.9dur.
Beta 2 Bu parametre, ikinci an tahminleri için üstel çürüme oranını kontrol eder. Yaygın bir değer 0.999dur.
Epsilon Sayısal stabiliteyi artırmak için eklenen küçük bir sabit, genellikle 1e-07 olarak ayarlanır.
🎨 Özellikler
Parameter Configuration Kullanıcılara Nadam optimizatörünün anahtar parametrelerini ihtiyaçlarına göre özelleştirme olanağı sağlar.
Real-time Updates Parametrelerde yapılan değişiklikler gerçek zamanlı olarak yapılabilir, bu da optimizasyon sürecinde anında geri bildirim alınmasını sağlar.
📝 Kullanım Talimatları
Set Parameters: Sağlanan giriş alanlarını kullanarak
Learning Rate,Beta 1,Beta 2veEpsiloniçin istenen değerleri doldurun.Evaluate: Belirtilen parametreler temelinde bir Nadam optimizasyonu örneği oluşturmak için bloğu çalıştırın.
📊 Değerlendirme
Değerlendirme sonucunda, eğitimde kullanılabilecek yapılandırılmış Nadam optimizatörü çıktı olarak alınır.
💡 İpuçları ve Püf Noktaları
🛠️ Sorun Giderme
Last updated
Was this helpful?