Optimizer Nadam
Bu fonksiyon bloğu, Adam ve Nesterov hızlandırılmış gradyanlarının avantajlarını birleştiren popüler bir optimizasyon algoritması olan Nadam optimizasyonunu uygular. Kullanıcılara optimizörle ilişkili çeşitli parametreleri ayarlama imkanı tanır.
📥 Girdiler
Bu fonksiyon bloğu herhangi bir girdi gerektirmez.
📤 Çıktılar
Bu bloğun çıktısı, sinir ağlarını eğitmekte kullanılabilecek Nadam optimizasyonu örneğidir.
🕹️ Kontroller
Learning Rate
Model parametrelerini güncelleme oranıdır. Tipik bir varsayılan değer 0.001
dir.
Beta 1
Bu parametre, ilk an tahminleri için üstel çürüme oranını kontrol eder. Standart değer genellikle 0.9
dur.
Beta 2
Bu parametre, ikinci an tahminleri için üstel çürüme oranını kontrol eder. Yaygın bir değer 0.999
dur.
Epsilon
Sayısal stabiliteyi artırmak için eklenen küçük bir sabit, genellikle 1e-07
olarak ayarlanır.
🎨 Özellikler
Parameter Configuration
Kullanıcılara Nadam optimizatörünün anahtar parametrelerini ihtiyaçlarına göre özelleştirme olanağı sağlar.
Real-time Updates
Parametrelerde yapılan değişiklikler gerçek zamanlı olarak yapılabilir, bu da optimizasyon sürecinde anında geri bildirim alınmasını sağlar.
📝 Kullanım Talimatları
Set Parameters: Sağlanan giriş alanlarını kullanarak
Learning Rate
,Beta 1
,Beta 2
veEpsilon
için istenen değerleri doldurun.Evaluate: Belirtilen parametreler temelinde bir Nadam optimizasyonu örneği oluşturmak için bloğu çalıştırın.
📊 Değerlendirme
Değerlendirme sonucunda, eğitimde kullanılabilecek yapılandırılmış Nadam optimizatörü çıktı olarak alınır.
💡 İpuçları ve Püf Noktaları
🛠️ Sorun Giderme
Last updated