Optimizer Adamax
Bu fonksiyon bloğu, Adam optimizatörünün bir varyantı olan Adamax optimizatörünü yapılandırmak için tasarlanmıştır. Adamax, özellikle seyrek gradyanlarla çalışırken çeşitli makine öğrenimi görevleri için uygun bir seçenektir.
📥 Girdiler
Bu blokta herhangi bir girdi yoktur.
📤 Çıktılar
Blok, sinir ağlarını eğitmek için kullanılabilecek yapılandırılmış bir optimizatör çıktısı verir.
🕹️ Kontroller
Learning Rate
Kullanıcıların öğrenme oranını girebileceği bir alan; bu oran, modelin güncellenen ağırlıklarına her seferinde tahmin edilen hataya ne kadar yanıt vereceğini kontrol eder.
Beta 1
Gradyanların hareketli ortalamasını etkileyen ilk moment çürüme oranı için bir alan.
Beta 2
Kareli gradyanların hareketli ortalamasını etkileyen ikinci moment çürüme oranı için bir alan.
Epsilon
Bölümde sıfır hatalarını önlemek için eklenen küçük bir sabit, optimizasyon sırasında sayısal kararlılığı sağlar.
🎨 Özellikler
Flexible Configuration
Kullanıcılar, eğitim ihtiyaçlarına bağlı olarak öğrenme oranı, beta değerleri ve epsilon gibi parametreleri ayarlayabilir.
Easy Integration
Bu optimizatör, verimli model eğitimi için makine öğrenimi süreçlerine kolayca entegre edilebilir.
📝 Kullanım Talimatları
Set Learning Rate: İlgili alana bir öğrenme oranı girin. Yaygın olarak başlangıç noktası
0.001
dir.Adjust Beta Values:
Beta 1
veBeta 2
için uygun değerleri girin. Tipik değerlerBeta 1
için0.9
veBeta 2
için0.999
olabilir.Set Epsilon: Bölüm hatalarını önlemek için küçük bir epsilon değeri (örn.
1e-07
) girin.Evaluate: Yapılandırılmış optimizatörü oluşturmak için bloğu çalıştırın; bu optimizatör, sinir ağlarını eğitmekte kullanılabilir.
📊 Değerlendirme
Bu fonksiyon bloğu çalıştırıldıktan sonra, belirttiğiniz parametreleri içeren yapılandırılmış bir Adamax optimizatörü alacaksınız.
💡 İpuçları ve Püf Noktaları
🛠️ Sorun Giderme
Last updated