Fully Connected

Bu fonksiyon bloğu, yapay sinir ağları için tam bağlı (yoğun) bir katman uygular. Kullanıcılara çıktı boyutunu ve aktivasyon fonksiyonunu özelleştirme olanağı sağlar, böylece derin öğrenme modellerinin tasarımını kolaylaştırır.

📥 Girdiler

Bu fonksiyon bloğu, doğrudan sinir ağı katmanları ürettiği için girişi yoktur.

📤 Çıktılar

Bu fonksiyon bloğu doğrudan çıktı üretmez; bunun yerine, daha sonra değerlendirilebilecek bir sinir ağı modelinin mimarisine katkıda bulunur.

🕹️ Kontroller

Output Size Tam bağlı katmandaki çıktı nöronlarının sayısını ayarlamak için bir açılır menü. Seçenekler 8 ile 512 arasında değişmektedir.

Activation Function Katmanda kullanılan aktivasyon fonksiyonunu seçmek için bir açılır menü. Mevcut seçenekler:

  • None

  • relu

  • sigmoid

  • softmax

  • softplus

  • softsign

  • tanh

  • selu

  • elu

  • exponential

🎨 Özellikler

Customizable Layer Settings Kullanıcılar, eğitim sırasında modellerinin performansını iyileştirmek için çıktı sayısını ve aktivasyon fonksiyonlarını kolayca ayarlayabilir.

Integration with Keras Bu blok, katmanları sorunsuz bir şekilde oluşturmak için Keras kütüphanesini kullanır ve daha büyük modellere kolay entegrasyon sağlar.

📝 Kullanım Talimatları

  1. Open the Block: Fully Connected bloğunu AugeLab Studio iş akışınıza ekleyin.

  2. Set Output Size: Output Size açılır menüsünden istenilen çıktı nöronunun sayısını seçin.

  3. Select Activation Function: Activation Function açılır menüsünden tercih edilen aktivasyon fonksiyonunu seçin.

  4. Integrate into Model: Bu bloğun çıktısı, tamamlayıcı bir sinir ağı oluşturmak için diğer katmanlara bağlanabilir.

📊 Değerlendirme

Bu fonksiyon bloğu, belirtilen parametrelerle tam bağlı bir katman sağlar ve sinir ağı modeline katkıda bulunur.

💡 İpuçları ve Püf Noktaları

Choosing Activation Functions
  • İkili sınıflandırma görevleri için sigmoid kullanın.

  • Çoklu sınıflandırma için softmax kullanın.

  • Regresyon görevleri için linear (None olarak ayarlayın) kullanmayı düşünün.

Layer Stacking

Daha derin ağlar oluştururken, her katmanın arasında uygun aktivasyon fonksiyonlarıyla birden fazla tam bağlı katmanı üst üste yığmayı düşünün; bu, model kapasitesini artırabilir.

Tuning Output Size

Özel veri setiniz için optimal yapılandırmayı bulmak amacıyla farklı çıktı boyutlarıyla deney yapın. Çok az nörona sahip katmanlar yetersiz öğrenmeye neden olabilirken, çok fazla nöron aşırı öğrenmeye yol açabilir.

🛠️ Sorun Giderme

Layer Not Working as Expected

Çıktı boyutunun ve aktivasyon fonksiyonunun belirli kullanım durumunuza doğru şekilde ayarlandığından emin olun. Ayrıca, önceki katmanlardan gelen bağlantıların doğru veri akışı sağladığını kontrol edin.

Performance Issues

Modeliniz kötü performans gösteriyorsa, çıktı boyutunu veya aktivasyon fonksiyonunu ayarlamayı veya aşırı öğrenmeyi önlemek için dropout veya regularizasyon gibi teknikler uygulamayı düşünün.

Last updated