Sadece Neural ağları için programlama yapmaya başladım. Şu anda bir Backpropogation (BP) sinir ağının nasıl çalıştığını anlamaya çalışıyorum. BP ağlarında eğitim için algoritma oldukça basit olsa da, algoritmanın neden işe yaradığı konusunda herhangi bir metin bulamadım. Daha spesifik olarak, sinir ağlarında sigmoid fonksiyonlarını kullanarak haklı çıkarmak için bazı matematiksel akıl yürütmeyi ve onlara atılan neredeyse tüm veri dağılımlarını taklit eden şeyleri arıyorum.Sigmoid işlevleri neden Sinir Ağları'nda çalışır?
Teşekkürler!
Güzel cevap, ancak "sürekli (ve dolayısıyla farklılaşabilir)" varsayımı ayakta değildir. Örnek: sıfırda sürekli fakat farklılaştınlabilen abs (x). – Michael
Doğru, cevabımı düzenledim – mbatchkarov
Vikipedi makalesinde şunu yazıyor: * "Kurt Hornik, 1991'de aktivasyon işlevinin özel bir seçiminin olmadığını, bunun yerine nöral ağların varlık potansiyelini veren çok katmanlı ileri teknolojinin kendisi olduğunu gösterdi. Üniversal tahmin ediciler: Çıkış ünitelerinin her zaman doğrusal olduğu varsayılır. "* Aslında doğrusal olmayan bir aktivasyon fonksiyonuna ihtiyaç duyulduğu söylenemez. Ancak teoremin resmi ifadesi "kararsız, sınırlı ve tekdüze artan sürekli işlev" anlamına gelir - belki de * sınırlı * ve tekdüze parça doğrusal olmayanlığı ima eder? – Desty