Yapay Sinir Ağlarında Transfer Fonksiyonları
9- Softmax (Soft Max Transfer Function)
İçindekiler

Denklemimiz:
softmax(n) = exp(n)/sum(exp(n))
Bu fonksiyonda sum (toplam) ifadesinde görüldüğü gibi bütün girdiler devreye girmektedir. Dolayısıyla softmax(n) ifadesini tek başına kullanırsak her zaman 1 değerini verecektir. Yani softmax(0), softmax(10), softmax(-1) vs vs sorgularsak her zaman 1 sonucunu alırız. Sağlamalı bir inceleme yapmadım ama formülden anlaşıldığı kadarıyla, ağ kurarken bu fonksiyonu kullandığımızda bütün girdilerin e üssünü alacak ve her birini bu değerlerin toplamına bölecektir. 1 sütunlu 5 satırlı bir setten örnek vermem iyi olacak gibi.
| n | exp(n) | exp(n)/sum(exp(n)) | |
|---|---|---|---|
| 3 | 20,086 | 20,086/26,620= | 0,75455 |
| -2 | 0,135 | 0,135/26,620= | 0,00507 |
| 1,3 | 3,669 | 3,669/26,620= | 0,13783 |
| -5 | 0,011 | 0,011/26,620= | 0,00041 |
| 1 | 2,718 | 2,718/26,620= | 0,10210 |
| ? | 26,620 | ||
Görüldüğü gibi bu veri setinde n=3 iken softmax fonksiyonu ile alınan çıktı 0,75455; -5 için 0,0004’tir. Vs vs

