11.6. Cauchy Training of Neural Network
Karena pelatihan Boltzman dari jaringan saraf seperti pada Secs.
11,2-11,4 sangat lambat, metode stokastik cepat berdasarkan distribusi
probabilitas Cauchy adalah diusulkan oleh Szu (1986). Distribusi Cauchy
perubahan energi :
untuk menghasilkan fungsi distribusi lagi (surut lebih lambat) ekor
daripada di kasus Boltzman atau distribusi Gaussian. Perhatikan bahwa
untuk Cauchy distribusi:
var (ΔE) = ∞ !!
Ketika distribusi Cauchy digunakan untuk Δw, resultan Δw akan memuaskan
Δw = ρT · tan [p (Δw)] (11.9)
ρ menjadi koefisien tingkat belajar. Langkah (3) dan langkah (4) dari prosedur framing
dari Sec. 11.3 demikian akan menjadi:
(3.a) Pilih nomor n acak dari distribusi seragam antara 0 dan 1 dan biarkan p (Δw) = n dimana p (Δw) adalah dalam bentuk persamaan. (11.8) di atas
(3.b) Selanjutnya, menentukan Δw melalui Persamaan.) untuk memenuhi Δw = ρT · tan (n) (11.11)
di mana T diperbarui oleh: T =Untuk1 + k ,untuk k = 1, 2, 3,. . . kontras dengan terbalik tingkat Sec log. 11.5. Perhatikan bahwa algoritma baru untuk T mengingatkan kondisi Dvoretzky untuk konvergensi dalam pendekatan stokastik [Graupe, 1989].
(4) Mempekerjakan Cauchy atau distribusi Boltzman di (4) dari Sec. 11.3.
Metode pelatihan di atas adalah lebih cepat dari pelatihan Boltzman.
Namun, masih sangat lambat. Selain itu, dapat mengakibatkan langkah ke
arah yang salah menyebabkan ketidakstabilan. Karena Cauchy-mesin dapat
menghasilkan Δw sangat besar, jaringan bisa mendapatkan terjebak. Untuk
menghindari hal ini, batasan keras dapat ditetapkan. Atau, Δw dapat
tergencet
menggunakan algoritma yang sama dengan yang digunakan untuk fungsi aktivasi, yaitu:
M menjadi batas keras pada amplitudo Δw.
[Kembali]
Komentar
Posting Komentar