11.6. Cauchy Training of Neural Network

Karena pelatihan Boltzman dari jaringan saraf seperti pada Secs. 11,2-11,4 sangat lambat, metode stokastik cepat berdasarkan distribusi probabilitas Cauchy adalah diusulkan oleh Szu (1986). Distribusi Cauchy perubahan energi :
untuk menghasilkan fungsi distribusi lagi (surut lebih lambat) ekor daripada di kasus Boltzman atau distribusi Gaussian. Perhatikan bahwa untuk Cauchy distribusi:
var (ΔE) = ∞ !!
Ketika distribusi Cauchy digunakan untuk Δw, resultan Δw akan memuaskan
Δw = ρT · tan [p (Δw)] (11.9)
ρ menjadi koefisien tingkat belajar. Langkah (3) dan langkah (4) dari prosedur framing
dari Sec. 11.3 demikian akan menjadi:
(3.a) Pilih nomor n acak dari distribusi seragam antara 0 dan 1 dan biarkan p (Δw) = n dimana p (Δw) adalah dalam bentuk persamaan. (11.8) di atas
(3.b) Selanjutnya, menentukan Δw melalui Persamaan.) untuk memenuhi Δw = ρT · tan (n) (11.11)
di mana T diperbarui oleh: T =Untuk1 + k ,untuk k = 1, 2, 3,. . . kontras dengan terbalik tingkat Sec log. 11.5. Perhatikan bahwa algoritma baru untuk T mengingatkan kondisi Dvoretzky untuk konvergensi dalam pendekatan stokastik [Graupe, 1989].
(4) Mempekerjakan Cauchy atau distribusi Boltzman di (4) dari Sec. 11.3. Metode pelatihan di atas adalah lebih cepat dari pelatihan Boltzman. Namun, masih sangat lambat. Selain itu, dapat mengakibatkan langkah ke arah yang salah menyebabkan ketidakstabilan. Karena Cauchy-mesin dapat menghasilkan Δw sangat besar, jaringan bisa mendapatkan terjebak. Untuk menghindari hal ini, batasan keras dapat ditetapkan. Atau, Δw dapat tergencet
menggunakan algoritma yang sama dengan yang digunakan untuk fungsi aktivasi, yaitu:
M menjadi batas keras pada amplitudo Δw.

[Kembali]

Komentar

Postingan populer dari blog ini

MUTS

5.1. Madaline Training

11.1. Fundamental Philosophy