6.3. Modified BP Algorithms
a.
Introduction
of bias into NN
Hal ini sering
menguntungkan untuk menerapkan beberapa bias ke neuron dari jaringan saraf (Lihat Gambar. 6.2). bias dapat
dilatih bila dikaitkan dengan dilatih untuk
menjadi
dimodifikasi. Oleh karena itu bias diwujudkan dalam hal input dengan beberapa konstan (1 atau +B)
masukan, dan bias bi tepat (di neuron i) kemudian diberikan
woi menjadi istilah bias yang di input ke
neuron i (lihat Gambar. 7). bias bisa positif atau negatif.
b.
Incorporating
momentum or smoothing to weight adjustment
The backpropagation
(BP) algoritma untuk menghitung bobot neuron mungkin cenderung ketidakstabilan dalam kondisi
operasi tertentu. Untuk mengurangi kecenderungan untuk ketidakstabilan Rumelhart et al. (1986) menyarankan
untuk menambahkan istilah momentum untuk Persamaan. (6.1). Karenanya, Eq. (6.12) adalah modi ed untuk:
untuk m + 1 iterasi,
dengan 0 < α
<1; α menjadi koefisien momentum (biasanya sekitar
0,9). Kerja dengan α
akan cenderung menghindari cepat
fluktuasi,
tapi mungkin tidak
selalu bekerja, atau bahkan bisa merugikan konvergensi. Metode smoothing lain, untuk tujuan
yang sama dan juga tidak selalu dianjurkan,
adalah bahwa menggunakan istilah smoothing seperti yang diusulkan oleh Sejnowski dan Rosenberg (1987), diberikan sebagai berikut:
adalah bahwa menggunakan istilah smoothing seperti yang diusulkan oleh Sejnowski dan Rosenberg (1987), diberikan sebagai berikut:
dengan 0 < α <1. Perhatikan bahwa untuk α = 0 tidak ada terjadi smoothing. Persamaan (6.32) η antara 0 dan 1.
c.
Other
modification concerning convergence
Peningkatan konvergensi
dari algoritma BP sering dapat dicapai dengan memodifikasi kisaran fungsi sigmoid dari kisaran
nol hingga satu, untuk rentang dari
-0: 5-0,5. Pengenalan umpan balik (lihat Ch. 12) kadang-kadang dapat digunakan. Memodifikasi ukuran langkah dapat digunakan untuk menghindari algoritma BP dari mendapatkan terjebak (kelumpuhan belajar) atau dari berosilasi. Hal ini sering dicapai dengan mengurangi langkah ukuran, setidaknya ketika algoritma mendekati kelumpuhan atau ketika mulai berosilasi.
-0: 5-0,5. Pengenalan umpan balik (lihat Ch. 12) kadang-kadang dapat digunakan. Memodifikasi ukuran langkah dapat digunakan untuk menghindari algoritma BP dari mendapatkan terjebak (kelumpuhan belajar) atau dari berosilasi. Hal ini sering dicapai dengan mengurangi langkah ukuran, setidaknya ketika algoritma mendekati kelumpuhan atau ketika mulai berosilasi.
Konvergensi minimum lokal dapat dihindari dengan metode
statistik dimana selalu ada kemungkinan gerakan jauh jaringan terbatas
atau minimal nyata dengan langkah besar.
Dimodifikasi
(ulet) algoritma BP, seperti RPROP
(Riedmiller dan Braun, 1993)
sangat mempercepat konvergensi dan mengurangi kepekaan terhadap inisialisasi.
Menganggap hanya
tanda-tanda derivatif parsial
untuk menghitung bobot oleh BP, daripada mereka nilai-nilai.
Komentar
Posting Komentar