6.3. Modified BP Algorithms



a.      Introduction of bias into NN
Hal ini sering menguntungkan untuk menerapkan beberapa bias ke neuron dari jaringan saraf (Lihat Gambar. 6.2). bias dapat dilatih bila dikaitkan dengan dilatih untuk menjadi dimodifikasi. Oleh karena itu bias diwujudkan dalam hal input dengan beberapa konstan (1 atau +B) masukan, dan bias bi tepat (di neuron i) kemudian diberikan

woi menjadi istilah bias yang di input ke neuron i (lihat Gambar. 7). bias bisa positif atau negatif.


b.      Incorporating momentum or smoothing to weight adjustment
The backpropagation (BP) algoritma untuk menghitung bobot neuron mungkin cenderung ketidakstabilan dalam kondisi operasi tertentu. Untuk mengurangi kecenderungan untuk ketidakstabilan Rumelhart et al. (1986) menyarankan untuk menambahkan istilah momentum untuk Persamaan. (6.1). Karenanya, Eq. (6.12) adalah modi ed untuk:

untuk m + 1 iterasi, dengan 0 < α <1; α menjadi koefisien momentum (biasanya sekitar 0,9). Kerja dengan α akan cenderung menghindari cepat fluktuasi, tapi mungkin tidak selalu bekerja, atau bahkan bisa merugikan konvergensi. Metode smoothing lain, untuk tujuan yang sama dan juga tidak selalu dianjurkan,
adalah bahwa m
enggunakan istilah smoothing seperti yang diusulkan oleh Sejnowski dan Rosenberg (1987), diberikan sebagai berikut:

dengan 0 < α <1. Perhatikan bahwa untuk α = 0 tidak ada terjadi smoothing. Persamaan (6.32) η antara 0 dan 1.

c.       Other modification concerning convergence
Peningkatan konvergensi dari algoritma BP sering dapat dicapai dengan memodifikasi kisaran fungsi sigmoid dari kisaran nol hingga satu, untuk rentang dari
-0: 5-0,5. Pengenalan umpan balik (lihat Ch. 12) kadang-kadang dapat digunakan.
Memodifikasi ukuran langkah dapat digunakan untuk menghindari algoritma BP dari mendapatkan terjebak (kelumpuhan belajar) atau dari berosilasi. Hal ini sering dicapai dengan mengurangi langkah ukuran, setidaknya ketika algoritma mendekati kelumpuhan atau ketika mulai berosilasi.
Konvergensi minimum lokal dapat dihindari dengan metode statistik dimana selalu ada kemungkinan gerakan jauh jaringan terbatas atau minimal nyata dengan langkah besar. Dimodifikasi (ulet) algoritma BP, seperti RPROP (Riedmiller dan Braun, 1993) sangat mempercepat konvergensi dan mengurangi kepekaan terhadap inisialisasi. Menganggap hanya tanda-tanda derivatif parsial untuk menghitung bobot oleh BP, daripada mereka nilai-nilai.

Komentar

Postingan populer dari blog ini

MUTS

5.1. Madaline Training

11.1. Fundamental Philosophy