6.2. Derivation of the BP Algorithm



Algoritma BP dimulai dari kebutuhan akan komputasi layers output, yang menjadi satu-satunya tempat output yang diinginkan tersedia, tetapi output dari layer tengan  tidak tersedia (lihat Gambar 6.1) sebagai berikut:
Misalkan " Ɛ " menunjukkan error-energi pada layer output, di mana:

k = 1 ... N; N adalah jumlah neuron pada layer output. Akibatnya, gradien "Ɛ“ diperhitungkan, di mana:

Sekarang, berdasarkan rumus tersebut didapatlah turunannya sebagai berikut:


j menunjukkan input jth ke neuron kth dari layer output, di mana:


Tanda minus (-) pada Persamaan (6.4) menunjukkan arah down-hill menuju minimum.
Nilai zk didapat dari:

XJ menjadi input jth ke neuron, dan menandakan bahwa yk adalah:

F menjadi fungsi nonlinear. Kemudian substitusikan

dan

p menunjukkan layer output, sehingga Persamaan (6.7) menjadi:

Definisikan:

kemudian Persamaan (6.9) menjadi:

dan, berdasarkan pers. (6.4) dan (6.11):

j menunjukkan input jth ke neuron kth dari layer output (p).
Selanjutnya, berdasarkan persamaan (6.10):

Tapi, berdasarkan Persamaan (6.1):

sedangkan, untuk non-linear sigmoid:

menunjukkan

Karena itu, berdasrkan pers. (6.13), (6.14) dan (6.16):

sehingga, pada layer output, berdasarkan pers. (6.4), (6.7):

di mana, sesuai dengan pers. (6.8) dan (6.13)

Φk dalam Persamaan (6.17), untuk menyelesaikan derivasi dari pengaturan bobot layer output.

Back-propagating untuk  rth hidden layer:
 Namun, "Ɛ” hanya dapat dipengaruhi oleh upstream neurons ketika salah satu propagates back-wards dari output. Tidak ada informasi lain yang tersedia pada tahap itu. Karena itu:
karena hanya wkj (r + 1) terhubung ke YJ (r).
Sehingga, berdasarkan pers. (6.13), (6.16) dan (6.25):

dan, sesuai dengan Persamaan (6.19):


Perlu diperhatikan bahwa kita tidak bisa mengambil derivatif parsial dari " Ɛ ” yang berhubungan dengan layer tersembunyi. Dengan demikian kita harus mengambil derivatif parsial dari "Ɛ” yang berhubungan dengan variabel upstream ke arah output, yang merupakan satu-satunya yang mempengaruhi Ɛ.  Pengamatan ini merupakan dasar untuk prosedur Back-Propagation, untuk mengatasi kurangnya akses data error di layer tersembunyi.


Komentar

Postingan populer dari blog ini

MUTS

5.1. Madaline Training

11.1. Fundamental Philosophy