6.2. Derivation of the BP Algorithm
Algoritma BP dimulai dari kebutuhan
akan komputasi layers output, yang menjadi satu-satunya tempat output yang
diinginkan tersedia, tetapi output dari layer tengan tidak tersedia (lihat Gambar 6.1) sebagai
berikut:
Misalkan " Ɛ " menunjukkan error-energi
pada layer output, di mana:
k = 1 ... N; N adalah jumlah neuron pada layer
output. Akibatnya, gradien "Ɛ“ diperhitungkan, di mana:
Sekarang, berdasarkan rumus tersebut didapatlah
turunannya sebagai berikut:
j menunjukkan input jth ke neuron kth dari layer
output, di mana:
Tanda minus (-) pada Persamaan
(6.4) menunjukkan arah down-hill menuju minimum.
Nilai zk didapat dari:
Nilai zk didapat dari:
XJ menjadi input jth ke neuron, dan menandakan bahwa
yk adalah:
F menjadi fungsi nonlinear. Kemudian substitusikan
dan
p menunjukkan layer output, sehingga Persamaan (6.7)
menjadi:
Definisikan:
kemudian Persamaan
(6.9) menjadi:
dan, berdasarkan pers.
(6.4) dan (6.11):
j menunjukkan input jth ke neuron kth dari layer
output (p).
Selanjutnya, berdasarkan persamaan (6.10):
Tapi, berdasarkan
Persamaan (6.1):
sedangkan, untuk
non-linear sigmoid:
menunjukkan
Karena itu, berdasrkan
pers. (6.13), (6.14) dan (6.16):
sehingga, pada layer output, berdasarkan pers.
(6.4), (6.7):
di mana, sesuai dengan
pers. (6.8) dan (6.13)
Φk dalam Persamaan (6.17), untuk
menyelesaikan derivasi dari pengaturan bobot layer output.
Back-propagating untuk rth hidden layer:
Namun, "Ɛ” hanya dapat dipengaruhi oleh upstream neurons ketika salah satu propagates back-wards dari output. Tidak ada informasi lain yang tersedia pada tahap itu. Karena itu:
Namun, "Ɛ” hanya dapat dipengaruhi oleh upstream neurons ketika salah satu propagates back-wards dari output. Tidak ada informasi lain yang tersedia pada tahap itu. Karena itu:
karena hanya wkj (r + 1) terhubung ke YJ (r).
Sehingga, berdasarkan pers. (6.13), (6.16) dan (6.25):
Sehingga, berdasarkan pers. (6.13), (6.16) dan (6.25):
dan, sesuai dengan
Persamaan (6.19):
Perlu diperhatikan bahwa kita tidak bisa mengambil derivatif parsial dari " Ɛ ” yang berhubungan dengan layer tersembunyi. Dengan demikian kita harus mengambil derivatif parsial dari "Ɛ” yang berhubungan dengan variabel upstream ke arah output, yang merupakan satu-satunya yang mempengaruhi Ɛ. Pengamatan ini merupakan dasar untuk prosedur Back-Propagation, untuk mengatasi kurangnya akses data error di layer tersembunyi.
Komentar
Posting Komentar