9.2. The ART Network Structure

(a) The comparison layer (CL)
Sebuah XJ elemen biner dari m-dimensi vektor masukan x dimasukkan ke dalamj (j = 1·m; m = dim (x)) neuron dari CL. j neuron juga diinput oleh jumlah tertimbang (pj) dari pengakuan-output vektor r dari RL di mana
9.1
9.2
ri menjadi komponen bukan dari m-dimensi pengakuan-output vektor r dari lapisan RL dan n menjadi jumlah kategori untuk diakui.
Selain itu, semua neuron CL menerima output skalar g1 sama sama elemen G1. m-dimensi (m = dim (x)) keluaran biner perbandingan-layer vektor c dari lapisan CL awalnya sama dengan vektor input, yaitu, pada awal perulangan
cj(0) = xj(0) (9.2)
Also, initially:
g1(0) = 1 (9.3)
CL ini vektor output c memenuhi (dua pertiga) kekuasaan mayoritas kebutuhan s.t. -nya output
cj = 1
setidaknya dua dari tiga input ini (CL) neuron adalah 1. Oleh karena itu, pers. (9.2), (9.3)
menyiratkan, oleh “dua pertiga mayoritas” aturan, yang awalnya
c(0) = x(0) (9.4)
karena awalnya tidak ada umpan balik ada dari lapisan RL, sementara g1 (0) = 1.

(b) The recognition layer (RL)
Lapisan RL berfungsi sebagai lapisan klasifikasi. Menerima sebagai masukan n-dimensi vektor bobot d dengan unsur-unsur dj, yang merupakan bentuk tertimbang CL ini vektor output c; s.t.
9.3
RL neuron dengan maksimal (winner) dj akan menampilkan “1” selama g2 = 1. Semua hal lain akan menampilkan nol. Oleh karena itu, lapisan RL berfungsi untuk mengklasifikasikan nya vektor input. Bobot bij dari j (winner) neuron RL (memiliki maksimal keluaran dj) bahwa merupakan sebuah contoh dari pola vektor c, di kesamaan untuk sifat-sifat memori BAM dibahas sebelumnya (Sec. 7.3), memenuhi keluaran dj
dj = cT c at maximum (as in the Kohonen layer) (9.6)
dj mungkin menjadi hasil maksimal dari Persamaan. (9.5), karena bj = c; di6 = j = 0. Kita mencapai penguncian dari satu neuron (neuron winner) untuk output yang maksimal dengan keluaran  (seperti dalam Sec 8.2.):
rj = 1 (9.7)
while all other neurons yield
ri6=j = 0 if ρ = 0 (no inhibition) (9.8)
dj menjadi mungkin hasil maksimal dari Persamaan. (9.5), karena bj = c; di6 = j = 0. Kita mencapai penguncian dari satu neuron (tujuan skema interkoneksi ini digunakan di RL yang didasarkan pada penghambatan lateral. Penghambatan interkoneksi lateral seperti pada Gambar. 9.2, di mana Output ri setiap neuron (i) terhubung melalui (negatif) matriks berat penghambatan L = {lij}, i 6 = j, di mana lij <0 untuk setiap neuron lain (j). Oleh karena itu, neuron dengan ae neuron winner) untuk maksimal yang output dengan keluaran winner-take-all (seperti dalam Sec 8.2.):
9.4
output yang besar menghambat semua neuron lain. Selanjutnya,umpan balik positif ljj> 0 digunakan sehingga setiap neuron keluaran rj diumpankan kembali dengan bonot yang positif untuk masukan sendiri untuk memperkuat output (untuk output “satu”). penguatan positif ini disebut sebagai resonansi adaptif untuk memotivasi istilah resonansi di “ART”.

(c) Gain and reset elements

Unsur-unsur gain manyediakan keluaran skalar yang sama untuk semua neuron yang bersangkutan seperti di gambar 1, g1 yang diinput ke neuron CL dan g2 RL neuron, di mana:
9.5
Oleh karena itu, jika setidaknya satu elemen dari x adalah 1 maka g2 = 1, jika ada unsur
g2 = 1 tetapi juga ada unsur r adalah 1 maka g1 = 1, yang lain g1 = 0. (Lihat Tabel 9.1). Perhatikan bahwa bar atas menunjukkan negasi, sedangkan ∩ menunjukkan logis “dan (persimpangan). Perhatikan bahwa jika OR (x) adalah nol, maka OR (r) selalu nol, oleh
derivasi dari r seperti di atas.
9.6
Akhirnya, elemen ulang mengevaluasi tingkat kesamaan antara input vektor x dan CL keluaran vektor c dalam hal η rasio, di mana:
9.7
η0 menjadi nilai pre-set awal toleransi, maka sinyal reset (ρ) dikeluarkan untuk menghambat neuron RL tertentu yang telah dipecat pada iterasi diberikan. Lihat gambar 9.2. Faktor ulang berdasarkan dari jarak Hamming antara vektor c dan x juga dapat dipertimbangkan.


[Kembali]

Komentar

Postingan populer dari blog ini

MUTS

5.1. Madaline Training

11.1. Fundamental Philosophy