13.5. Advanced Data Analysis Capabilities


Karena semua informasi dalam jaringan LAMSTAR dikodekan dalam korelasi link, LAMSTAR dapat dimanfaatkan sebagai alat analisis data. Dalam hal ini sistem menyediakan analisis data input seperti mengevaluasi pentingnya subwords input, kekuatan korelasi antara kategori, atau kekuatan korelasi antara neuron individu.
analisis sistem input data melibatkan dua tahap:
(1) pelatihan dari sistem (seperti yang dijelaskan dalam Sec. 13.4)
(2) analisis nilai-nilai link korelasi seperti yang dibahas di bawah ini.
Setelah fase pelatihan selesai, sistem LAMSTAR Link korelasi (link bobot) tertinggi dan pesan laporan yang terkait dengan kelompok di modul SOM dihubungkan dengan link ini. Link dapat dipilih dengan dua metode:
(1)       sponsor dengan nilai melebihi pra-defined threshold,
(2)       sejumlah nomor link di menghubungkan dengan nilai tertinggi.

13.5.1. Feature extraction and reduction in the LAMSTAR NN

Definisi I: Sebuah fitur dapat diekstraksi oleh matriks A (i; j) dimana i menunjukkan sebuah neuron dalam penyimpanan SOM modul j. Semua entri adalah 1 sedangkan sisanya adalah 0. Selanjutnya, A (i, j) dapat dikurangi melalui sifat (b) ke (e).
a.      sebagian besar (setidaknya) lebih tidak bisa subword (memori neuron) {i} semua modul SOM (yaitu, seluruh NN) sehubungan dengan output yang diberikan {dk} keputusan dan atas semua kata-kata input, dilambangkan sebagai [i*, s*/dk], diberikan oleh:


di mana p tidak sama dengan s, L (j, p / dk) yang menunjukkan berat hubungan antara j'th neuron di lapisan p dan memenangkan keluaran-layer neuron dk.

b.  setidaknya SOM signifikan modul {s **} per keputusan output yang diberikan {dk} atas semua kata-kata masukan diberikan oleh:

       Perhatikan bahwa untuk menentukan modul paling signifikan, ketidaksamaan di atas dibalik.

c.   neuron {i ** (dk)} yang paling signifikan dalam modul SOM tertentu per keputusan yang diberikan keluaran (dk), diberikan oleh i * (s; dk) sehingga:
       Perhatikan bahwa untuk menentukan neuron yang paling signifikan dalam modul (s), ketidaksamaan di 
       atas dibalik. 


d.        Redundancy via Internal Links: Jika link bobot L (p; a / q; b) dari setiap neuron {p} di lapisan {a} untuk beberapa neuron {q} di lapisan {b} sangat tinggi, WHILE itu (dekat) nol untuk setiap neuron lainnya di lapisan {b}, kita misalkan neuron {q} di lapisan {b} sebagai q (p). Sekarang, jika ini berlaku untuk semua neuron {p} di lapisan {a} yang pernah terpilih, maka lapisan {b} adalah REDUNDANT, selama jumlah neuron {p} lebih besar atau sama dengan jumlah {q (p) }, dan lapisan {b} harus dihapus.

Definisi II: Jika jumlah {q (p)} neuron kurang dari jumlah {p} neuron, maka lapisan {b} disebut INFERIOR LAYER bagi {a}.

e.        Zero-Information Redundancy: Jika hanya satu neuron yang selalu menang dalam lapisan (k), terlepas dari keputusan output, maka lapisan tidak mengandung informasi dan itu berlebihan.
 
[Kembali]

Komentar

Postingan populer dari blog ini

MUTS

5.1. Madaline Training

11.1. Fundamental Philosophy