Küszöbszintes hálózatok: Perceptron és Adaline
A Preceptront a kései 1950-es években publikálta Rosenblat. Ez egy egyrétegű hálózat, amely egy vagy több, a bemenetekhez wio súlyfaktorokon kersztül kötött, kimeneti o neuronból áll. Az összes kimeneti neuron az összes bemeneti neuronnal kapcsolatban áll. A legegyszerűbb esetben a hálózat csak két bemeneti és egy kimeneti neuronból áll. A kimeneti neuron bemenete a bemeneti neuronok súlyozott összege plussz a bias.
A kimeneti aktivációt az előző cikkben ismertetettek szerint a következő fv.-vel számíthatjuk:A hálózat küszöbszintes (Heaviside, sgn), mivel a kimenet állapota adott küszöb értéktől függ, ami jelen esetben a 0:A hálózat kimenete ezáltal a bemenetek állapotától függően +1 vagy -1 lehet, így besorolásra lehet használni. Ha az összegezett bemenet pozitív, akkor az egyik csoportba tartozik a bemeneit minta, ha negatív, akkor a másikba. Ez a felosztás egy egyenes menti felosztást eredményez, amelynek a függvénye:Ebből látszik, hogy a bias a besoroló egyenes ofszet értékét adja meg:
(A képre kattintva megtekintheted jobb minőségben.)A Perceptron tanulási folyamta:
Bemenő minták: X vector.
Kimenet: d(X), ami osztályozó feladat esetén általában +1 és -1.
Ilyen esetekben a perceptron tanulási szabálya egyszerű:
- Véletlenszerűen kiválasztott súlyokkal kezdjük.
- Az oktató csoportból kiveszünk egy X vektort.
- Ha y != d(X) akkor a súlyokat d wi= d(X) * xi értékkel megváltoztatjuk.
- Vissza a 2. pontba.
Nincsenek megjegyzések:
Megjegyzés küldése