Podręcznik
1. Modele neuronów
1.6. Model neuronu Hebba
Donald O. Hebb, badając działanie komórek nerwowych [24] zauważył, że powiązanie wagowe dwóch komórek jest wzmacniane, jeśli obie komórki są jednocześnie pobudzone (stają się aktywne). Jeśli -ta komórka o sygnale wyjściowym powiązana jest z -tą o sygnale wyjściowym przez wagę , wówczas na stan powiązań tych komórek wpływają wartości ich sygnałów oraz .
D. Hebb zaproponował regułę matematyczną, w której uwzględniony został wynik tej obserwacji. Zgodnie z regułą Hebba, zmiana wagi neuronu odbywa się proporcjonalnie do iloczynu jego sygnału wejściowego oraz wyjściowego [46]
(1.18) |
przy współczynniku reprezentującym wartość stałej uczenia. Reguła Hebba może być stosowana do różnego typu struktur sieci neuronowych i różnych funkcji aktywacji zastosowanych w modelu neuronu.
Ogólny model neuronu Hebba, przedstawiony na rys. 1.7, odpowiada standardowej postaci modelu. Waga włączona jest między sygnałem wejściowym a węzłem sumacyjnym -tego neuronu o sygnale wyjściowym .
Uczenie neuronu z zastosowaniem reguły Hebba może się odbywać w trybie bez nauczyciela lub z nauczycielem. W pierwszym przypadku w regule Hebba używa się aktualnej wartości sygnału wyjściowego neuronu (wzór (1.18)). W uczeniu z nauczycielem wartość sygnału wyjściowego zastępuje się wartością zadaną dla tego neuronu. Regułę Hebba można wówczas zapisać w postaci
(1.19) |
Reguła Hebba charakteryzuje się tym, że w jej wyniku wagi mogą przybierać wartości dowolnie duże i nie podlegają stabilizacji, gdyż w każdym cyklu uczącym następuje proces sumowania aktualnych przyrostów wartości wag.
Jedną z metod poprawy stabilności procesu uczenia według reguły Hebba jest przyjęcie przy aktualizacji wag nie ostatniej wartości ale wartości zmniejszonej o tak zwany współczynnik zapominania Wówczas regułę Hebba można zapisać w postaci
(1.20) |
Współczynnik zapominania zawiera się zwykle w przedziale (0, 1) i stanowi najczęściej niewielki procent stałej uczenia . Przyjęcie dużej wartości powoduje, że neuron zapomina większość tego, co zdołał nauczyć się w przeszłości. Uczenie Hebba zaliczane jest do uczenia typu korelacyjnego, gdyż w swojej istocie uwzględnia korelacje zachodzące między sygnałami neuronów sieci.
Stabilizacja reguły Hebba przez wprowadzenie współczynnika zapominania zawodzi w przypadku neuronu liniowego. Dla neuronu liniowego Hebba jego sygnał wyjściowy opisany jest zależnością linową , w której jest wektorem wagowym neuronu -tego a wektorem sygnałów wejściowych tego neuronu. Zostało udowodnione, że w takim przypadku wartości wag procesie uczenia nigdy nie stabilizują się, a proces uczenia się nie kończy. Stabilizacja wag (połączona z jednoczesną normalizacją) jest możliwa przez wprowadzenie modyfikacji reguły Hebba. Zgodnie z modyfikacją zaproponowana przez E. Oję [46] aktualizacja wag wektora przebiega według wzoru
(1.21) |
Reguła ta przypomina propagację wsteczną, gdyż sygnał jest modyfikowany przez sygnał wsteczny, pochodzący od sygnału wyjściowego neuronu. Przy jednym neuronie reguła Oji jest regułą lokalną, gdyż w procesie modyfikacji sygnału bierze udział tylko waga, którą aktualnie adaptujemy.