3. Zdolności generalizacyjne sieci neuronowych

3.7. Zwiększanie zdolności generalizacyjnych poprzez użycie zespołu wielu sieci

W wielu zastosowaniach możliwe jest zwiększenie zdolności generalizacyjnych systemu poprzez równoległe zastosowanie wielu sieci na raz [49]. Jest to tak zwany zespół sieci neuronowych. Istnieje wiele metod rozwiązania zarówno uczenia poszczególnych sieci wchodzących w skład zespołu jak i integracji ich wyników działania. Przy ograniczonej liczbie danych istotne staje się przygotowanie danych uczących dla każdej sieci, prowadzących do możliwie niezależnych wyników dla każdej z nich.

Jednym z podejść jest zastosowanie tak zwanej techniki bagging (skrót od angielskojęzycznej nazwy Bootstrap AGGregatING). Przy zastosowaniu wielu sieci neuronowych dane uczące dla każdej z nich tworzy podzbiór  p  próbek wybieranych losowo z pełnego dostępnego zbioru danych. W ten sposób każda sieć jest trenowana na znacznie zróżnicowanym zbiorze danych, prowadząc w efekcie do różnych wyników testowania przy prezentacji na wejściu określonego wektora  \mathbf{x} .

Ostateczny wynik działania w trybie aproksymacji jest zwykle ustalany jako średnia lub średnia ważona z sygnałów wyjściowych poszczególnych sieci. Stosowane są również bardziej rozbudowane formy ustalania odpowiedzi bazujące na technice PCA lub ślepej separacji sygnałów [8]. W przypadku zadania klasyfikacyjnego stosuje się głosowanie klasyfikatorów, przy czym może być to zwykłe głosowanie większościowe (ang. majority voting) lub głosowanie większościowe ważone (ang. weighted majority voting) [65].

W przypadku głosowania większościowego ważonego wskazanie każdego klasyfikatora brane jest z odpowiednią wagą. Wagi te mogą być dobierane na wiele różnych sposobów [49]. Jednym z nich jest uwzględnienie dokładności lub precyzji poszczególnych klasyfikatorów na dostępnych danych uczących. Sprawniejszemu klasyfikatorowi przypisuje się większą wagę i w ten sposób wpływa on bardziej na wynik ostateczny klasyfikacji.