Podręcznik
1. Sieci radialne RBF
1.2. Sieć radialna RBF
Najprostsza sieć neuronowa typu radialnego o jednym wyjściu działa na zasadzie wielowymiarowej aproksymacji, której zadaniem jest odwzorowanie różnych wektorów wejściowych
z przestrzeni wejściowej
-wymiarowej w zbiór
liczb rzeczywistych
odpowiadających wartościom zadanym
. Interpolacja odpowiada tu przyjęciu
neuronów ukrytych typu radialnego o centrach w wektorach
i określeniu takiej funkcji odwzorowania
, dla której spełnione są warunki
![]() |
(4.3) |
gdzie reprezentuje akceptowalny błąd dopasowania. Przy ograniczeniu się do
funkcji bazowych o różnych położeniach centrów
rozwiązanie aproksymujące można przedstawić w postaci [24, 46]
![]() |
(4.4) |
gdzie , wektory
są jest zbiorem centrów, które będą podlegać wyznaczaniu w procesie uczenia.
Rozwiązanie wyrażające funkcję aproksymującą w przestrzeni wielowymiarowej jako sumę wagową lokalnych funkcji bazowych typu radialnego (wzór 4.4) może być zinterpretowany w postaci sieci neuronowej radialnej przedstawionej na rys. 4.1, gdzie przyjęto strukturę o
wyjściach realizujących odwzorowanie
. Jest to struktura sieci dwuwarstwowej, w której jedynie warstwa ukryta reprezentuje odwzorowanie nieliniowe realizowane przez neurony o radialnej funkcji bazowej. Neuron wyjściowy jest zwykle liniowy, a jego rolą jest sumowanie wagowe sygnałów pochodzących od neuronów warstwy ukrytej. Waga
, podobnie jak w przypadku funkcji sigmoidalnych, reprezentuje polaryzację, wprowadzającą składnik stałego przesunięcia funkcji.

Uzyskana architektura sieci radialnych ma strukturę analogiczną do struktury wielowarstwowej sieci sigmoidalnej o jednej warstwie ukrytej. Rolę neuronów ukrytych pełnią tu radialne funkcje bazowe, różniące się kształtem od funkcji sigmoidalnych. Mimo podobieństwa istnieją również istotne różnice między obu typami sieci. Sieć radialna ma strukturę ustaloną o jednej warstwie ukrytej podczas gdy sieć sigmoidalna może mieć różną liczbę warstw, a neurony wyjściowe mogą być zarówno liniowe, jak i nieliniowe. Funkcja nieliniowa radialna jest zwykle typu gaussowskiego. Dla każdego neuronu ukrytego w sieci radialnej przyjmuje ona inne wartości parametrów oraz
, natomiast w sieci sigmoidalnej stosuje się identyczne funkcje aktywacji. Ponadto zauważmy, że argumentem funkcji radialnej jest euklidesowa odległość danego wektora
od wektora centrum
, podczas gdy w sieci sigmoidalnej jest to iloczyn skalarny wektorów
oraz
.
Dalsze rozważania, dla uproszczenia, przedstawione będą dla sieci z jednym wyjściem.
Zadanie aproksymacji polega na dobraniu odpowiedniej liczby oraz parametrów funkcji radialnych i takim doborze wag
aby rozwiązanie (4.4) najlepiej przybliżało rozwiązanie dokładne. Problem doboru parametrów funkcji radialnych oraz wartości wag
sieci w problemie regresji można zatem sprowadzić do minimalizacji funkcji celu, którą przy wykorzystaniu normy euklidesowej daje się zapisać w postaci
![]() |
(4.5) |
W równaniu tym reprezentuje liczbę neuronów radialnych, natomiast
liczbę par uczących
, gdzie
jest wektorem wejściowym, a
- odpowiadającą mu wielkością zadaną na wyjściu. Oznaczmy przez
wektor wielkości zadanych, przez
wektor wag sieci z uwzględnieniem polaryzacji (wartość
), a przez
- macierz radialną, zwaną macierzą Greena
![]() |
(4.6) |
Przy ograniczeniu liczby funkcji bazowych do , macierz
jest macierzą prostokątną o liczbie wierszy zwykle dużo większej niż liczba kolumn
. Przy założeniu znajomości parametrów funkcji radialnych macierz Greena jest ściśle określoną macierzą liczbową, a problem optymalizacyjny (4.6) sprowadza się do rozwiązania układu równań liniowych
![]() |
(4.7) |
względem wektora wagowego , a
jest wektorem jednostkowym związanym z wagą polaryzacji
. Wobec prostokątności macierzy
wektor wag
wyznacza się, wykorzystując pojęcie pseudoinwersji macierzy
, to jest
![]() |
(4.8) |
gdzie znak oznacza pseudoinwersję macierzy prostokątnej. W praktyce numerycznej pseudoinwersja jest obliczana zwykle przy wykorzystaniu dekompozycji SVD [4,16].