Podręcznik
2. Sieć perceptronu wielowarstwowego MLP
2.10. Zadania i problemy
1. Dany jest zbiór trzech wektorów trójwymiarowych
![\mathbf{x}_1=\left[\begin{array}{c} 1 \\ 3 \\ \sqrt{2} \end{array}\right] \mathbf{x}_1=\left[\begin{array}{c} 1 \\ 3 \\ \sqrt{2} \end{array}\right]](https://esezam.okno.pw.edu.pl/filter/tex/pix.php/8c015497fd8160414bf4a1e8d20cf5ed.gif)
![\quad \mathbf{x}_2=\left[\begin{array}{c} 2 \\ -2 \\ \sqrt{8} \end{array}\right] \quad \mathbf{x}_2=\left[\begin{array}{c} 2 \\ -2 \\ \sqrt{8} \end{array}\right]](https://esezam.okno.pw.edu.pl/filter/tex/pix.php/5e199acf8ec11ff20fc362c063a79466.gif)
![\quad \mathbf{x}_3=\left[\begin{array}{c} 3 \\ -1 \\ \sqrt{6} \end{array}\right] \quad \mathbf{x}_3=\left[\begin{array}{c} 3 \\ -1 \\ \sqrt{6} \end{array}\right]](https://esezam.okno.pw.edu.pl/filter/tex/pix.php/a98492ba6b21d64c19c9743dc977a243.gif)
Określić kąt między poszczególnymi parami wektorów. Jak daleko jest do spełnienia warunku ortogonalności dla każdego przypadku?
2. Funkcja
błędu dla sieci neuronowej określona jest wzorem , gdzie
- Określić
wartość optymalną wektora
przy której funkcja celu osiągnie swoje minimum.
-
Zastosować metodę największego spadku przy
oraz
dla wyznaczenia tego minimum.
3. Wygenerować zestaw danych jednowymiarowych typu losowego o rozkładzie gaussowskim należących do dwu klas:
Zaprojektować klasyfikator MLP separujący te dane. Zilustrować wynik separacji na tle danych. Czy istnieje tylko jedno rozwiązanie teoretyczne? Skomentować wynik.
4. Narysować schemat sieci MLP o 2 wejściach, 3 sigmoidalnych neuronach ukrytych i jednym neuronie wyjściowym (również sigmoidalnym) oraz sieć dołączoną do niej dla generacji gradientu. Napisać wzory na składowe gradientu względem wag sieci.
5. Wagi
klasyfikatora liniowego 2-wejściowego (rys. 2.12) są znane i równe ,
,
. Na klasyfikator podano 4 wektory
![]() |
![]() |
![]() |
![]() |
Określić przynależność tych wektorów do klasy 1 (u>0) lub klasy 2 (u<0). Zilustrować ich przynależność do klas na płaszczyźnie (x1, x2). Na podstawie tego rozkładu zaproponować inne wagi klasyfikatora, również rozwiązujące problem separacji obu klas.

6. Określić przynależność 3 wektorów wejściowych x do jednej z 2 klas przy użyciu sieci MLP o strukturze jak na rys. 2.13.
Przyjąć bipolarną funkcję aktywacji neuronów ukrytych oraz wyjściowych oraz następujące wartości wag: w10=-1, w11=1, w12=1, w20=1, w21=2, w22=4, w0=-1, w1=1, w2=1.
7. Sieć neuronowa jednowyjściowa realizuje następującą funkcję aproksymacyjną
w
której reprezentuje funkcję
sigmoidalną unipolarną.
Zakładając wartości startowe wag sieci: określić
gradient i hesjan funkcji celu dla jednej pary uczącej równej
,
gdzie
,
.
8. Dla danych z poprzedniego zadania wyznaczyć kierunek minimalizacji odpowiadający metodzie największego spadku oraz klasycznej metodzie Newtona (wzór 2.14). Sprawdzić czy zastosowanie metody newtonowskiej prowadzi w danych warunkach do minimum funkcji celu.