Podręcznik
2. Sieć perceptronu wielowarstwowego MLP
2.10. Zadania i problemy
1. Dany jest zbiór trzech wektorów trójwymiarowych
,
,
.
Określić kąt między poszczególnymi parami wektorów. Jak daleko jest do spełnienia warunku ortogonalności dla każdego przypadku?
2. Funkcja
błędu dla sieci neuronowej określona jest wzorem
, gdzie
- Określić
wartość optymalną wektora
przy
której funkcja celu osiągnie swoje minimum. -
Zastosować metodę największego spadku przy
oraz
dla wyznaczenia tego
minimum.
3. Wygenerować zestaw danych jednowymiarowych typu losowego o rozkładzie gaussowskim należących do dwu klas:
Zaprojektować klasyfikator MLP separujący te dane. Zilustrować wynik separacji na tle danych. Czy istnieje tylko jedno rozwiązanie teoretyczne? Skomentować wynik.
4. Narysować schemat sieci MLP o 2 wejściach, 3 sigmoidalnych neuronach ukrytych i jednym neuronie wyjściowym (również sigmoidalnym) oraz sieć dołączoną do niej dla generacji gradientu. Napisać wzory na składowe gradientu względem wag sieci.
5. Wagi
klasyfikatora liniowego 2-wejściowego (rys. 2.12) są znane i równe
,
,
. Na klasyfikator podano 4 wektory 
![]() |
![]() |
![]() |
![]() |
Określić przynależność tych wektorów do klasy 1 (u>0) lub klasy 2 (u<0). Zilustrować ich przynależność do klas na płaszczyźnie (x1, x2). Na podstawie tego rozkładu zaproponować inne wagi klasyfikatora, również rozwiązujące problem separacji obu klas.

6. Określić przynależność 3 wektorów wejściowych x do jednej z 2 klas przy użyciu sieci MLP o strukturze jak na rys. 2.13.
Przyjąć bipolarną funkcję aktywacji neuronów ukrytych oraz wyjściowych oraz następujące wartości wag: w10=-1, w11=1, w12=1, w20=1, w21=2, w22=4, w0=-1, w1=1, w2=1.

7. Sieć neuronowa jednowyjściowa realizuje następującą funkcję aproksymacyjną
w
której
reprezentuje funkcję
sigmoidalną unipolarną.
Zakładając wartości startowe wag sieci:
określić
gradient i hesjan funkcji celu dla jednej pary uczącej równej
,
gdzie
,
.
8. Dla danych z poprzedniego zadania wyznaczyć kierunek minimalizacji odpowiadający metodzie największego spadku oraz klasycznej metodzie Newtona (wzór 2.14). Sprawdzić czy zastosowanie metody newtonowskiej prowadzi w danych warunkach do minimum funkcji celu.
![\mathbf{g}=\left[\begin{array}{l}
0.8 \\
0.3
\end{array}\right] \mathbf{g}=\left[\begin{array}{l}
0.8 \\
0.3
\end{array}\right]](https://esezam.okno.pw.edu.pl/filter/tex/pix.php/f82c32a4c3ceca8f1c3fc338f0760c1c.gif)
![\quad \mathbf{H}=\left[\begin{array}{cc}
1 & 0,8 \\
0,8 & 1
\end{array}\right] \quad \mathbf{H}=\left[\begin{array}{cc}
1 & 0,8 \\
0,8 & 1
\end{array}\right]](https://esezam.okno.pw.edu.pl/filter/tex/pix.php/f6abef2157a711c48a207a4c95acbe0a.gif)




![\mathbf{x}_1=\left[\begin{array}{l} 1 \\ 1 \end{array}\right] \mathbf{x}_1=\left[\begin{array}{l} 1 \\ 1 \end{array}\right]](https://esezam.okno.pw.edu.pl/filter/tex/pix.php/c6937477a9cdcc06c7f0b1e7211e9945.gif)
![\mathbf{x}_2=\left[\begin{array}{l} 1 \\ -2 \end{array}\right] \mathbf{x}_2=\left[\begin{array}{l} 1 \\ -2 \end{array}\right]](https://esezam.okno.pw.edu.pl/filter/tex/pix.php/e100c9b4f02fd955fd672459553899be.gif)
![\mathbf{x}_3=\left[\begin{array}{l} -1 \\ -2 \end{array}\right] \mathbf{x}_3=\left[\begin{array}{l} -1 \\ -2 \end{array}\right]](https://esezam.okno.pw.edu.pl/filter/tex/pix.php/64ad19299de0aba61eb7eed09311c364.gif)
![\mathbf{x}_4=\left[\begin{array}{l} 3 \\ -1 \end{array}\right] \mathbf{x}_4=\left[\begin{array}{l} 3 \\ -1 \end{array}\right]](https://esezam.okno.pw.edu.pl/filter/tex/pix.php/bde62b58325ad657a9ab71cbfc825422.gif)
