Podręcznik
3. Zdolności generalizacyjne sieci neuronowych
3.9. Zadania i problemy
1. Zaprojektować sieć MLP modelującą krzywą magnesowania pierwotnego żelaza.
2. Zespół trzech klasyfikatorów został wytrenowany na tych samych danych uczących do rozpoznania 2 klas danych. W wyniku testowania zespołu na pięciu wektorach
uzyskano następujące wskazania klas klasyfikatorów dla poszczególnych danych
:
Klasyfikator 1: 1(
), 2(
), 2(
), 1(
), 2(
)
Klasyfikator 2: 2(
), 1(
), 2(
), 2(
), 2(
)
Klasyfikator 3: 1(
), 2(
), 1(
), 1(
), 2(
)
Podać ostateczne przypisania wektorów
(
) do klas stosując zasadę głosowania większościowego (majority voting).
3. Zaproponować wzory na współczynniki wagowe zespołu 3 klasyfikatorów neuronowych 2-klasowych działających na zasadzie większości ważonej. Przyjąć, że współczynniki te są zależne od znanej z góry dokładności klasyfikacji poszczególnych klasyfikatorów na
danych uczących.
4. Sieć neuronowa o 6 wagach
została wytrenowana przy użyciu algorytmu uczącego 2-go rzędu dla którego macierz hesjanu określona jest wzorem
Wyznaczyć wartości współczynnika ważności
metodą OBD i OBS (przy obliczeniach macierzowych można wykorzystać program Matlab). Porównać wyniki obu metod i numery wag, podlegające obcięciu.
5. Wyjaśnić pojęcia: przeuczenie sieci, technika "cross validation" oraz leave-one-out.
6. Korzystając z programu MLP.m (patrz opis programu w wykładzie 2) sprawdzić zdolność generalizacji dwu sieci neuronowych MLP o jednym wejściu, jednym wyjściu i dwu różnych liczbach neuronów ukrytych (
oraz
) realizujących aproksymację funkcji sinusoidalnej w jednym okresie przy wykorzystaniu 10 par danych uczących
odpowiadających temu okresowi. Dane testujące wygenerować w tym samym okresie poprzez przesunięcie zmiennej
w stosunku do danych uczących. Narysować wykresy funkcji aproksymowanej przez obie sieci na tle wartości zadanych.
![\mathbf{H}=\left[\begin{array}{rrrrrr}
1 & 0,1 & -0,2 & 0,4 & 0,1 & 0,1 \\
0,1 & 2 & 0,5 & -0,3 & -0,4 & 0,2 \\
-0,2 & 0,5 & 5 & 0,2 & 1,5 & -0,8 \\
0,4 & -0,3 & 0,2 & 4 & 1,5 & -1,2 \\
0,1 & -0,4 & 1,5 & 1,5 & 10 & 3,2 \\
0,1 & 0,2 & -0,8 & -1,2 & 3,2 & 8
\end{array}\right] \mathbf{H}=\left[\begin{array}{rrrrrr}
1 & 0,1 & -0,2 & 0,4 & 0,1 & 0,1 \\
0,1 & 2 & 0,5 & -0,3 & -0,4 & 0,2 \\
-0,2 & 0,5 & 5 & 0,2 & 1,5 & -0,8 \\
0,4 & -0,3 & 0,2 & 4 & 1,5 & -1,2 \\
0,1 & -0,4 & 1,5 & 1,5 & 10 & 3,2 \\
0,1 & 0,2 & -0,8 & -1,2 & 3,2 & 8
\end{array}\right]](https://esezam.okno.pw.edu.pl/filter/tex/pix.php/2efd78e25aebc76a2046e932a389f638.gif)