Słownik opanowanych pojęć
Wykład 7 - Sieci samoorganizujące poprzez współzawodnictwo
Sieci Kohonena – sieci samoorganizujące poprzez współzawodnictwo i służące do grupowania danych wielowymiarowych w klastry reprezentowane przez centra.
WTA – strategia uczenia sieci samoorganizujących się przez konkurencję, gdzie tylko neuron zwycięzca adaptuje swoje wagi.
CWTA – zmodyfikowana strategia wyłaniania zwycięzcy w uczeniu WTA sieci samoorganizujących przez konkurencję, gdzie tylko neuron zwycięzca adaptuje swoje wagi.
WTM – strategia uczenia sieci samoorganizujących się przez konkurencję, gdzie neuron zwycięzca i jego najbliższe otoczenie adaptują swoje wagi.
Mapa Kohonena – sposób graficznego przedstawienia rozkładu danych wielowymiarowych w przestrzeni dwu-wymiarowej.
Normalizacja wektorów – przeskalowanie wektorów do określonego zakresu zmian wartości ich elementów.
Neuron martwy – neuron, który nigdy nie zwyciężył w konkurencji.
Kwantyzacja wektorowa – zastąpienie wartości wektorów w klastrze danych przez centrum danego klastra.
Błąd kwantyzacji – sumaryczny błąd popełniany przy reprezentacji danych tworzących klaster przez centrum tego klastra.
Algorytm gazu neuronowego – jedna z implementacji strategii WTM w uczeniu sieci samoorganizujących poprzez konkurencję.
Odwzorowanie Sammona – nieliniowe rzutowanie danych z dowolnej przestrzeni N-wymiarowej w przestrzeń M-wymiarową
Program Kohon – graficzny interfejs użytkownika w Matlabie do eksperymentów z siecią Kohonena.
PSNR – miara jakości obrazu zrekonstruowanego w stosunku do obrazu oryginalnego.
Wykład 8 - Transformacja i sieci neuronowe PCA
PCA – transformacja liniowa stosowana do redukcji wymiaru danych (bazuje na transformacji Karhunena-Loewe).
Macierz kowariancji – macierz stanowiąca uogólnienie pojęcia wariancji na przypadek wielowymiarowy
Wartości własne – pierwiastki λ równania det(λ1- Rxx)=0, gdzie Rxx jest macierzą kowariancji.
Wektory własne –
wektory wi stowarzyszone z wartościami własnymi i macierzą Rxx
poprzez relację
.
Składniki główne – elementy wektora wyjściowego y po transformacji PCA y=Wx.
Reguła Oji – uogólnienie reguły Hebba w implementacji on-line transformacji PCA.
Kompresja stratna danych – reprezentacja przybliżona danych poprzez zredukowaną (w stosunku do oryginału) liczbę elementów.
Wykład 9 - Ślepa separacja sygnałów
ICA – ślepa separacja sygnałów niezależnych (ang. Independent Component Analysis).
BSS – uogólnienie ICA (ang. Blind Signal Separation) na inne rodzaje dekompozycji sygnałów.
Niezależność statystyczna sygnałów – własność sygnałów oznaczająca, że dwuwymiarowa łączna gęstość prawdopodobieństwa p(yi,yj) jest równa iloczynowi jednowymiarowych funkcji gęstości zmiennej yi oraz yj.
SOS – statystyki drugiego rzędu (ang. Second Order Statistics).
HOS – statystyki wyższych rzędów (ang Higher Order Statistics).
EVD – dekompozycja macierzy według wartości własnych (ang. Eigen Value Decomposition).
AMUSE – jeden z algorytmów dekompozycji BSS wykorzystujący SOS.
Toolbox ICALAB – interfejs graficzny w Matlabie służący dekompozycji BSS.
Preprocessing – wstępne przetwarzanie sygnałów.
Postprocessing – końcowe przetwarzanie sygnałów po właściwej operacji.