Podręcznik
2. Transformacja i sieci neuronowe PCA
2.5. Słownik
Słownik opanowanych pojęć
Wykład 8
PCA – transformacja liniowa stosowana do redukcji wymiaru danych (bazuje na transformacji Karhunena-Loewe).
Macierz kowariancji – macierz stanowiąca uogólnienie pojęcia wariancji na przypadek wielowymiarowy
Wartości własne – pierwiastki \( \lambda \) równania \( det(\lambda \mathbf{1} - \mathbf{R}_{\mathbf{xx}} ) = 0 \), gdzie \( \mathbf{R}_{\mathbf{xx}} \) jest macierzą kowariancji.
Wektory własne – wektory \(\mathbf{w}_i \) stowarzyszone z wartościami własnymi i macierzą \( \mathbf{R}_{\mathbf{xx}} \) poprzez relację \( \mathbf{R}_{\mathbf{xx}} \mathbf{w}_i = \lambda_i \mathbf{w}_i \).
Składniki główne – elementy wektora wyjściowego \( \mathbf{y} \) po transformacji PCA, \( \mathbf{y} = \mathbf{Wx} \).
Reguła Oji – uogólnienie reguły Hebba w implementacji on-line transformacji PCA.
Kompresja stratna danych – reprezentacja przybliżona danych poprzez zredukowaną (w stosunku do oryginału) liczbę elementów.