2. Transformacja i sieci neuronowe PCA

2.5. Słownik

Słownik opanowanych pojęć

Wykład 8

PCA – transformacja liniowa stosowana do redukcji wymiaru danych (bazuje na transformacji Karhunena-Loewe).

Macierz kowariancji – macierz stanowiąca uogólnienie pojęcia wariancji na przypadek wielowymiarowy

Wartości własne – pierwiastki \( \lambda \) równania \( det(\lambda \mathbf{1} - \mathbf{R}_{\mathbf{xx}} ) = 0 \), gdzie \( \mathbf{R}_{\mathbf{xx}} \) jest macierzą kowariancji.

Wektory własne – wektory \(\mathbf{w}_i \) stowarzyszone z wartościami własnymi i macierzą \( \mathbf{R}_{\mathbf{xx}} \) poprzez relację \( \mathbf{R}_{\mathbf{xx}} \mathbf{w}_i = \lambda_i \mathbf{w}_i \).

Składniki główne – elementy wektora wyjściowego \( \mathbf{y} \) po transformacji PCA, \( \mathbf{y} = \mathbf{Wx} \).

Reguła Oji – uogólnienie reguły Hebba w implementacji on-line transformacji PCA.

Kompresja stratna danych – reprezentacja przybliżona danych poprzez zredukowaną (w stosunku do oryginału) liczbę elementów.