Podręcznik

2. Transformacja i sieci neuronowe PCA

2.5. Słownik

Słownik opanowanych pojęć

Wykład 8

PCA – transformacja liniowa stosowana do redukcji wymiaru danych (bazuje na transformacji Karhunena-Loewe).

Macierz kowariancji – macierz stanowiąca uogólnienie pojęcia wariancji na przypadek wielowymiarowy

Wartości własne – pierwiastki  \lambda równania  det(\lambda \mathbf{1} - \mathbf{R}_{\mathbf{xx}} ) = 0 , gdzie  \mathbf{R}_{\mathbf{xx}}  jest macierzą kowariancji.

Wektory własne – wektory \mathbf{w}_i stowarzyszone z wartościami własnymi i macierzą  \mathbf{R}_{\mathbf{xx}}  poprzez relację  \mathbf{R}_{\mathbf{xx}} \mathbf{w}_i = \lambda_i \mathbf{w}_i .

Składniki główne – elementy wektora wyjściowego  \mathbf{y}  po transformacji PCA,  \mathbf{y} = \mathbf{Wx} .

Reguła Oji – uogólnienie reguły Hebba w implementacji on-line transformacji PCA.

Kompresja stratna danych – reprezentacja przybliżona danych poprzez zredukowaną (w stosunku do oryginału) liczbę elementów.