Wyszukaj pojęcia używając tego indeksu

Specjalne | A | Ą | B | C | Ć | D | E | Ę | F | G | H | I | J | K | L | Ł | M | N | Ń | O | Ó | P | Q | R | S | Ś | T | U | V | W | X | Y | Z | Ź | Ż | Wszystkie

A

Adam

algorytm optymalizacji łączący zalety momentum i RMSProp, dostosowujący adaptacyjnie tempo uczenia dla różnych parametrów.


Aktywacja neuronu

wartość wyjścia neuronu uzyskiwana po zastosowaniu funkcji aktywacji.


Algorytm wstecznej propagacji błędów (backpropagation)

metoda obliczania gradientów funkcji kosztu względem parametrów sieci neuronowej, umożliwiająca aktualizację wag i wyrazów wolnych przez propagację błędów od wyjścia do wejścia sieci.


Algorytmy gradientowe

algorytmy optymalizacji, które wykorzystują gradient funkcji kosztu do aktualizacji parametrów modelu.


Autoenkoder

sieć neuronowa uczona bez nadzoru, której celem jest odtworzenie danych wejściowych na wyjściu, używana do uzyskania reprezentacji danych o mniejszym wymiarze.