Wyszukaj pojęcia używając tego indeksu

Specjalne | A | Ą | B | C | Ć | D | E | Ę | F | G | H | I | J | K | L | Ł | M | N | Ń | O | Ó | P | Q | R | S | Ś | T | U | V | W | X | Y | Z | Ź | Ż | Wszystkie

Strona:  1  2  3  4  5  6  7  8  9  (Dalej)
  Wszystkie

A

Adam

algorytm optymalizacji łączący zalety momentum i RMSProp, dostosowujący adaptacyjnie tempo uczenia dla różnych parametrów.


Aktywacja neuronu

wartość wyjścia neuronu uzyskiwana po zastosowaniu funkcji aktywacji.


Algorytm wstecznej propagacji błędów (backpropagation)

metoda obliczania gradientów funkcji kosztu względem parametrów sieci neuronowej, umożliwiająca aktualizację wag i wyrazów wolnych przez propagację błędów od wyjścia do wejścia sieci.


Algorytmy gradientowe

algorytmy optymalizacji, które wykorzystują gradient funkcji kosztu do aktualizacji parametrów modelu.


Autoenkoder

sieć neuronowa uczona bez nadzoru, której celem jest odtworzenie danych wejściowych na wyjściu, używana do uzyskania reprezentacji danych o mniejszym wymiarze.


B

Batch normalization

technika normalizacji danych wejściowych dla kolejnych warstw sieci neuronowej, stabilizująca proces uczenia poprzez normalizację wartości w ramach mini-batchy.


D

Dane uczące

zestaw przykładów używanych do trenowania modelu.


Dekoder

druga część autoenkodera, odtwarzająca dane wejściowe na podstawie reprezentacji o mniejszym wymiarze.


Detekcja obiektów

identyfikacja i lokalizacja obiektów na obrazach, np. twarzy na zdjęciu.


Douczenie modelu (fine-tuning)

dalsze trenowanie modelu na nowych danych, aby utrzymać jego dokładność w zmieniających się warunkach lub dostosowanie do specyfiki problemu.



Strona:  1  2  3  4  5  6  7  8  9  (Dalej)
  Wszystkie