Wyszukaj pojęcia używając tego indeksu

Specjalne | A | Ą | B | C | Ć | D | E | Ę | F | G | H | I | J | K | L | Ł | M | N | Ń | O | Ó | P | Q | R | S | Ś | T | U | V | W | X | Y | Z | Ź | Ż | Wszystkie

W

Wagi neuronów

parametry przypisane do połączeń pomiędzy neuronami, dostosowywane podczas procesu uczenia.


Wagi połączeń neuronowych

parametry sieci neuronowych, które dostosowują się podczas procesu uczenia.


Warstwa ukryta

warstwy neuronów znajdujące się pomiędzy warstwą wejściową a wyjściową, odpowiedzialne za przetwarzanie informacji.


Warstwa wejściowa

pierwsza warstwa perceptronu, która przyjmuje dane wejściowe.


Warstwa wyjściowa

ostatnia warstwa perceptronu, generująca końcowy wynik działania sieci neuronowej.


Warunek stopu

kryterium zakończenia działania algorytmu gradientowego, np. osiągnięcie docelowej jakości lub limitu obliczeń.


Współczynnik uczenia (learning rate)

liczba określająca wielkość kroku, jaki wykonuje algorytm podczas aktualizacji parametrów.


Wyjście sieci

wartość przewidywana wartość przez sieć neuronową, może różnić się od prawdziwej wartości (etykiety).


Wyraz wolny (bias)

parametr dodawany do ważonej sumy wejść neuronu, umożliwiający przesunięcie funkcji aktywacji.