Funkcja aktywacji
Funkcja aktywacji – pojęcie używane w sztucznej inteligencji do określenia funkcji, według której obliczana jest wartość wyjścia neuronów sieci neuronowej.
Po agregacji danych wejściowych z uwzględnieniem wag powstaje sygnał sumarycznego pobudzenia. Rola funkcji aktywacji polega na tym, że musi ona określić sposób obliczania wartości sygnału wyjściowego neuronu na podstawie wartości tego sumarycznego pobudzenia[1].
W literaturze rozważano wiele różnych propozycji funkcji aktywacji, jednak do powszechnego użytku weszły właściwie cztery z nich: funkcja liniowa (neuron liniowy), funkcja sigmoidalna (neuron sigmoidalny), funkcja tangensoidalna (dokładnie jest to funkcja tangens hiperboliczny, ale skrótowo mówi się właśnie neuron tangensoidalny) oraz funkcja Gaussa (neuron radialny)[1].
Do najczęściej używanych funkcji aktywacji należą:
Funkcja aktywacji | Wzór matematyczny | Gładka | Monotoniczna | Różniczkowalna | Uwagi |
---|---|---|---|---|---|
Funkcja liniowa |
| ||||
Jednostronnie obcięta funkcja liniowa | (oprócz punktu ) |
| |||
Obcięta funkcja liniowa | (oprócz punktów i ) |
| |||
Funkcja progowa unipolarna |
| ||||
Funkcja progowa bipolarna |
| ||||
Sigmoidalna funkcja unipolarna |
| ||||
Sigmoidalna funkcja bipolarna (tangens hiperboliczny) |
| ||||
Funkcja Gaussa |
| ||||
Znormalizowana funkcja wykładnicza (Softmax) |
|
Przypisy
- ↑ a b Ryszard Tadeusiewicz, Maciej Szaleniec: Leksykon sieci neuronowych. s. 34. ISBN 978-83-63270-10-0.
Media użyte na tej stronie
Autor: MGalloway (WMF), Licencja: CC BY-SA 3.0
A tickmark icon included in the OOjs UI MediaWiki lib.
Autor: MGalloway (WMF), Licencja: CC BY-SA 3.0
A tickmark icon included in the OOjs UI MediaWiki lib.