Ja ciągle jestem pod wrażeniem tego, że zamiana funkcji aktywacji z sigmoid
na reLU
to był taki duży krok do przodu. Tym bardziej, ze reLu
wygląda tak "prosto" i nie ma w niej żadnej magii.
RE: Uczenie maszynowe #4 Ten z innymi funkcjami aktywacji
You are viewing a single comment's thread from:
Uczenie maszynowe #4 Ten z innymi funkcjami aktywacji
Prawda? :-) To jest jeden z tych momentów, gdzie zawsze mi się przypomina ten cytat:
Downvoting a post can decrease pending rewards and make it less visible. Common reasons:
Submit