RE: Uczenie maszynowe #4 Ten z innymi funkcjami aktywacji

You are viewing a single comment's thread from:

Uczenie maszynowe #4 Ten z innymi funkcjami aktywacji

in polish •  6 years ago 

Ja ciągle jestem pod wrażeniem tego, że zamiana funkcji aktywacji z sigmoid na reLU to był taki duży krok do przodu. Tym bardziej, ze reLu wygląda tak "prosto" i nie ma w niej żadnej magii.

Authors get paid when people like you upvote their post.
If you enjoyed what you read here, create your account today and start earning FREE STEEM!
Sort Order:  

Prawda? :-) To jest jeden z tych momentów, gdzie zawsze mi się przypomina ten cytat:

"Rzeczy proste są zawsze najbardziej niezwykłe" ~Paulo Coelho; z książki "Alchemik"