Informacja o cookies

Zgadzam się Nasza strona zapisuje niewielkie pliki tekstowe, nazywane ciasteczkami (ang. cookies) na Twoim urządzeniu w celu lepszego dostosowania treści oraz dla celów statystycznych. Możesz wyłączyć możliwość ich zapisu, zmieniając ustawienia Twojej przeglądarki. Korzystanie z naszej strony bez zmiany ustawień oznacza zgodę na przechowywanie cookies w Twoim urządzeniu.

Publikacje Pracowników Politechniki Lubelskiej

MNiSW
5
spoza listy
Status:
Warianty tytułu:
Porównanie efektywności sztucznych sieci neuronowych dla różnych funkcji aktywacji
Autorzy: Florek Daniel , Miłosz Marek
Dyscypliny:
Aby zobaczyć szczegóły należy się zalogować.
Rok wydania: 2023
Wersja dokumentu: Drukowana | Elektroniczna
Język: angielski
Wolumen/Tom: 26
Strony: 7 - 12
Bazy: BazTech
Efekt badań statutowych NIE
Materiał konferencyjny: NIE
Publikacja OA: TAK
Licencja:
Sposób udostępnienia: Witryna wydawcy
Wersja tekstu: Ostateczna wersja opublikowana
Czas opublikowania: W momencie opublikowania
Data opublikowania w OA: 30 marca 2023
Abstrakty: angielski | polski
Activation functions play an important role in artificial neural networks ( ANNs) because they break the linearity in th e data transformations that are performed by models. Thanks to the recent s pike in interest around the topic of ANNs , new improvements to activation functions are emerging. The paper presents the results of research on the effectiveness of ANNs for ReLU, Leaky ReLU, ELU, and Swish activation function s. Four different data sets, and three different network architectures were used. Results show that Leaky ReLU, ELU and S wish functions work better in deep and more complex architectures which are to alleviate vanishing gradient and dead neur ons problems . Neither of the three aforementioned functions comes ahead in accuracy in all used datasets, although Swish activation speeds up training considerably and ReLU is the fastest during prediction process
Funkcje aktywacji, przełamując linową naturę transformacji zachodzących w sztucznych sieciach neuronowych (SSN), pozwalają na uczenie skomplikowanych wzorców występujących w danych w ejściowych, np. w obrazach. Wzrost zain- teresowania wokół SSN skłonił naukowców do badań wokół różnolitych akt ywacji, które mogą dać przewagę podczas uczenia jak i przewidywania, ostatecznie przyczyniając się do powstania nowyc h , interesujących rozwiązań. W artykule przedstawiono wyniki badań nad efektywnością SSN dla funkcji ReLU, Leak y ReLU, ELU oraz Swish, przy użyciu czterech zbiorów danych i trzech różnych architektur SSN. Wyniki pok azują, że funkcje Leaky ReLU, ELU i Swish lepiej spraw dzają się w głębokich i bardziej skomplikowanych architekturach, mając za za danie zapobieganie proble- mom zanikającego gradientu (ang. Vanishing Gradient) i martwych neuronów (ang. Dead neurons). Żadna z trzech wyżej wymienionych funkcji nie ma przewagi w c elności (ang. Accuracy), jednakże Swish znacznie przyspiesza ucze- nie SSN, a ReLU jest najszybsza w procesie przewidywania