Informacja o cookies

Zgadzam się Nasza strona zapisuje niewielkie pliki tekstowe, nazywane ciasteczkami (ang. cookies) na Twoim urządzeniu w celu lepszego dostosowania treści oraz dla celów statystycznych. Możesz wyłączyć możliwość ich zapisu, zmieniając ustawienia Twojej przeglądarki. Korzystanie z naszej strony bez zmiany ustawień oznacza zgodę na przechowywanie cookies w Twoim urządzeniu.

Publikacje Pracowników Politechniki Lubelskiej

MNiSW
5
spoza listy
Status:
Warianty tytułu:
Performance analysis of the TensorFlow library with different optimisation algorithms
Autorzy: Wadas Maciej, Smołka Jakub
Dyscypliny:
Aby zobaczyć szczegóły należy się zalogować.
Rok wydania: 2021
Wersja dokumentu: Drukowana | Elektroniczna
Język: polski
Wolumen/Tom: 21
Strony: 330 - 335
Bazy: Baztech
Efekt badań statutowych NIE
Materiał konferencyjny: NIE
Publikacja OA: TAK
Licencja:
Sposób udostępnienia: Witryna wydawcy
Wersja tekstu: Ostateczna wersja opublikowana
Czas opublikowania: W momencie opublikowania
Data opublikowania w OA: 30 grudnia 2021
Abstrakty: angielski | polski
This paper presents the results of performance analysis of the Tensorf low library used in machine learning and deep neural networks. The analysis focuses on comparing the parameters ob tained when training the neural network model for optimization algorithms: Adam, Nadam, AdaMax, AdaDelta, AdaGrad. Special attention has been paid to the diff e- rences between the training efficiency on tasks using microproce ssor and graphics card. For the study, neural network models were created in order to recognise Polish handwritten characters. The results obtained showed that the most efficient algorithm is AdaMax, while the computer component used during th e research only affects the training time of the neural network model used.
W artykule zaprezentowano wyniki analizy wydajności biblioteki TensorFlow wykorz ystywanej w uczeniu maszy no- wym i głębokich sieciach neuronowych. Analiza skupia się na porównaniu parametrów otrzymanych podczas treningu modelu sieci neuronowej dla algorytmów optymalizacji: Adam, Nadam, Ad aMax, AdaDelta, AdaGrad. Zwrócono szczególną uwagę na różnice pomiędzy efektywnością treningu na zadan iach wykorzystujących mikroprocesor i kartę graficzną. Do przeprowadzenia badań utworzono modele sieci neuronowej, której zadaniem było rozpoznawanie zn a- ków języka polskiego pisanych odręcznie. Otrzymane wyniki wykazały, że naj wydajniejszym algorytmem jest Ad a- Max, zaś podzespół komputera wykorzystywany podczas badań wpływ a jedynie na czas treningu wykorzystanego m o- delu sieci neuronowej.