Informacja o cookies

Zgadzam się Nasza strona zapisuje niewielkie pliki tekstowe, nazywane ciasteczkami (ang. cookies) na Twoim urządzeniu w celu lepszego dostosowania treści oraz dla celów statystycznych. Możesz wyłączyć możliwość ich zapisu, zmieniając ustawienia Twojej przeglądarki. Korzystanie z naszej strony bez zmiany ustawień oznacza zgodę na przechowywanie cookies w Twoim urządzeniu.

Publikacje Pracowników Politechniki Lubelskiej

MNiSW
5
spoza listy
Status:
Warianty tytułu:
Porównanie metod klasycznego i głębokiego uczenia maszynowego w klasyfikacji obrazów
Autorzy: Dovbnych Maryna, Plechawska-Wójcik Małgorzata
Dyscypliny:
Aby zobaczyć szczegóły należy się zalogować.
Rok wydania: 2021
Wersja dokumentu: Drukowana | Elektroniczna
Język: angielski
Wolumen/Tom: 21
Strony: 303 - 308
Bazy: Baztech
Efekt badań statutowych NIE
Materiał konferencyjny: NIE
Publikacja OA: TAK
Licencja:
Sposób udostępnienia: Witryna wydawcy
Wersja tekstu: Ostateczna wersja opublikowana
Czas opublikowania: W momencie opublikowania
Data opublikowania w OA: 30 grudnia 2021
Abstrakty: angielski | polski
The aim of the research is to compare traditional and deep learning methods in image classification tasks. The conduc t- ed research experiment covers the analysis of five different models o f neural networks: two models of multi – layer pe r- ceptron architecture: MLP with two hidden layers, MLP with three hidden layers; and three models of convolutional architecture: the three VGG blocks model, AlexNet and GoogLeNet. The models were tested on two different datasets: CIFAR – 10 and MNIST and have been applied to the task of image classification. They were test ed for classification performance, training speed, and the effect of the complexity of the d ataset on the training outcome.
Celem badań jest porównanie metod klasycznego i głębokiego uczenia w zadaniach klasyfikacji obrazów. Przeprowadzony eksperyment badawczy obejmuje analizę pięciu różnych modeli sieci neuron owych: dwóch modeli wielowarstwowej architektury perceptronowej: MLP z dwiema warstwami ukrytymi, MLP z trzema warstwami ukrytymi; oraz trzy modele architektury konwolucyjnej: model z trzema VGG blokami, Ale xNet i GoogLeNet. Modele przetrenowano na dwóch różnych zbiorach danych: CIFAR – 10 i MNIST i zastosowano w zadaniu klasyfikacji obrazów. Zostały one zbadane pod kątem wydajności klasyfikacji, szybkości trenowania i wpływ u złożoności zbioru danych na wynik trenowania.