A comparison of conventional and deep learning methods of image classification
Artykuł w czasopiśmie
MNiSW
5
spoza listy
| Status: | |
| Warianty tytułu: |
Porównanie metod klasycznego i głębokiego uczenia maszynowego w klasyfikacji obrazów
|
| Autorzy: | Dovbnych Maryna, Plechawska-Wójcik Małgorzata |
| Dyscypliny: | |
| Aby zobaczyć szczegóły należy się zalogować. | |
| Rok wydania: | 2021 |
| Wersja dokumentu: | Drukowana | Elektroniczna |
| Język: | angielski |
| Wolumen/Tom: | 21 |
| Strony: | 303 - 308 |
| Bazy: | Baztech |
| Efekt badań statutowych | NIE |
| Materiał konferencyjny: | NIE |
| Publikacja OA: | TAK |
| Licencja: | |
| Sposób udostępnienia: | Witryna wydawcy |
| Wersja tekstu: | Ostateczna wersja opublikowana |
| Czas opublikowania: | W momencie opublikowania |
| Data opublikowania w OA: | 30 grudnia 2021 |
| Abstrakty: | angielski | polski |
| The aim of the research is to compare traditional and deep learning methods in image classification tasks. The conduc t- ed research experiment covers the analysis of five different models o f neural networks: two models of multi – layer pe r- ceptron architecture: MLP with two hidden layers, MLP with three hidden layers; and three models of convolutional architecture: the three VGG blocks model, AlexNet and GoogLeNet. The models were tested on two different datasets: CIFAR – 10 and MNIST and have been applied to the task of image classification. They were test ed for classification performance, training speed, and the effect of the complexity of the d ataset on the training outcome. | |
| Celem badań jest porównanie metod klasycznego i głębokiego uczenia w zadaniach klasyfikacji obrazów. Przeprowadzony eksperyment badawczy obejmuje analizę pięciu różnych modeli sieci neuron owych: dwóch modeli wielowarstwowej architektury perceptronowej: MLP z dwiema warstwami ukrytymi, MLP z trzema warstwami ukrytymi; oraz trzy modele architektury konwolucyjnej: model z trzema VGG blokami, Ale xNet i GoogLeNet. Modele przetrenowano na dwóch różnych zbiorach danych: CIFAR – 10 i MNIST i zastosowano w zadaniu klasyfikacji obrazów. Zostały one zbadane pod kątem wydajności klasyfikacji, szybkości trenowania i wpływ u złożoności zbioru danych na wynik trenowania. |
