Informacja o cookies

Zgadzam się Nasza strona zapisuje niewielkie pliki tekstowe, nazywane ciasteczkami (ang. cookies) na Twoim urządzeniu w celu lepszego dostosowania treści oraz dla celów statystycznych. Możesz wyłączyć możliwość ich zapisu, zmieniając ustawienia Twojej przeglądarki. Korzystanie z naszej strony bez zmiany ustawień oznacza zgodę na przechowywanie cookies w Twoim urządzeniu.

Publikacje Pracowników Politechniki Lubelskiej

Status:
Autorzy: Chwaleba Kinga, Wach Weronika
Dyscypliny:
Aby zobaczyć szczegóły należy się zalogować.
Wersja dokumentu: Drukowana | Elektroniczna
Język: angielski
Strony: 21 - 21
Efekt badań statutowych NIE
Materiał konferencyjny: TAK
Nazwa konferencji: International Conference: Modern Information Technologies for Society 2025
Skrócona nazwa konferencji: MITS'25
URL serii konferencji: LINK
Termin konferencji: 11 grudnia 2025 do 12 grudnia 2025
Miasto konferencji: Lublin
Państwo konferencji: POLSKA
Publikacja OA: TAK
Licencja:
Sposób udostępnienia: Witryna wydawcy
Wersja tekstu: Ostateczna wersja opublikowana
Czas opublikowania: W momencie opublikowania
Abstrakty: angielski
Fusion techniques may introduce more promising results into the music recognition field when incorporated with prominent pre‐trained classifiers including ResNet50 and VGG16. What is more, presenting a larger collection of data samples can also lead to attaining more notable outcomes. Hence, an innovative model based on feature fusion of four distinct inputs such as Mel‐spectrograms, spectrograms, scalograms, and Mel‐Frequency Cepstral Coefficients has been proposed. In addition, classification methods, previously pre‐trained on ImageNet, were applied as its core. The dataset utilized in this study was derived from Polish national dance music consisting of five national dances such as the Kujawiak, the Polonez, the Mazur, the Oberek, and the Krakowiak. In addition, it was decided to create and later compare two separate datasets with 3 and 10‐second audio samples. The adaptive attention model is proposed to adjust the extremely important features. The attained results were compared with one of the most popular classification metrics such as testing accuracy, testing loss, precision, recall and F1‐score. The Shapley Additive exPlanations were employed to assess which parts of the input feature maps are the most essential to the model. As a result, the current approach demonstrates outstanding results, exceeding 94% accuracy. Therefore, the study not only defines a new standard for recognizing Polish national dances but also emphasizes the broader promise of multi‐representation fusion as a model for next‐generation audio classification