Informacja o cookies

Zgadzam się Nasza strona zapisuje niewielkie pliki tekstowe, nazywane ciasteczkami (ang. cookies) na Twoim urządzeniu w celu lepszego dostosowania treści oraz dla celów statystycznych. Możesz wyłączyć możliwość ich zapisu, zmieniając ustawienia Twojej przeglądarki. Korzystanie z naszej strony bez zmiany ustawień oznacza zgodę na przechowywanie cookies w Twoim urządzeniu.

Publikacje Pracowników Politechniki Lubelskiej

Publikacje Pracowników PL z lat 1990-2010

Publikacje pracowników Politechniki Lubelskie z lat 1990-2010 dostępne są jak dotychczas w starej bazie publikacji
LINK DO STAREJ BAZY

MNiSW
100
Lista 2021
Status:
Autorzy: Świetlicka Izabela, Kuniszyk-Jóźkowiak Wiesława, Świetlicki Michał
Dyscypliny:
Aby zobaczyć szczegóły należy się zalogować.
Rok wydania: 2022
Wersja dokumentu: Drukowana | Elektroniczna
Język: angielski
Numer czasopisma: 1
Wolumen/Tom: 22
Numer artykułu: 321
Strony: 1 - 17
Web of Science® Times Cited: 6
Scopus® Cytowania: 10
Bazy: Web of Science | Scopus
Efekt badań statutowych NIE
Materiał konferencyjny: NIE
Publikacja OA: TAK
Licencja:
Sposób udostępnienia: Witryna wydawcy
Wersja tekstu: Ostateczna wersja opublikowana
Czas opublikowania: W momencie opublikowania
Data opublikowania w OA: 1 stycznia 2022
Abstrakty: angielski
The presented paper introduces principal component analysis application for dimensionality reduction of variables describing speech signal and applicability of obtained results for the disturbed and fluent speech recognition process. A set of fluent speech signals and three speech disturbances—blocks before words starting with plosives, syllable repetitions, and sound-initial prolongations—was transformed using principal component analysis. The result was a model containing four principal components describing analysed utterances. Distances between standardised original variables and elements of the observation matrix in a new system of coordinates were calculated and then applied in the recognition process. As a classifying algorithm, the multilayer perceptron network was used. Achieved results were compared with outcomes from previous experiments where speech samples were parameterised with the Kohonen network application. The classifying network achieved overall accuracy at 76% (from 50% to 91%, depending on the dysfluency type).