Informacja o cookies

Zgadzam się Nasza strona zapisuje niewielkie pliki tekstowe, nazywane ciasteczkami (ang. cookies) na Twoim urządzeniu w celu lepszego dostosowania treści oraz dla celów statystycznych. Możesz wyłączyć możliwość ich zapisu, zmieniając ustawienia Twojej przeglądarki. Korzystanie z naszej strony bez zmiany ustawień oznacza zgodę na przechowywanie cookies w Twoim urządzeniu.

Publikacje Pracowników Politechniki Lubelskiej

MNiSW
70
Lista 2023
Status:
Warianty tytułu:
System widzenia stereo na urządzeniu Jetson wykorzystujący głębokie uczenie
Autorzy: Maciura Łukasz, Wójcik Dariusz, Maj Michał, Majerek Dariusz, Kiczek Bartłomiej
Dyscypliny:
Aby zobaczyć szczegóły należy się zalogować.
Rok wydania: 2023
Wersja dokumentu: Drukowana | Elektroniczna
Język: angielski
Numer czasopisma: 2
Wolumen/Tom: 99
Strony: 178 - 181
Impact Factor: 0,4
Web of Science® Times Cited: 0
Scopus® Cytowania: 0
Bazy: Web of Science | Scopus
Efekt badań statutowych NIE
Materiał konferencyjny: NIE
Publikacja OA: TAK
Licencja:
Sposób udostępnienia: Otwarte czasopismo
Wersja tekstu: Ostateczna wersja opublikowana
Czas opublikowania: W momencie opublikowania
Data opublikowania w OA: 28 lutego 2023
Abstrakty: angielski | polski
This paper presents a stereo vision system created on a Jetson device with a GPU. Two cameras attached to the cover are connected to the device. Before using the system, the calibration procedure should be done. The stereo vision system uses two deep learning algorithms (one for disparity map extraction and the second for panoptic segmentation) with custom preprocessing and postprocessing stages. Results from both algorithms were used to calculate point clouds for every registered object.
W artykule przedstawiono system stereowizyjny stworzony na urządzeniu Jetson z GPU. Do urządzenia podłączone są dwie kamery przymocowane do obudowy. Przed użyciem systemu należy przeprowadzić procedurę kalibracji. System stereowizyjny wykorzystuje dwa algorytmy głębokiego uczenia (jeden do ekstrakcji mapy rozbieżności, a drugi do segmentacji panoptycznej) z niestandardowymi etapami wstępnego i końcowego przetwarzania. Wyniki z obu algorytmów posłużyły do obliczenia chmur punktów dla każdego zarejestrowanego obiektu