Informacja o cookies

Zgadzam się Nasza strona zapisuje niewielkie pliki tekstowe, nazywane ciasteczkami (ang. cookies) na Twoim urządzeniu w celu lepszego dostosowania treści oraz dla celów statystycznych. Możesz wyłączyć możliwość ich zapisu, zmieniając ustawienia Twojej przeglądarki. Korzystanie z naszej strony bez zmiany ustawień oznacza zgodę na przechowywanie cookies w Twoim urządzeniu.

Publikacje Pracowników Politechniki Lubelskiej

MNiSW
100
Lista 2023
Status:
Autorzy: Bochen Adrian, Ambrożkiewicz Bartłomiej
Dyscypliny:
Aby zobaczyć szczegóły należy się zalogować.
Rok wydania: 2023
Wersja dokumentu: Drukowana | Elektroniczna
Język: angielski
Numer czasopisma: 4
Wolumen/Tom: 17
Strony: 206 - 214
Impact Factor: 1,0
Web of Science® Times Cited: 1
Scopus® Cytowania: 0
Bazy: Web of Science | Scopus | BazTech
Efekt badań statutowych NIE
Materiał konferencyjny: NIE
Publikacja OA: TAK
Licencja:
Sposób udostępnienia: Otwarte czasopismo
Wersja tekstu: Ostateczna wersja opublikowana
Czas opublikowania: W momencie opublikowania
Data opublikowania w OA: 15 sierpnia 2023
Abstrakty: angielski
Human-robot collaboration can be a powerful tool for increasing productivity in production systems by combining the strengths of humans and robots. Assembly operations, in particular, have shown great potential for utilizing the unique abilities of both parties. However, for robots to efficiently perform assembly tasks, components and parts must be presented in a known location and orientation, which is achieved through a process called parts feeding. Traditional automation methods for parts feeding, such as vibratory bowl feeders, are limited in their ability to accommodate variations in parts design, shape, location, and orientation, making them less flexible for use in hu- man-robot collaboration. Recent advancements in machine vision technology have opened up new possibilities for flexible feeding systems in human-robot assembly cells. This paper explores the application of the vision system in the collaborative robot ABB Yumi and its ability in object detection. In this case, the characteristic of the vision system was determined experimentally by changing the light intensity on the test rig. The system was validated, if the angle of incidence of light affects the stability of the vision system. The results of the study demonstrate the efficiency of vision system in collaborative robot and provide insights into its industrial application.