Informacja o cookies

Zgadzam się Nasza strona zapisuje niewielkie pliki tekstowe, nazywane ciasteczkami (ang. cookies) na Twoim urządzeniu w celu lepszego dostosowania treści oraz dla celów statystycznych. Możesz wyłączyć możliwość ich zapisu, zmieniając ustawienia Twojej przeglądarki. Korzystanie z naszej strony bez zmiany ustawień oznacza zgodę na przechowywanie cookies w Twoim urządzeniu.

Publikacje Pracowników Politechniki Lubelskiej

Status:
Autorzy: Łuszczyk Mateusz, Kozieł Grzegorz
Dyscypliny:
Aby zobaczyć szczegóły należy się zalogować.
Wersja dokumentu: Drukowana | Elektroniczna
Język: angielski
Strony: 26 - 26
Efekt badań statutowych NIE
Materiał konferencyjny: TAK
Nazwa konferencji: International Conference: Modern Information Technologies for Society 2025
Skrócona nazwa konferencji: MITS'25
URL serii konferencji: LINK
Termin konferencji: 11 grudnia 2025 do 12 grudnia 2025
Miasto konferencji: Lublin
Państwo konferencji: POLSKA
Publikacja OA: TAK
Licencja:
Sposób udostępnienia: Otwarte repozytorium
Wersja tekstu: Ostateczna wersja opublikowana
Czas opublikowania: W momencie opublikowania
Data opublikowania w OA: 10 grudnia 2025
Abstrakty: angielski
Recommendation systems play a vital role in personalising content on e‐commerce and e‐reading platforms. Traditional methods, such as collaborative filtering and supervised learn‐ ing, often fail to capture users’ long‐term preferences or the sequential nature of interactions. Reinforcement learning (RL) provides a rule‐based framework for modelling recommendations as a sequential decision‐making process aimed at maximising user satisfaction. However, collecting online interaction data to train RL models is costly and risky, prompting the use of offline reinforcement learning (offline RL), which learns from static historical data. This study compares several offline RL algorithms, including Batch‐Constrained Q‐Learning (BCQ), Conservative Q‐Learning (CQL), and Implicit Q‐Learning (IQL), in the context of book recommendations. Experiments were conducted using the Goodreads dataset, which represents real‐world in‐ teractions between users and books. The results show that conservative approaches, such as CQL, achieve higher stability and better recommendation accuracy, as measured by NDCG@10 and Recall@10, than less‐constrained methods. The analysis also reveals a strong relationship between the dataset’s diversity and policy performance. The research highlights the poten‐ tial of offline RL as a promising avenue for developing data‐efficient and privacy‐preserving recommendation systems without the need for costly online exploration.