Transformers in image super-resolution: a brief review
Fragment książki (Rozdział monografii pokonferencyjnej)
MNiSW
20
Poziom I
Status: | |
Autorzy: | Kozlov Serhii, Kolesnytskyi Oleh, Korolenko Oleh, Zhukov Alexey, Bondarenko Dmytro, Smetaniuk Olena, Kalizhanova Aliya, Komada Paweł |
Dyscypliny: | |
Aby zobaczyć szczegóły należy się zalogować. | |
Wersja dokumentu: | Drukowana | Elektroniczna |
Język: | angielski |
Strony: | 1 - 8 |
Scopus® Cytowania: | 0 |
Bazy: | Scopus |
Efekt badań statutowych | NIE |
Materiał konferencyjny: | TAK |
Nazwa konferencji: | Photonics Applications in Astronomy, Communications, Industry, and High Energy Physics Experiments 2024 |
Skrócona nazwa konferencji: | SPIE-IEEE-PSP 2024 |
URL serii konferencji: | LINK |
Termin konferencji: | 27 czerwca 2024 do 29 czerwca 2024 |
Miasto konferencji: | Lublin |
Państwo konferencji: | POLSKA |
Publikacja OA: | NIE |
Abstrakty: | angielski |
Since the advent of deep learning a decade ago convolutional neural networks have been the predominant method for approaching computer vision tasks. However, Transformer model, which has shown significant achievements in the field of natural language processing, is increasingly being applied to computer vision tasks and is demonstrating comparable or superior performance. The article discusses the application of Transformer model to the super-resolution task. The direct application of the original Transformer achieved performance comparable to the contemporary convolutional neural networks. However, the self-attention mechanism, which underpins Transformer model, involves quadratic computational complexity with respect to the size of the input image, presenting a significant challenge for processing high-resolution images. Further research has significantly improved performance, but these improvements are not exhaustive. An overview and comparative analysis of these studies are presented. |