Comparative analysis of interpretable artificial intelligence methods
Artykuł w czasopiśmie
MNiSW
5
spoza listy
| Status: | |
| Autorzy: | Kuszewska Aleksandra , Charytanowicz Małgorzata |
| Dyscypliny: | |
| Aby zobaczyć szczegóły należy się zalogować. | |
| Rok wydania: | 2026 |
| Wersja dokumentu: | Drukowana | Elektroniczna |
| Język: | angielski |
| Wolumen/Tom: | 38 |
| Strony: | 51 - 58 |
| Bazy: | BazTech |
| Efekt badań statutowych | NIE |
| Materiał konferencyjny: | NIE |
| Publikacja OA: | TAK |
| Licencja: | |
| Sposób udostępnienia: | Witryna wydawcy |
| Wersja tekstu: | Ostateczna wersja opublikowana |
| Czas opublikowania: | W momencie opublikowania |
| Data opublikowania w OA: | 30 marca 2026 |
| Abstrakty: | angielski |
| The aim of this article is to analyze and compare methods for explaining the results of artificial intelligence methods. Three methods were analyzed: Grad-CAM, SHAP, and LIME, evaluated in terms of their effectiveness on different data types. The analysis used five datasets: Iris, Wine Quality, Brain Tumor Dataset, PHCD, and WheatGrain. Two datasets are tabular, two are image, and one is mixed. SHAP and LIME were applied to tabular datasets, while all three methods were used for image data. Grad-CAM proved the fastest and most effective in locating key regions, while SHAP was slower but more accurate in pixel attribution, and LIME achieved the lowest precision. For tabular data, SHAP provided more accurate and consistent explanations than LIME, especially for high-dimensional datasets. |
