Aggregating evaluation metrics for anomaly detection: A unified scoring approach
Artykuł w czasopiśmie
MNiSW
100
Lista 2024
| Status: | |
| Autorzy: | Rachwał Alicja, Gałka Łukasz, Rachwał Albert, Karczmarek Paweł |
| Dyscypliny: | |
| Aby zobaczyć szczegóły należy się zalogować. | |
| Rok wydania: | 2025 |
| Wersja dokumentu: | Drukowana | Elektroniczna |
| Język: | angielski |
| Numer czasopisma: | 12 |
| Wolumen/Tom: | 19 |
| Strony: | 402 - 419 |
| Impact Factor: | 1,3 |
| Web of Science® Times Cited: | 0 |
| Scopus® Cytowania: | 0 |
| Bazy: | Web of Science | Scopus | BazTech |
| Efekt badań statutowych | NIE |
| Materiał konferencyjny: | NIE |
| Publikacja OA: | TAK |
| Licencja: | |
| Sposób udostępnienia: | Otwarte czasopismo |
| Wersja tekstu: | Ostateczna wersja opublikowana |
| Czas opublikowania: | W momencie opublikowania |
| Data opublikowania w OA: | 1 listopada 2025 |
| Abstrakty: | angielski |
| This paper introduces a procedure that transforms multiple evaluation metrics into a single aggregated score, providing a comprehensive and interpretable summary of machine learning performance. The approach is demonstrated on a set of metrics obtained from various anomaly detection algorithms based primarily on Isolation Forest. Seven relevant performance metrics are aggregated using diverse techniques, including the arithmetic mean, weighted mean, Choquet integral, the OWA operator, and several Smooth OWA variants based on different interpolation Newton-Cotes quadratures. For methods requiring them, two distinct sets of weights are used. The results show that, particuraly in anomaly detection tasks where individual metrics may lead to inconsistent evaluations, the aggregated score effectively reflects metric preferences and enables quick identification of the best-performing algorithm for a given dataset. |
