Porównanie narzędzi do tworzenia i przeprowadzania testów automatycznych
Artykuł w czasopiśmie
MNiSW
5
spoza listy
Status: | |
Warianty tytułu: |
Comparison of tools for creating and conducting automated tests
|
Autorzy: | Bielesza Grzegorz, Dzieńkowski Mariusz |
Dyscypliny: | |
Aby zobaczyć szczegóły należy się zalogować. | |
Rok wydania: | 2023 |
Wersja dokumentu: | Elektroniczna |
Język: | polski |
Wolumen/Tom: | 29 |
Strony: | 374 - 382 |
Bazy: | BazTech |
Efekt badań statutowych | NIE |
Materiał konferencyjny: | NIE |
Publikacja OA: | TAK |
Licencja: | |
Sposób udostępnienia: | Witryna wydawcy |
Wersja tekstu: | Ostateczna wersja opublikowana |
Czas opublikowania: | W momencie opublikowania |
Data opublikowania w OA: | 29 grudnia 2023 |
Abstrakty: | angielski | polski |
The aim of the article was to compare three tools for preparing and conducting automated tests - JUnit5, TestNG and Spock. The study involved the execution of a series of three experiments that consisted of performance tests based on five test scenarios, functional tests checking the capabilities of each tool, and popularity and support tests. The perfor-mance experiment consisted in setting up the test environment, preparing tests based on developed scenarios, executing them multiple times, and then verifying and analysing the obtained time results. The comparison of tools capabilities was based on the extracting of a set of key functionalities of the software used to develop tests. The last analysis was based on a comparison of the popularity of the tested platforms, and was performed on the basis of three popular web-sites providing information on user activity within the test tool. | |
Celem artykułu było porównanie trzech narzędzi do przygotowywania i przeprowadzania testów automatycznych –JUnit5, TestNG oraz Spock. Zrealizowane badania obejmowały wykonanie serii trzech eksperymentów, na które się składały testy wydajnościowe, opar te na pięciu scenariuszach testowych, testy funkcjonalne sprawdzające możliwości każdego z narzędzi oraz testy popularności iwsparcia. Eksperyment wydajnościowy polegał na skonfigurowaniu śro-dowiska testowego, przygotowaniu testów bazujących na opracowanych scenariuszach, wielokrotnym ich wykonaniu, a następnie weryfikacji i analizie uzyskanych wyników czasowych. Porównanie możliwości narzędzi opierało się na wyodrębnieniu zestawu kluczowych funkcjonalności oprogramowania służącego do opracowywania testów. Ostatnia analiza polegała na porównaniu popularności badanych platform testowych i zrealizowana została na podstawie trzech popularnych serwisów internetowych udostępniających informacje o aktywności użytkownikóww obrębie danego narzędzia testowego. |