Ludzie nie ufają AI w testowaniu oprogramowania

Ludzie nie ufają AI w testowaniu oprogramowania
Sztuczna inteligencja może wyeliminować proste zadania testowania i zredukować liczbę defektów bez interwencji człowieka, ale jej skomplikowana wewnętrzna struktura powoduje brak zaufania do prowadzonych przez nią testów.

Testowanie oparte na sztucznej inteligencji ma potencjał, aby pomóc w rozwiązaniu problemów z jakością oprogramowania, ale na drodze do jej szerokiej implementacji stoi wiele przeszkód.

Testowanie automatyczne wykorzystuje narzędzia do automatyzacji procesu testowania. Testerzy mogą korzystać z tradycyjnych skryptów opartych na kodzie lub na AI - która buduje, inicjuje i uruchamia modele testowe bez interwencji człowieka.
 
Narzędzia (deklarowane jako) napędzane przez AI, takie jak Katalon Studio, mabl czy Functionize mogą uwolnić członków zespołów wytwórczych od powtarzalnych zadań i monitorować złożone systemy pod wieloma kątami. Jednak nieufność do tej nieidealnej technologii hamuje jej adaptację. "Narzędzia te nie są jeszcze realnym rozwiązaniem kryzysu w testowaniu oprogramowania" - powiedział Holger Mueller, wiceprezes i analityk w Constellation Research. To wczesne początki; AI dopiero wchodzi do automatyzacji.

"Rzeczywiście, większość testów opartych na AI jest we wczesnych fazach przemysłowego wykorzystania" - mówi Bill Curtis, starszy wiceprezes i główny naukowiec w Cast Software Inc. Curtis jest również dyrektorem wykonawczym w Consortium for Information and Software Quality (CISQ), organizacji non-profit, która rozwija międzynarodowe standardy jakości oprogramowania. Raport CISQ opublikowany w 2020 roku i zaplanowany do aktualizacji jeszcze w tym roku, zidentyfikował AI jako kluczowy trend w rozwoju oprogramowania na tę dekadę. Nie był jednak w stanie wskazać, że AI jest trendem w testowaniu oprogramowania. "Nie było wystarczająco dużo danych, aby silniej zaznaczyć obecność AI w testowaniu w raporcie" - powiedział Curtis.

Ale testowanie oparte na AI może pojawić się w raporcie już wkrótce. "Tak zwane 'TestOps', które wykorzystują systemy AI i podejścia automatyzacji, rozwinęło się w ostatnich latach" - powiedział Schmelzer.
 
Interfejs narzędzi z AI wspierających testowanie jest czytelny dla człowieka, ale jego wewnętrzne działanie jest trudne do zrozumienia. TestOps polega na wykorzystaniu zarówno AI, jak i nie-AI do automatycznego testowania. Zarówno narzędzia do testowania oprogramowania AI, jak i non-AI mają podobne korzyści. "Zapewniają bardziej spójne wyniki w powtarzalnych testach, przyspieszają proces testowania, uproszczają narzędzia i działania testowe, czynią testy automatyczne bardziej odpornymi oraz przewidują potencjalne obszary niepowodzenia testów" - powiedział Schmelzer.
 
"Eliminacja powtarzalnych i prozaicznych zadań uwalnia od nich dewelopera i przyspiesza testowanie" - powiedział Christian Brink Frederiksen, dyrektor generalny Leapwork, tworzącego platformę automatyzacji bez kodowania.

"Możesz obniżyć czas testowania w swoich cyklach wydawniczych z tygodni do dni" - powiedział. "Skrócenie czasu testowania może przyspieszyć czas wprowadzania na rynek, umożliwiając firmom szybkie dostosowanie się do zmieniających się warunków rynkowych" - mówi Gareth Smith, dyrektor generalny ds. automatyzacji oprogramowania w Keysight Technologies, firmie zajmującej się projektowaniem i walidacją. Zaoferował on następujący przykład: "Teraz w Wielkiej Brytanii jest fala upałów i teraz chcę zrobić 'hot-wave burger': kup jeden burger, dostań jeden gratis. Można wymyślić jakąś kampanię, a następnie roll out już w najbliższy weekend" - powiedział.

"Wykazano, że testowanie oparte na AI zmniejsza ryzyko wypuszczenia oprogramowania z błędami, które mogą powodować krytyczne sytuacje w firmie, takie jak te w Volkswagenie" - powiedział Frederiksen, odnosząc się do zwolnienia w zeszłym miesiącu prezesa Volkswagena Herberta Diessa, podobno z powodu problemów z jakością oprogramowania. Ale oprogramowanie z błędami nie ogranicza się do nagłówków gazet; jest to problem wszechobecny, a firmy muszą rozważyć inne podejście do testowania, powiedział Frederiksen.

"Firmy zmagają się ze skalowaniem swoich, w dużej mierze ręcznych, rozwiązań testowych w obliczu coraz to bardziej złożonego oprogramowania i rynków, które wymagają wydania produktu w określonym terminie" - powiedział.

Brak zaufania

AI ma przed sobą trudną walkę o akceptację na polu testowania oprogramowania. "Technologia ta jest prawie niemożliwa do zrozumienia przez użytkowników oprogramowania i trudna dla ludzi w samym IT, co powoduje brak zaufania do jej zdolności" - powiedział Smith. Przedstawił on analogię, aby pokazać, jak wewnętrzne mechanizmy AI mogą nie tylko wywołać brak zaufania, ale także zmusić ludzi do oddania kontroli nieznanemu.

"Stworzyliśmy samochód samojezdny. Jest w nim siedzenie, na którym jest tylko głośnik i mikrofon, i nie ma pasów bezpieczeństwa - nie potrzebuje ich. Siadasz w fotelu mówisz: 'Zabierz mnie' tam gdzie jedziesz, a on rusza z prędkością 140 km na godzinę. Kto chciałby kupić taki samochód? Mówią: ‘Nie będę pierwszym klientem w tym samochodzie’" - powiedział Smith.

"Ten brak zaufania jest powodem, dla którego powszechne użycie systemów testowania opartych na AI ma przed sobą długą drogę pod górę" - mówi dalej.

Źródła:
https://www.techtarget.com/searchsoftwarequality/news/252523596/Devs-dont-trust-AI-in-software-testing

To powinno Cię zainteresować