AI w testowaniu

Seria artykułów związanych z AI w testowaniu oprogramowania.

Dlaczego AI nie napisze za Ciebie idealnego kodu?

Współczesna inżynieria oprogramowania zachłysnęła się możliwościami generatywnej sztucznej inteligencji. Obietnica automatycznego tworzenia systemów na podstawie prostych poleceń jest kosząca, ale kryje w sobie fundamentalne zagrożenie.

Testowanie rozmyte z użyciem AI

Testowanie rozmyte, znane jako fuzzing, jest techniką testowania oprogramowania, która istnieje od niemal czterdziestu lat. Mimo swojej długiej historii, nie zyskała powszechnej adopcji w mainstreamie, będąc głównie domeną specjalistów, takich jak pentesterzy czy uczestników programów bug bounty. Dziś, w obliczy dominacji generatywnej sztucznej inteligencji, to podejście zyskuje na znaczeniu.

AI przygotowuje do egzaminu ISTQB® Advanced

Przygotowanie do egzaminu ISTQB® Advanced to proces, który coraz częściej startuje nie od opasłego sylabusa, ale od okienka czatu AI. Wystarczy kilka komend, by dostać gotowe podsumowanie materiału, zestaw pytań, streszczenie najważniejszych koncepcji, a nawet wersję audio do odsłuchania w drodze do pracy. To naturalny skok technologiczny w nauce: jest szybko, wygodnie i na pierwszy rzut oka bardzo skutecznie.

Jak myśleć i jak rozmawiać o AI?

AI jest tematem, który obrósł mitami, a rzesza domorosłych specjalistów od wszystkiego wydała już na nią wyrok. Wszyscy oni się mylą i nikt z nich nie ma racji.

Jak podejść do testowania LLM-ów?

Duże modele językowe (LLM) nie działają jak klasyczne aplikacje. Ich odpowiedzi są zmienne, probabilistyczne i zależne od parametrów generacji, więc nawet pozornie identyczne zapytania mogą prowadzić do różnych wyników. James Bach przypomina, że jeśli chcemy je testować uczciwie, musimy zmienić sposób myślenia.

Jak testować LLM-y?

James Bach opublikował niedawno tekst, w którym porządkuje swoje przemyślenia na temat testowania systemów opartych na dużych modelach językowych (LLM). W przeciwieństwie do dominującego w branży entuzjazmu, Bach proponuje podejście ostrożnie, krytyczne i wymagające, ale przede wszystkim merytoryczne.

Automatyzacja AGENTLESS

Czy do automatyzacji zadań programistycznych potrzebujemy złożonych agentów AI, które planują, analizują, używają narzędzi i samodzielnie uczą się na błędach? Zespół badaczy z University of Illinois proponuje inne rozwiązanie – AGENTLESS – które pokazuje, że prosta architektura może być bardziej skuteczna, tańsza i łatwiejsza do zrozumienia niż wieloetapowe systemy agentowe.

Testowanie z AI w praktyce. Modele, narzędzia i podejścia

Nie wszystkie narzędzia AI sprawdzają się tak samo w testowaniu. Jedne dobrze radzą sobie z prostymi przypadkami, inne potrafią analizować cały kod i samodzielnie uruchamiać testy. Rodzi się jednak pytanie, które modele i narzędzia faktycznie warto włączyć do procesu testowania?

AI + TDD = duet idealny?

Coraz więcej zespołów deweloperskich szuka sposobów na to, by szybciej dostarczać wartość bez kompromisów w jakości. Przyglądamy się temu, czy połączenie AI z podejściem TDD to krok w stronę bardziej dojrzałych praktyk inżynierskich?

ChatGPT i Gemini na egzaminie certyfikującym. Wyniki dla ISTQB® i A4Q

Czy certyfikacja testerska jest ciągle wyznacznikiem kompetencji, jeśli zdaje ją model językowy? Być może nadszedł czas, by zadać sobie trudniejsze pytanie: co faktycznie mierzą te egzaminy? Umiejętność testowania czy umiejętność zapamiętywania?