AI w testowaniu

Seria artykułów związanych z AI w testowaniu oprogramowania.

LLMOps w praktyce. Jakość, monitoring i testowanie modeli językowych (cz. 2)

Samo wdrożenie modelu językowego to dopiero początek. W tej części przyglądamy się jakości odpowiedzi, monitorowaniu systemu oraz problemom, które pojawiają się dopiero na produkcji.

Agentic testing. Wieloagentowa pętla doskonalenia testów

Generowane przez LLM testy mają niewielką przydatność przy pierwszym uruchomieniu. Rozwiązaniem mogą być testy oparte na agentach, którym zlecamy nie tylko generację i uruchomienie testów, ale również ich poprawki.

LLMOps w praktyce. Od prototypu do systemu produkcyjnego (cz. 1)

Duże modele językowe łatwo uruchomić, ale trudno utrzymać na produkcji. LLMOps porządkuje ten obszar – od danych po komponenty systemu – i pokazuje, co naprawdę decyduje o stabilności rozwiązania.

Co AI potrafi, a czego (jeszcze) nie?

Główny problem z technologią AI nie wynika z jej ograniczeń, lecz z faktu, że potrafi ona zdziałać bardzo wiele, sprawiając przy tym wrażenie, jakby rozumiała procesy. Taka specyfika prowadzi często do defektów, które wykryć jest znacznie trudniej niż klasyczne usterki; są one bowiem poprawne pod względem składni, spójne logicznie i brzmią nadzwyczaj przekonująco.

AX. Agentic Experience

Testowanie doświadczenia w pracy z agentem jest formą zmiany podejścia do aspektu UX w nowych czasach. Jednak tak, jak agent nie jest kolejnym typowym oprogramowaniem, tak testowanie AX nie jest kolejną, typową charakterystyką testów.

Dług techniczny generowany przez AI

Narastająca popularność narzędzi sztucznej inteligencji w testowaniu obiecuje przyspieszenie pracy. Ale tam, gdzie priorytetem staje się szybkość, łatwo pojawia się ukryty koszt w postaci długu technicznego.

Agenci AI specjalnej troski

Czy autonomiczne agenty AI to rewolucja, czy systemowe zagrożenie? Przyglądamy się przypadkom Moltbooka i OpenClaw, krytycznym błędom w architekturze i wyzwaniom, przed którymi stają coraz częściej testerzy.

Junior tester czy operator algorytmu?

Czy AI zdejmuje z juniorów obowiązek rozumienia kodu? Jak zachować jakość w projektach, gdzie kod utrzymuje się trudniej, niż generuje?

AI w przestrzeni testerzy.pl. Pilot

29.01.2025 podczas AI Testing Conference przedstawiliśmy architekturę i rozwiązania oraz postępy, jakie osiągneliśmy w naszym projekcie, w którym wykorzystujemy AI do dostarczania wartościowej testerskiej wiedzy oraz wspierania edukacji testerów.

Testowanie dostępności przy wsparciu AI

Czy weryfikacja dostępności jest lepsza, gdy używamy technologii AI? Sprawdzamy.