Sztuczna inteligencja nie eliminuje pracy człowieka, lecz przesuwa jej punkt ciężkości w stronę weryfikacji, interpretacji oraz brania odpowiedzialności za decyzje, których algorytm sam nie podejmie. Duże modele językowe nie operują bowiem na znaczeniach, a jedynie na statystycznym prawdopodobieństwie. Ich rola sprowadza się do wygenerowania ciągu tokenów, który (w oparciu o dane treningowe i dany kontekst) jest najbardziej prawdopodobny. To znaczy, że AI nie posiada własnych intencji, nie rozumie nadrzędnego celu systemu i nie potrafi odróżnić obiektywnej prawdy od samej wiarygodności przekazu.
Zjawisko to najwyraźniej obrazują tzw. halucynacje. Model potrafi stworzyć odpowiedź, która brzmi logicznie i jest nienaganna językowo, a mimo to pozostaje całkowicie błędna. W literaturze fachowej definiuje się je jako treści płynne i poprawne składniowo, które jednak nie mają pokrycia w faktach lub rzeczywistych danych.
Nie mamy tu do czynienia z defektem w kodzie, lecz z naturalnym następstwem architektury modelu. AI uzupełnia brakujące informacje wariantem najbardziej prawdopodobnym, nawet jeśli w rzeczywistości oznacza to po prostu zgadywanie.
Co AI robi dobrze?
Sztuczna inteligencja odnosi największe sukcesy tam, gdzie można wyodrębnić powtarzalne wzorce. Dotyczy to w szczególności zadań opartych na strukturach o wysokiej powtarzalności, przetwarzaniu ogromnych zbiorów danych oraz ściśle zdefiniowanych regułach.
Oznacza to, że technologia świetnie radzi sobie z:
- Przetwarzaniem języka naturalnego (NLP) – obejmuje to analizę promptów, wykonywanie poleceń oraz sprawne generowanie odpowiedzi tekstowych.
- Pracą z kodem – potrafi zarówno generować nowe fragmenty programów, jak i sprawdzać te już istniejące.
- Tworzeniem multimediów – generuje wysokiej jakości obrazy oraz materiały wideo.
- Analizą danych – błyskawicznie przetwarza zbiory informacji i formułuje wynikowe wnioski.
- Działaniem agentycznym – potrafi pracować w sposób autonomiczny nad złożonymi zadaniami.
- Automatyzacją i tworzeniem artefaktów – przygotowuje przypadki testowe, dokumentację czy skrypty na podstawie krótkich instrukcji.
Przekładając to na grunt testowania, AI działa jak akcelerator przyspieszający projektowanie scenariuszy, analizę logów czy przygotowywanie danych testowych.
Granice możliwości i braki AI
Ograniczenia sztucznej inteligencji nie są efektem niedoboru mocy obliczeniowej, lecz wynikają bezpośrednio z jej architektury. Model nie posiada bezpośredniego kontaktu z rzeczywistością, nie pojmuje uwarunkowań biznesowych i nie jest w stanie samodzielnie zweryfikować trafności swoich wyników.
Z tego powodu napotykamy na konkretne bariery. AI nie potrafi:
- Samodzielnie przygotować sobie danych uczących – jest całkowicie zależne od tego, co dostarczy mu człowiek.
- Myśleć krytycznie – nie weryfikuje faktów, on je jedynie produkuje. Jeśli otrzyma błędne dane wejściowe, dostarczy wynik spójny wewnętrznie, ale merytorycznie błędny.
- Wykazać się inteligencją emocjonalną – nie rozumie głębokich potrzeb ludzi, brakuje mu empatii oraz prawdziwej kreatywności.
- Brać odpowiedzialności – algorytm nie podejmuje wiążących decyzji, a jedynie dostarcza odpowiedzi.
Dodatkowo modele bazują na danych treningowych i bez dodatkowych źródeł nie mają dostępu do informacji po dacie odcięcia wiedzy (ang. knowledge cutoff).
AI w codziennej pracy testera
Testowanie doskonale naświetla realne limity AI, ponieważ opiera się ona na interpretacji, a nie wyłącznie na suchych danych.
| AI potrafi | AI nie potrafi |
|---|---|
| Stworzyć przypadek testowy na podstawie opisu | Ocenić, czy dany test ma biznesowe uzasadnienie |
| Zaproponować zakres pokrycia testowego | Rozstrzygnąć, czy to pokrycie jest adekwatne |
| Przeanalizować rezultaty wykonanych testów | Sprawdzić, czy dany wynik jest rzeczywiście istotny |
| Wspierać pisanie skryptów automatycznych | Rozpoznać, czy dany problem jest realnym defektem |
Stoimy tu przed klasycznym problemem „wyroczni”. AI brakuje punktu odniesienia poza dostarczonymi danymi wejściowymi. Istnieje ryzyko generowania defektów trudnych do wykrycia: testy mogą być formalnie poprawne, ale merytorycznie puste, a analiza logiczna może bazować na fałszywych przesłankach. Szczególnie widoczne jest to w kodzie, gdzie modele potrafią tworzyć nieistniejące funkcje, zachowując idealną składnię.
AI potrzebuje człowieka, nie odwrotnie
Sztuczna inteligencja nie funkcjonuje w próżni. Do istnienia niezbędna jest jej cała infrastruktura: serwery, ogromne ilości energii, wyuczony model oraz dane treningowe. Bez kontekstu dostarczonego przez użytkownika system pozostaje bezużyteczny.
To człowiek pozostaje najważniejszym elementem układanki, ponieważ potrafi zdefiniować problem i podjąć decyzję. Tester z wykonawcy zadań staje się osobą oceniającą jakość i identyfikującą ryzyka. Przewaga ludzi nad AI wynika z cech, których te nigdy nie posiądzie:
- Zrozumienie kontekstu (tester wie, kto i po co używa systemu).
- Myślenia krytycznego (zdolności do zakwestionowania nawet „pewnych” wyników).
- Interpretacji (odróżniania poprawności formalnej od realnej wartości).
- Empatii (widzenia problemów z perspektywy użytkownika, których nie ma w tabelach).
- Pracy z niepewnością (AI zawsze chce podać odpowiedź, tester potrafi powiedzieć „nie wiem” i to zweryfikować).
Czego warto się uczyć?
Wraz z rozwojem technologii spada wartość kompetencji odtwórczych. Warto inwestować w umiejętności, których nie da się zamknąć w algorytmach: testowanie eksploracyjne, analizę ryzyka i rozumienie domeny biznesowej i umiejętność zadawania trafnych pytań. Równolegle cały czas ważna staje się biegłość w pracy z samym AI, czyli precyzyjne promptowanie i krytyczna weryfikacja wyników. Nie chodzi o to, by „umieć obsługiwać AI”, ale by wiedzieć, kiedy nie należy jej ufać.
Wnioski
AI to system statystyczny, który działa zgodnie ze swoją konstrukcją. Nie jest inteligentny w ludzkim tego słowa znaczeniu. Największym zagrożeniem jest przypisywanie mu cech takich jak intencja czy rozumienie. Wtedy AI przestaje być narzędziem, a staje się autorytetem. Tymczasem największą siłą testera jest zdolność podważania wyników, ponieważ to, co AI robi, najlepiej (generowanie wiarygodnych odpowiedzi), jest jednocześnie źródłem jej największych błędów.
Redakcja