Co AI potrafi, a czego (jeszcze) nie?

Co AI potrafi, a czego (jeszcze) nie?
Główny problem z technologią AI nie wynika z jej ograniczeń, lecz z faktu, że potrafi ona zdziałać bardzo wiele, sprawiając przy tym wrażenie, jakby rozumiała procesy. Taka specyfika prowadzi często do defektów, które wykryć jest znacznie trudniej niż klasyczne usterki; są one bowiem poprawne pod względem składni, spójne logicznie i brzmią nadzwyczaj przekonująco.

Sztuczna inteligencja nie eliminuje pracy człowieka, lecz przesuwa jej punkt ciężkości w stronę weryfikacji, interpretacji oraz brania odpowiedzialności za decyzje, których algorytm sam nie podejmie. Duże modele językowe nie operują bowiem na znaczeniach, a jedynie na statystycznym prawdopodobieństwie. Ich rola sprowadza się do wygenerowania ciągu tokenów, który (w oparciu o dane treningowe i dany kontekst) jest najbardziej prawdopodobny. To znaczy, że AI nie posiada własnych intencji, nie rozumie nadrzędnego celu systemu i nie potrafi odróżnić obiektywnej prawdy od samej wiarygodności przekazu.

Zjawisko to najwyraźniej obrazują tzw. halucynacje. Model potrafi stworzyć odpowiedź, która brzmi logicznie i jest nienaganna językowo, a mimo to pozostaje całkowicie błędna. W literaturze fachowej definiuje się je jako treści płynne i poprawne składniowo, które jednak nie mają pokrycia w faktach lub rzeczywistych danych. 

Nie mamy tu do czynienia z defektem w kodzie, lecz z naturalnym następstwem architektury modelu. AI uzupełnia brakujące informacje wariantem najbardziej prawdopodobnym, nawet jeśli w rzeczywistości oznacza to po prostu zgadywanie. 

Co AI robi dobrze?

Sztuczna inteligencja odnosi największe sukcesy tam, gdzie można wyodrębnić powtarzalne wzorce. Dotyczy to w szczególności zadań opartych na strukturach o wysokiej powtarzalności, przetwarzaniu ogromnych zbiorów danych oraz ściśle zdefiniowanych regułach. 

Oznacza to, że technologia świetnie radzi sobie z:

  1. Przetwarzaniem języka naturalnego (NLP) – obejmuje to analizę promptów, wykonywanie poleceń oraz sprawne generowanie odpowiedzi tekstowych. 
  2. Pracą z kodem – potrafi zarówno generować nowe fragmenty programów, jak i sprawdzać te już istniejące. 
  3. Tworzeniem multimediów – generuje wysokiej jakości obrazy oraz materiały wideo. 
  4. Analizą danych – błyskawicznie przetwarza zbiory informacji i formułuje wynikowe wnioski.
  5. Działaniem agentycznym – potrafi pracować w sposób autonomiczny nad złożonymi zadaniami. 
  6. Automatyzacją i tworzeniem artefaktów – przygotowuje przypadki testowe, dokumentację czy skrypty na podstawie krótkich instrukcji. 

Przekładając to na grunt testowania, AI działa jak akcelerator przyspieszający projektowanie scenariuszy, analizę logów czy przygotowywanie danych testowych. 

Granice możliwości i braki AI

Ograniczenia sztucznej inteligencji nie są efektem niedoboru mocy obliczeniowej, lecz wynikają bezpośrednio z jej architektury. Model nie posiada bezpośredniego kontaktu z rzeczywistością, nie pojmuje uwarunkowań biznesowych i nie jest w stanie samodzielnie zweryfikować trafności swoich wyników. 

Z tego powodu napotykamy na konkretne bariery. AI nie potrafi:

  1. Samodzielnie przygotować sobie danych uczących – jest całkowicie zależne od tego, co dostarczy mu człowiek. 
  2. Myśleć krytycznie – nie weryfikuje faktów, on je jedynie produkuje. Jeśli otrzyma błędne dane wejściowe, dostarczy wynik spójny wewnętrznie, ale merytorycznie błędny. 
  3. Wykazać się inteligencją emocjonalną – nie rozumie głębokich potrzeb ludzi, brakuje mu empatii oraz prawdziwej kreatywności. 
  4. Brać odpowiedzialności – algorytm nie podejmuje wiążących decyzji, a jedynie dostarcza odpowiedzi. 

Dodatkowo modele bazują na danych treningowych i bez dodatkowych źródeł nie mają dostępu do informacji po dacie odcięcia wiedzy (ang. knowledge cutoff). 

AI w codziennej pracy testera

Testowanie doskonale naświetla realne limity AI, ponieważ opiera się ona na interpretacji, a nie wyłącznie na suchych danych.

 

AI potrafi AI nie potrafi
Stworzyć przypadek testowy na podstawie opisu Ocenić, czy dany test ma biznesowe uzasadnienie
Zaproponować zakres pokrycia testowego Rozstrzygnąć, czy to pokrycie jest adekwatne
Przeanalizować rezultaty wykonanych testów Sprawdzić, czy dany wynik jest rzeczywiście istotny
Wspierać pisanie skryptów automatycznych Rozpoznać, czy dany problem jest realnym defektem

 

Stoimy tu przed klasycznym problemem „wyroczni”. AI brakuje punktu odniesienia poza dostarczonymi danymi wejściowymi. Istnieje ryzyko generowania defektów trudnych do wykrycia: testy mogą być formalnie poprawne, ale merytorycznie puste, a analiza logiczna może bazować na fałszywych przesłankach. Szczególnie widoczne jest to w kodzie, gdzie modele potrafią tworzyć nieistniejące funkcje, zachowując idealną składnię. 

AI potrzebuje człowieka, nie odwrotnie

Sztuczna inteligencja nie funkcjonuje w próżni. Do istnienia niezbędna jest jej cała infrastruktura: serwery, ogromne ilości energii, wyuczony model oraz dane treningowe. Bez kontekstu dostarczonego przez użytkownika system pozostaje bezużyteczny. 

To człowiek pozostaje najważniejszym elementem układanki, ponieważ potrafi zdefiniować problem i podjąć decyzję. Tester z wykonawcy zadań staje się osobą oceniającą jakość i identyfikującą ryzyka. Przewaga ludzi nad AI wynika z cech, których te nigdy nie posiądzie:

  1. Zrozumienie kontekstu (tester wie, kto i po co używa systemu).
  2. Myślenia krytycznego (zdolności do zakwestionowania nawet „pewnych” wyników). 
  3. Interpretacji (odróżniania poprawności formalnej od realnej wartości).
  4. Empatii (widzenia problemów z perspektywy użytkownika, których nie ma w tabelach).
  5. Pracy z niepewnością (AI zawsze chce podać odpowiedź, tester potrafi powiedzieć „nie wiem” i to zweryfikować). 

Czego warto się uczyć?

Wraz z rozwojem technologii spada wartość kompetencji odtwórczych. Warto inwestować w umiejętności, których nie da się zamknąć w algorytmach: testowanie eksploracyjne, analizę ryzyka i rozumienie domeny biznesowej i umiejętność zadawania trafnych pytań. Równolegle cały czas ważna staje się biegłość w pracy z samym AI, czyli precyzyjne promptowanie i krytyczna weryfikacja wyników. Nie chodzi o to, by „umieć obsługiwać AI”, ale by wiedzieć, kiedy nie należy jej ufać. 

Wnioski

AI to system statystyczny, który działa zgodnie ze swoją konstrukcją. Nie jest inteligentny w ludzkim tego słowa znaczeniu. Największym zagrożeniem jest przypisywanie mu cech takich jak intencja czy rozumienie. Wtedy AI przestaje być narzędziem, a staje się autorytetem. Tymczasem największą siłą testera jest zdolność podważania wyników, ponieważ to, co AI robi, najlepiej (generowanie wiarygodnych odpowiedzi), jest jednocześnie źródłem jej największych błędów.
 

W których zadaniach AI najczęściej zawodzi?
W których zadaniach AI najczęściej zawodzi?
0 %
Interpretacja wyników
0 %
Rozumienie kontekstu biznesowego
0 %
Ocena ryzyka
0 %
Decyzja, czy coś jest defektem
Łącznie głosów: 0
Źródła:
https://arxiv.org/html/2510.06265v2
https://en.wikipedia.org/wiki/Knowledge_cutoff
https://www.businessinsider.com/why-ai-chatbots-hallucinate-openai-chatgpt-anthropic-claude-2025-9?IR=

To powinno Cię zainteresować