#AI

Przegląd testerskiego Internetu – Grudzień 2025

Jeśli mielibyśmy wskazać motyw przewodni grudnia, byłoby to „działa zgodnie z projektem, tylko nie tym, co trzeba”. W tym przeglądzie: dużo technologii, jeszcze więcej zaufania i zaskakująco mało kontroli.

10 testerskich mitów, które warto porzucić przed 2026 rokiem

Pod koniec roku mamy naturalną potrzebę posprzątać różne zakamarki - na biurku, w głowie, czasem w życiu zawodowym. Coś dopiąć, coś odpuścić, czegoś nie brać ze sobą dalej. I dobrze, bo branża testowania też ma swoje przyzwyczajenia, które od dawna proszą się o wietrzenie. Powtarzamy je z rozpędu, jak komunikaty z czasów, kiedy Internet działał na modemie, a dokumentację drukowało się na perforowanych kartkach.

Testowanie oprogramowania 2026. Prognozy

Wiele sygnałów wskazuje na to, że 2026 będzie rokiem, w którym praca testerów zmieni się bardziej niż przez całą ostatnią dekadę. Na stałe zagoszczą nowe praktyki, a część dotychczasowych założeń trzeba będzie po prostu porzucić.

AI4RE. Mikrocertyfikat od IREB®

AI coraz częściej pojawia się w pracy osób zajmujących się wymaganiami. Do analizy notatek, porządkowania backlogu, generowania opisów czy przygotowania materiałów do warsztatów. Najczęściej jednak dzieje się to bez jasnych zasad i bez wspólnego zrozumienia, gdzie AI faktycznie pomaga, a gdzie zaczyna szkodzić. AI4RE porządkuje ten obszar.

AI przygotowuje do egzaminu ISTQB® Advanced

Przygotowanie do egzaminu ISTQB® Advanced to proces, który coraz częściej startuje nie od opasłego sylabusa, ale od okienka czatu AI. Wystarczy kilka komend, by dostać gotowe podsumowanie materiału, zestaw pytań, streszczenie najważniejszych koncepcji, a nawet wersję audio do odsłuchania w drodze do pracy. To naturalny skok technologiczny w nauce: jest szybko, wygodnie i na pierwszy rzut oka bardzo skutecznie.

LLM-y w testowaniu dostępności

Czy GPT-4o potrafi wykrywać błędy dostępności lepiej niż klasyczne Walidatory? Przyglądamy się badaniu, które testuje możliwości LLM-ów w automatycznym sprawdzaniu zgodności z wytycznymi WCAG.

Jak myśleć i jak rozmawiać o AI?

AI jest tematem, który obrósł mitami, a rzesza domorosłych specjalistów od wszystkiego wydała już na nią wyrok. Wszyscy oni się mylą i nikt z nich nie ma racji.

Przegląd testerskiego Internetu – Listopad 2025

Korporacje coraz mocniej inwestują w AI, ale listopad przypomniał, że automatyzacja wcale nie zwalnia z myślenia. Zwłaszcza wtedy, gdy podejmowane decyzje mają realny wpływ na ludzi, bezpieczeństwo i cały Internet.

Jak podejść do testowania LLM-ów?

Duże modele językowe (LLM) nie działają jak klasyczne aplikacje. Ich odpowiedzi są zmienne, probabilistyczne i zależne od parametrów generacji, więc nawet pozornie identyczne zapytania mogą prowadzić do różnych wyników. James Bach przypomina, że jeśli chcemy je testować uczciwie, musimy zmienić sposób myślenia.

Jak testować LLM-y?

James Bach opublikował niedawno tekst, w którym porządkuje swoje przemyślenia na temat testowania systemów opartych na dużych modelach językowych (LLM). W przeciwieństwie do dominującego w branży entuzjazmu, Bach proponuje podejście ostrożnie, krytyczne i wymagające, ale przede wszystkim merytoryczne.