PTI 2025. Podsumowanie i wnioski

PTI 2025. Podsumowanie i wnioski
W ciągu dwunastu miesięcy przez Przeglądy testerskiego Internetu przewinęły się setki historii: absurdalnych, groźnych, niewygodnych, a czasem zwyczajnie tragikomicznych. Ale gdy poukłada się je w jeden ciąg, zaczyna się wyłaniać opowieść – nie o błędach czy defektach, lecz o mechanizmach, które je umożliwiają.

Kiedy spojrzy się na 2025 rok jak na kronikę zdarzeń, trudno oprzeć się wrażeniu, że technologia testowała nas bardziej, niż my testowaliśmy ją. To był rok, w którym awarie nie schodziły z pierwszych stron portali informacyjnych, a zwykli użytkownicy dowiadywali się o istnieniu inżynierów jakości dopiero wtedy, kiedy coś przestawało działać. W pociągach, w szpitalach, w domach, w urzędach. Na ekranach telefonów i w kokpitach samolotów. 

1. Gdy jedna awaria przekreśla cały Internet

Pierwszy sygnał, że będzie to rok intensywny, przyszedł z Cloudflare. Jedna niepoprawna konfiguracja – tylko tyle wystarczyło, by zgasły tysiące usług. W newsroomach na całym świecie zaczęły się pojawiać wykresy spadku ruchu, a użytkownicy szukali winy w routerach, telefonach, pogodzie. Tymczasem problem leżał w czymś tak drobnym, że większość osób nigdy by nie spojrzała na to dwa razy. 

Podobny scenariusz powtórzył się, gdy AWS przeciągnął w dół połowę domowego IoT. Inteligentne łóżka nie reagowały, odkurzacze stały w miejscu, a systemy logistyczne firm trzęsły się jak obraz w kamerze zamontowanej w pędzącym rowerze. Operatorzy tłumaczyli: „Nie przewidzieliśmy takiej kombinacji zdarzeń”. I może właśnie to zdanie jest najuczciwszym podsumowaniem wielu incydentów tego roku.

Każda z tych historii pokazuje coś niepokojąco prostego: technologia działa, dopóki działa. I nie ma w tym żadnej metafizyki. 

gdy-jedno-pole-przekresla-caly-internet.png

2. AI, która miało pomagać, zaczęła płatać figle

W 2025 roku wiele firm przekonywało, że AI stanie się „kolejnym członkiem zespołu”. Czasem rzeczywiście była. Częściej jednak była tym współpracownikiem, który nie rozumie poleceń, ale udaje, że tak – i to z wielkim przekonaniem. Modele generowały kod do phishingu, pisały instrukcje ataków, udzielały porad prawnych niezgodnych z prawem, a potem uśmiechały się – wirtualnie, rzecz jasna – jakby wszystko było w porządku. W Stanach Zjednoczonych wprowadzono je nawet do administracji publicznej, gdzie odpowiadały na pytania dotyczące kompetencji urzędników… i często mijały się z prawdą tak konsekwentnie, że trudno było je odróżnić od celowego sabotażu. 

I to właśnie ta powtarzalność halucynacji była najbardziej pouczająca. Bo AI potrafiła zachowywać się wiarygodnie nawet wtedy, kiedy nie miała racji. A to oznacza, że jej testowanie wymaga nie tylko wiedzy technicznej, ale wręcz społecznej wyobraźni.

ai-ktora-miala-pomagac-zaczela-platac-figle.png

3. Dane, które wyciekały z prędkością światła

Trudno dziś policzyć, ile razy w ciągu roku w nagłówkach pojawiało się słowo „wyciek”. Dane studentów. Dane pacjentów. Dane obywateli. Dane agentów FBI. Dane klientów, którzy nawet nie wiedzieli, że ich adresy mailowe są przechowywane w danej organizacji. Najbardziej niepokojący był jednak powtarzający się schemat. Defekt zgłoszony. Brak reakcji. Kolejne zgłoszenie. Cisza. Aż w końcu publikacja szczegółów, bo bezpieczeństwo użytkowników przestaje być kwestią lojalności wobec dostawcy. 

W tym wszystkim było coś głęboko ludzkiego, coś, co na co dzień rzadko pojawia się w dyskusjach o testowaniu. Błąd bezpieczeństwa to nie jest tylko błąd. To czyjaś historia wizyt lekarskich, czyjeś dane finansowe, czyjeś zdjęcia. To konkretne osoby, których prywatność rozsypuje się na czynniki pierwsze. 

dane-ktore-wyciekaly-szybciej-niz-oficjalne-komunikaty.png

4. Systemy publiczne zawodzą

Jeśli rok 2025 miał swój najbardziej niewygodny motyw, były to wpadki systemów publicznych. Syreny ostrzegające przed nadciągającym tornado, które nie zadziałały. System wyborczy, który odmawiał ludziom prawa głosu. E-Zdrowie, które przeciążało się dokładnie wtedy, gdy było najbardziej potrzebne. Powiadomienia alarmowe trafiające do milionów osób w środku nocy. 

W każdym z tych przypadków problem nie dotyczył wygody. Dotyczył bezpieczeństwa i poczucia, że państwo jest obecne wtedy, kiedy powinno. A jednak zawodziło i to nie dlatego, że ktoś napisał zły algorytm, ale dlatego, że nikt nie przetestował go pod kątem konsekwencji. A konsekwencje w usługach publicznych nie są abstrakcyjne. One zawsze dotykają realnych ludzi. Czasem tych, którzy nie mają narzędzi, by naprawić defekty systemu. 

kiedy-systemy-publiczne-zawodza-nie-ma-linii-mety.png

5. Transport, czyli miejsca, gdzie margines błędu kurczy się do zera

W tym roku mieliśmy sceny jak z filmu: pociągi zderzające się przez błąd w systemie bezpieczeństwa, samoloty uziemione jedną aktualizacją, autonomiczne auta, które – jakby zapominając o prawach fizyki – podejmowały decyzje zupełnie oderwane od rzeczywistości. 

O ile w mediach takie historie często przedstawiane są jako „wpadki technologii”, testerska perspektywa jest znacznie bardziej trzeźwa. Tu nie chodzi o technologię. Tu chodzi o ludzi, którzy mają być bezpieczni. I właśnie dlatego testy w transporcie nie są polem do eksperymentów. 

transport-czyli-miejsce-gdzie-margines-bledu-kurczy-sie-do-zera.png

6. Defekty, które pamiętają lata 90.

Wśród najbardziej fascynujących incydentów roku znalazły się te, które brzmiały trochę jak żart: 30-letni bug powracający jak duch, 23-letni defekt w Google, stary błąd w OpenSSH, który dopiero teraz ujawnił swój pazur. Każda z tych historii była przypomnieniem, że kod nie znika, kiedy o nim zapomnimy. Że dług technologiczny nie jest pojęciem z prezentacji, tylko realną konsekwencją każdego „dopiszemy to później”. I że „później” ma zwykle długi termin ważności. 

defekty-ktore-pamietaja-lata-90.png

7. Najbardziej absurdalne defekty są zawsze najbardziej "ludzkie"

Wśród poważnych incydentów trafiały się takie, które przypominały, że oprogramowanie – tak samo jak ludzie – potrafi zachowywać się nieprzewidywalnie. Windows 11, który uruchamia jednocześnie kilka Menedżerów zadań. Prędkościomierz Audi, który znika jakby miał dość pracy. Systemy sklepów, które dramatyzują braki w magazynach, jakby przygotowywały się do końca świata. 

To defekty, które nie powinny się zdarzyć, a jednak się zdarzają, bo ktoś pominął oczywistą ścieżkę, bo zabrakło testu, bo zabrakło pytania: „A co jeśli…?”.

najbardziej-absurdalne-defekty-zawsze-sa-najbardziej-ludzkie.png

Co nam to wszystko mówi?

Może to, że technologia nie jest ani dobra, ani zła. Jest tylko niedokończona. Zawsze.

A naszą rolą – jako testerów, inżynierów, twórców systemów – jest pamiętać, że każdy brak testu ma konsekwencję. Czasem śmieszną. Czasem kosztowną. Czasem nieodwracalną. 

Rok 2025 nauczył nas, że:

  1. Trzeba testować wcześniej, nawet jeśli nikt nie prosi.
  2. Trzeba testować głębiej, nawet jeśli deadline mówi co innego. 
  3. Trzeba testować to, czego nie widać – infrastrukturę, bezpieczeństwo, granice. 
  4. Trzeba testować z myślą o użytkowniku, który nie wie, jak to działa. On wie tylko, że powinno. 

To był rok trudnych lekcji. Ale może właśnie takich potrzebowaliśmy, żeby wejść w kolejny z większą pokorą i większą uważnością. 
 

To powinno Cię zainteresować