18 czerwca 2023 roku łódź podwodna Titan, należąca do firmy OceanGate, rozpoczęła rutynową ekspedycję turystyczną do wraku Titanica. Na pokładzie znajdowało się pięć osób, w tym Stockton Rush - CEO OceanGate i konstruktor łodzi. Niecałe dwie godziny po rozpoczęciu zanurzania kontakt z jednostką został utracony. Po czterech dniach intensywnych poszukiwań odnaleziono szczątki implodowanej łodzi. Nikt nie przeżył.
Ta katastrofa nie była jednak zaskoczeniem dla ekspertów branży. Już w 2018 roku grupa ponad 30 specjalistów w dziedzinie technologii głębinowej wystosowała list ostrzegający przed ryzykiem "katastrofalnych" następstw dla pasażerów Titana. Ostrzeżenia zostały zignorowane. Rush wielokrotnie publicznie bagatelizował znaczenie standardowych procedur certyfikacji bezpieczeństwa, argumentując, że hamują one innowacje. W wywiadzie dla CBS News stwierdził nawet, że "w pewnym momencie bezpieczeństwo jest tylko czystą stratą" - stwierdzenie, które w świetle późniejszych wydarzeń nabiera złowieszczego znaczenia.
Tragedia Titana stała się już symbolem tego, jak ślepa wiara w innowację może prowadzić do katastrofy. James Bach w swojej analizie tej tragedii szczególnie celnie punktuje systematyczne lekceważenie głosów krytycznych przez Stocktona Rusha. Jednak poza oczywistą warstwą spektakularnej porażki inżynieryjnej, historia ta odsłania głębszy, uniwersalny problem, jakim jest napięcie między naciskiem na szybki rozwój a odpowiedzialnością za bezpieczeństwo produktu. To napięcie jest szczególnie widoczne w branży IT, gdzie presja na szybkie dostarczanie nowych funkcjonalności często konkuruje z potrzebą dokładnego testowania. Testerzy znajdują się często w podobnej pozycji co eksperci ostrzegający OceanGate przed ryzykiem. Ich ostrzeżenia, poparte wiedzą i doświadczeniem, zderzają się z mantrą "move fast and break things". Problem w tym, że podczas gdy Facebook mógł sobie pozwolić na uczenie się poprzez wywoływanie awarii w początkowej fazie rozwoju, to są obszary gdzie cena awarii jest zbyt wysoka.
Presja w startupach ma szczególny charakter. Jest to mieszanka ambicji założycieli, oczekiwań inwestorów i strachu przed konkurencją. W swoim artykule, Bach demaskuje retoryczne sztuczki używane przez Rusha do uzasadnienia omijania standardowych procedur bezpieczeństwa. Szczególnie wymowna jest analiza jego argumentu o innowacji. Rush najpierw definiował innowację jako coś wykraczającego poza przyjęte systemy, by następnie użyć tego jako pretekstu do zignorowania podstawowych zasad bezpieczeństwa. Ta manipulacja językowa jest symptomatyczna dla szerszego problemu, jakim jest tworzenie fałszywej dychotomii między innowacją a bezpieczeństwem.
To przeciwstawianie sobie innowacji i bezpieczeństwa jest szczególnie niebezpieczne, ponieważ właśnie w startupach kultura bezpieczeństwa jest wyjątkowo ważna. Bach podkreśla ważny aspekt: jeśli tworzysz coś innowacyjnego w obszarze systemów krytycznych dla życia, masz dodatkowy obowiązek rygorystycznego testowania i analizy. SpaceX, często przywoływany jako przykład sukcesu w branży wysokiego ryzyka, nie osiągnął swojej pozycji przez ignorowanie standardów bezpieczeństwa, ale przez stworzenie własnych, często bardziej rygorystycznych procedur. Pozostając przy SpaceX, jego historia pokazuje, że skuteczne zarządzanie ryzykiem wymaga systemowego podejścia i zaangażowania na wielu poziomach organizacji. Tester musi mieć świadomość, że jego rola wykracza poza techniczne aspekty testowania. Jest on strażnikiem kultury jakości, a to wymaga nie tylko wiedzy technicznej, ale też umiejętności komunikacji i przekonywania. Problem w tym, że sama wiedza techniczna często nie wystarczy. Musi nauczyć się mówić językiem biznesu i przekładać techniczne ryzyka na biznesowe konsekwencje.
Bach zwraca też uwagę na zasadniczy element, którym jest znaczenie krytycznego dystansu w procesie testowania. Wewnętrzni eksperci, jak argumentuje, mogą zatracić obiektywizm poprzez bliski kontakt z zespołem i współdzielone założenia. To prowadzi do sytuacji, gdzie osoby odpowiedzialne za bezpieczeństwo mimowolnie dostosowują się do dominującej opinii. Ta obserwacja ma głębokie implikacje dla organizacji procesu testowania.
Ważnym elementem jest tu kwestia odpowiedzialności. W przypadku OceanGate, Rush nie tylko ryzykował własnym życiem, narażał też życie swoich klientów, w tym 19-letniego pasażera, bez żadnego przygotowania inżynieryjnego. W świecie oprogramowania rzadko mamy do czynienia z bezpośrednim zagrożeniem życia, ale konsekwencje awarii mogą być równie poważne w szerszej perspektywie. Wyciek danych medycznych, awaria systemu bankowego czy defekt w oprogramowaniu sterującym infrastrukturą krytyczną mogą mieć katastrofalne skutki.
Bach podkreśla, że nie było niczym złym samo dążenie do innowacji. Błędem było zabieranie płacących klientów na pokład niedostatecznie przetestowanego sprzętu bez ujawnienia pełnej wiedzy o bezpieczeństwie. To rozróżnienie jest priorytetem. Innowacja nie jest problemem, problemem jest lekkomyślność i nieodpowiedzialne zachowanie. Zrozumienie tej różnicy prowadzi nas do sedna sprawy, gdzie prawdziwym wyzwaniem jest znalezienie równowagi między innowacją a bezpieczeństwem. Nie chodzi o to, by stać się hamulcowym postępu, ale o to, by innowacja była odpowiedzialna. Wymaga to często trudnych rozmów i niewygodnych decyzji. Wymaga też odwagi. Tej samej odwagi, którą wykazali się eksperci ostrzegający OceanGate.
Być może najważniejszą lekcją z historii Titana jest to, że kultura bezpieczeństwa nie powstaje samoistnie, lecz musi być świadomie budowana i pielęgnowana. W czasach, gdy "fail fast" jest stale powtarzane, musimy pamiętać, że niektórych defektów nie da się naprawić kolejną iteracją produktu. Na testerze spoczywa szczególna odpowiedzialność w kształtowaniu tej kultury, nie tylko przez jego działania techniczne, ale przede wszystkim przez promowanie świadomości ryzyka i odpowiedzialności za produkt.
Może się to wydawać przytłaczające zadanie, ale historia pokazuje, że zmiana kultury organizacyjnej jest możliwa. Wymaga ona jednak konsekwentnego działania i, co najważniejsze, zdolności do przeciwstawienia się dominującym trendom, gdy wymaga tego bezpieczeństwo. Trzydziestu ekspertów, którzy w 2018 roku ostrzegali przed katastrofą Titana, może dziś wydawać się Kasandrami. Ich przepowiednia się spełniła, ale nikt ich nie posłuchał. Jednak ich głos nie był daremny, bo stał się częścią większej opowieści o odpowiedzialności w innowacji. Tester ma wybór: może być jak Stockton Rush, który w pogoni za innowacją zignorował znaki ostrzegawcze, lub jak jeden z ekspertów, którzy mieli odwagę powiedzieć "nie" mimo presji i krytyki. W czasach, gdzie każdy chce być wizjonerem, czasem potrzeba większej odwagi, by być tym, kto stawia niewygodne pytania.