Przez ostatnią dekadę rozwój kryptografii sieciowej przebiegał w sposób ewolucyjny. Aktualizowaliśmy biblioteki OpenSSL, wymienialiśmy SHA-1 na SHA-256, zwiększaliśmy długości kluczy RSA – ale wszystko to mieściło się w znanym modelu bezpieczeństwa. W 2025 roku po raz pierwszy od ponad 20 lat stoimy przed zmianą, która nie jest ewolucją. Jest resetem architektury TLS.
Wejście algorytmów post-kwantowych NIST, takich jak CRYSTALS-Kyber i Dilithium, oznacza zmianę na poziomie fundamentów. Nie chodzi już o dobór krzywej, długość klucza czy format podpisu. Chodzi o fakt, że dotychczasowy system wymiany kluczy i podpisów cyfrowych przestanie być wystarczająco bezpieczny, gdy tylko komputery kwantowe osiągną odpowiednią skalę obliczeniową. A wiele przechwytywanych dziś danych będzie aktualnych także za dekadę. To dlatego świat bezpieczeństwa zaczyna wdrażać model „harvest now, decrypt later” jako realne zagrożenie, a nie jako futurologię.
Spis Treści
Najważniejsze wyzwanie polega na tym, że migrować nie można „od razu”. Przeglądarki, systemy operacyjne, urządzenia IoT, infrastruktury embedded i biblioteki kryptograficzne nie są w stanie przyjąć czystego PQC w 2025 roku. Dlatego wprowadzono model hybrydowy, w którym handshake TLS zawiera dwa równoległe mechanizmy wymiany kluczy: klasyczny (ECDHE) i post-kwantowy (Kyber). Klient i serwer negocjują oba zestawy parametrów, a następnie je łączą, tworząc klucz sesyjny odporny na ataki zarówno klasyczne, jak i kwantowe.
To właśnie ten moment, w którym wiele organizacji odkrywa, że ich sieć – choć działa bez zarzutów – nie jest gotowa na obsługę większych rekordów handshake, nowych OID-ów i podwójnych struktur kluczy. W hybrydowym modelu rosną rozmiary pakietów, zmienia się profil obciążenia CPU, a niektóre urządzenia brzegowe mają problemy z parsowaniem nowych rozszerzeń TLS. To wymaga testów, mapowania kompatybilności i świadomego planowania.
Jednym z najczęstszych błędów w infrastrukturach korporacyjnych jest przekonanie, że aktualizacja OpenSSL to kwestia wygody, a nie bezpieczeństwa. Tymczasem OpenSSL 1.1.1 – przez lata standard de facto – jest niekompatybilny z nowymi mechanizmami PQC. Nie potrafi obsłużyć providerów kryptograficznych, nie ma architektury ładowalnych modułów i nie rozumie nowych formatów kluczy.
OpenSSL 3.x wprowadza architekturę providerów, możliwość dynamicznego ładowania algorytmów, wsparcie dla nowych typów podpisów oraz pełną elastyczność niezbędną w hybrydowych handshake. Dlatego migracja bibliotek kryptograficznych nie jest „opcją na przyszłość”. To wstępny krok do jakichkolwiek testów PQC, nawet eksperymentalnych.
Świat certyfikatów stoi przed największym przeprojektowaniem od dwóch dekad. W modelu post-kwantowym pojedynczy klucz publiczny w certyfikacie przestaje wystarczać. Certyfikat X.509 będzie musiał przechowywać dwa zestawy parametrów: klasyczne ECDSA oraz komponent post-kwantowy.
To oznacza przebudowę całego łańcucha narzędzi: od generatorów CSR, przez CA, aż po przeglądarki i rejestry CT. CSR, zamiast być lekkim dokumentem z jednym kluczem, stanie się strukturą bardziej przypominającą kontener, zawierającą różne algorytmy w jednej konstrukcji. Przeglądarki muszą wiedzieć, jak interpretować podpisy, CA musi potrafić weryfikować oba zestawy, a systemy monitoringu CT muszą być w stanie przechowywać certyfikaty znacznie większe niż dotychczas.
To nie jest zmiana „w warstwie certyfikatu”. To zmiana, która dotyka wszystkich elementów infrastruktury:
W wielu firmach to właśnie HSM stanie się największym ograniczeniem. Znaczna część dostępnych dziś modułów sprzętowych nie ma wsparcia dla Kyber czy Dilithium, a ich modernizacja wymaga wymiany całego sprzętu, a nie tylko aktualizacji oprogramowania. Przyszłe certyfikaty będą większe, a ich generowanie – cięższe kryptograficznie. Proces certyfikacji będzie też dłuższy, bo CA będzie musiała walidować podwójne struktury.
Przejście do TLS odpornego na ataki kwantowe nie odbywa się “jednym kliknięciem”. W praktyce wymaga to trzech równoległych strumieni działań:
Organizacja musi sprawdzić, czy wszystkie komponenty potrafią ładować providerów PQC i generować klucze w nowych formatach. To moment, w którym wychodzą na jaw pozornie drobne problemy – jak backend, który od lat działa na starszej wersji LibTLS lub serwer IoT, który nie potrafi przyjąć większej ramki handshake.
PQC wymaga testowania nie tylko z przeglądarkami, ale także z proxy, z którymi komunikują się serwisy wewnętrzne. Testy hybrydowego handshake muszą być przeprowadzone zarówno w ruchu publicznym, jak i w środowiskach wewnętrznych obejmujących API, mikroserwisy, a nawet komunikację baz danych.
Pipeline musi generować dwa klucze, obsługiwać hybrydowe CSR, wysyłać je do CA i weryfikować podwójne podpisy. Wiele narzędzi CI/CD nie jest na to gotowych. To krok, którego organizacje często nie doceniają – i dopiero przy masowych odnowieniach certów odkrywają, że cały proces się „rozsypuje”.
Bo w 2026-2028 zacznie się presja ze strony:
A firmy, które nie będą gotowe, obudzą się w tym samym miejscu, w którym branża obudziła się przy przejściu z SHA-1 na SHA-256 – z niekompatybilną infrastrukturą, setkami błędów handshake i presją czasową.
Przygotowanie infrastruktury na PQC oznacza:
To proces, który – jeśli zacząć go teraz – można przeprowadzić spokojnie, etapami, unikając kosztownych błędów. Ale jeśli zacząć za późno, PQC stanie się problemem infrastrukturalnym, nie kryptograficznym.
Choć pełna adopcja kryptografii post-kwantowej dopiero się zaczyna, w praktyce już dziś pojawiają się problemy wynikające z prób wdrażania PQC lub ze zderzenia nowoczesnych bibliotek z klasycznymi infrastrukturami. Poniższe case studies pochodzą z audytów i projektów migracyjnych realizowanych w Europie i USA w latach 2023-2025. Wszystkie pokazują jedno: PQC nie jest abstrakcją, lecz realnym czynnikiem wpływającym na infrastrukturę już teraz.
Duży bank wprowadzający testowe wdrożenie PQC zauważył, że część połączeń z aplikacji mobilnej kończyła się resetem albo renegocjacją handshake. Początkowo podejrzewano problem z aplikacją lub certyfikatem. Dopiero głęboka analiza PCAP ujawniła, że:
Bank początkowo sądził, że wystarczy aktualizacja firmware.
Producent poinformował jednak, że wsparcie dla PQC pojawi się dopiero w 2027.
Efekt: konieczność wymiany klastra urządzeń, które jeszcze dwa lata temu uznawano za „nowe”.
Producent urządzeń telemetrycznych wdrożył TLS 1.2 z ECDHE/ECDSA, co spełniało normy medyczne w 2021 roku. Dziś, przy testach PQC:
Przygotowanie firmware kompatybilnego z PQC wymagało:
Pokazuje to największe ryzyko PQC dla branż regulowanych: czas i koszty recertyfikacji sprzętu.
Operator CDN obsługujący kilkaset dużych serwisów przeprowadził testy PQC dla ruchu HTTPS. Wnioski były ciekawe:
Finalne rozwiązanie było hybrydowe także operacyjnie: PQC włączono tylko w wybranych regionach, gdzie infrastruktura była gotowa. Reszta działa na klasycznych algorytmach.
To pierwszy realny przykład strategii „PQC per region capability” – coś, co będzie popularne w latach 2025-2030.
Duży software house tworzący własną platformę SaaS przez lata utrzymywał wewnętrzne CA oparte na starych bibliotekach OpenSSL. Gdy próbował wygenerować pierwszy CSR z komponentem PQC, okazało się, że:
Aby wprowadzić PQC, musieli przeprojektować:
Ten case study pokazuje najważniejszą prawdę: problem PQC ujawnia się często nie w TLS, lecz w samej organizacji CA/PKI.
W świecie sprzed PQC automatyzacja certyfikatów była stosunkowo prosta. ACME odpowiadał za generowanie pojedynczego CSR, odbiór certyfikatu, odnowienia, a DevOps jedynie monitorował proces. W modelu post-kwantowym ACME i cały pipeline będą musiały obsługiwać dwie równoległe struktury kryptograficzne, nowe OID-y, większe ładunki danych i bardziej złożone walidacje.
ACME zostało zaprojektowane w czasach, kiedy certyfikat miał jeden klucz i jedną strukturę podpisu. Hybrydowy certyfikat PQC oznacza, że CSR będzie zawierał:
Dzisiejsze serwery ACME (np. Boulder od Let’s Encrypt) nie są jeszcze gotowe do pełnej obsługi PQC. Modele testowe trwają, ale migracja ACME do PQC oznacza:
To z kolei wymaga aktualizacji bibliotek po stronie klientów ACME: Certbot, acme.sh, Lego, Posh-ACME – wszystkie będą musiały przejść znaczącą modernizację.
W praktyce PQC nie uderzy najpierw w serwer webowy. Uderzy w pipeline DevOps.
Powód jest prosty: Dotychczas pipeline generował jeden klucz i jeden CSR. W świecie PQC pipeline będzie musiał generować dwa zestawy kluczy i obsłużyć złożone zależności między nimi.
Oznacza to zmiany w:
Dodatkowo pipeline będzie musiał:
To ogromne wyzwanie dla firm, które nie mają jeszcze zautomatyzowanego cyklu życia certyfikatów.
Automatyczna rotacja certyfikatu (np. co 60 lub 90 dni) była do tej pory banalna. W erze PQC odnowienie oznacza:
Przez pierwsze lata PQC to właśnie automatyzacja będzie największym wyzwaniem technicznym, a nie sam handshake TLS.