Generatywne modele językowe zaczynają pełnić funkcje dotąd zarezerwowane dla doświadczonych audytorów bezpieczeństwa. Najnowsze testy wykazały, że wersja Claude Opus 4.6 w zaledwie dwa tygodnie wykryła dziesiątki krytycznych podatności w kodzie popularnej przeglądarki open source i zaproponowała poprawki, które przeszły rygorystyczną walidację oraz zostały przyjęte przez zespół odpowiedzialny za projekt.

Jak przebiegał eksperyment i jakie przyniósł wyniki

W ramach wspólnego przedsięwzięcia zespołów Anthropic i Mozilli model otrzymał aktualny snapshot repozytorium Firefoksa obejmujący około 6 000 plików C++. Już po dwudziestu minutach algorytm wskazał lukę typu „Use After Free”, czyli błąd polegający na ponownym wykorzystaniu zwolnionego obszaru pamięci, co w praktyce umożliwia nadpisywanie danych i potencjalne wykonanie złośliwego kodu.

W ciągu czternastu dni Claude wygenerował 112 unikalnych zgłoszeń, z których 22 potwierdzono jako rzeczywiste podatności. Czternaście z nich miało najwyższy priorytet z uwagi na możliwość eskalacji uprawnień lub całkowitego obejścia mechanizmów piaskownicy. Dla porównania, według publicznego rejestru projektu społeczność deweloperska usuwa podobną liczbę krytycznych błędów w ciągu około dwóch miesięcy.

Co istotne, wszystkie poprawki przygotowane przez model zostały zaimplementowane w wydaniu Firefox 148.0 lub w gałęziach przeznaczonych na kolejną wersję. Każda łatka zawierała test regresji i opis wpływu na wydajność, co ułatwiło proces przeglądu kodu.

Dlaczego nie odnotowano fałszywych alarmów

Znikoma liczba fałszywych pozytywów to efekt wieloetapowej procedury walidacyjnej. Po pierwszym wskazaniu podatności Claude generował minimalny przypadek testowy (proof-of-concept), a następnie próbował odtworzyć błąd w kontenerze zbudowanym na potrzeby testu. Dopiero jeśli exploit prowadził do niepożądanej modyfikacji pamięci lub naruszenia integralności danych, zgłoszenie trafiało do wewnętrznego systemu bug-trackingu.

Proces uzupełniono ręczną weryfikacją analityków Anthropic, którzy oceniali wpływ każdej podatności na model zagrożeń aplikacji. Taka kombinacja analizy statycznej, dynamicznej i eksperckiego przeglądu znacząco ograniczyła ryzyko błędnych zgłoszeń, z którym borykają się klasyczne skanery wykorzystujące wyłącznie reguły heurystyczne.

Od eksperymentu do produktu: Claude Code Security

Sukces testu przyspieszył prace nad modułem Claude Code Security, obecnie dostępnym w wersji zapoznawczej dla klientów korporacyjnych. Rozwiązanie potrafi przeanalizować pełne repozytorium Git, identyfikować złożone zależności między plikami i śledzić przepływ danych, co pozwala wyłapywać subtelne błędy logiczne umykające tradycyjnym narzędziom SAST.

Funkcjonalność nie ogranicza się do samych ostrzeżeń: model tworzy łatę w postaci pull requestu, opisuje przyczynę problemu w języku zrozumiałym dla programisty i automatycznie generuje test jednostkowy potwierdzający naprawę. Dzięki temu integracja z procesem CI/CD jest niemal bezobsługowa, a rekomendacje trafiają bezpośrednio tam, gdzie podejmowane są decyzje techniczne.

Konsekwencje dla branży bezpieczeństwa i możliwe scenariusze

Przykład Firefoksa potwierdza, że sztuczna inteligencja może znacząco skrócić czas od wykrycia luki do opublikowania poprawki. Jednocześnie ta sama technologia może zostać wykorzystana po drugiej stronie barykady: wystarczy zmienić prompt, by model poszukiwał jeszcze nieznanych błędów zero-day i automatyzował proces pisania exploitów.

Narzędzia pokroju Claude Code Security wpisują się w rosnący trend „AI-assisted DevSecOps”, w którym automatyzacja obejmuje całe cykle wytwarzania oprogramowania – od pisania kodu przez testy do monitoringu produkcyjnego. Wielu producentów, w tym dostawcy chmur publicznych oraz platform typu GitHub, zapowiada integrację własnych dużych modeli językowych z pipeline’ami budowania aplikacji.

Regulatorzy również reagują: NIST w USA opracowuje wytyczne dotyczące bezpiecznego użycia generatywnej AI, a unijne akty prawne – zwłaszcza Cyber Resilience Act i AI Act – kładą nacisk na odpowiedzialne zarządzanie modelami o wysokim ryzyku. Firmy planujące wykorzystać tego typu rozwiązania muszą więc łączyć potencjał automatyzacji z kontrolą dostępu, telemetrią i procedurami odpowiedzialnego ujawniania podatności, aby nie stworzyć nowego wektora ataku.