AI na wojnie decyduje o życiu i śmierci. Ekspertka potwierdza, że to dopiero wierzchołek góry lodowej

„Każda linijka kodu analizująca dane z pola walki może oznaczać czyjeś życie lub śmierć” – ostrzega dr Kaja Kowalczewska, badaczka prawa międzynarodowego i nowych technologii wojskowych. Jej słowa dobrze oddają tempo, w jakim armie świata przenoszą ciężar decyzji bojowych z ludzi na algorytmy.

AI na wojnie to rzeczywistość

W ostatnich latach sztuczna inteligencja przeszła w siłach zbrojnych drogę od narzędzia analitycznego do pełnoprawnego „aktora” operacyjnego. Gdy firma Anthropic odmówiła udostępnienia modelu Claude do projektów zbrojeniowych, Pentagon zerwał kontrakt wart 200 mln dolarów i zwrócił się do OpenAI. Nowy prototyp, roboczo nazwany Polaris, w kilka sekund zestawia obrazy satelitarne, sygnały radarowe i raporty wywiadowcze, by rekomendować cele ataku. Podobne systemy, choć z mniejszym rozmachem, funkcjonują już na Ukrainie oraz w Izraelu, gdzie wspierają operatorów baterii „Żelaznej Kopuły”.

Dla dowódców kluczowe jest skrócenie pętli OODA – obserwuj, orientuj się, decyduj, działaj. Algorytmy głębokiego uczenia wykonują pierwsze trzy fazy szybciej, niż człowiek potrafi przeczytać raport. To przewaga taktyczna, ale i niebezpieczeństwo: błąd w danych wejściowych lub wnioskowaniu może zainicjować atak bez czasu na reakcję człowieka.

Sekretne projekty i wojskowe chatboty

Rozwiązania określane skrótem AI DSS (Artificial Intelligence Decision Support Systems) przypominają popularne chatboty, lecz są zasilane danymi o ruchach wojsk, logistyce czy trajektorii pocisków. NATO testuje moduł Intelligent Battle Rhythm, a Izrael przyznał, że podczas operacji w Strefie Gazy korzystał z systemu o kryptonimie Habsora. Dowódca wpisuje zapytanie – „Jaki środek rażenia maksymalizuje szansę eliminacji celu i minimalizuje szkody uboczne?” – a interfejs prezentuje ranking opcji wraz z odsetkiem prawdopodobieństwa sukcesu.

Dr Kowalczewska zwraca jednak uwagę na zjawisko „automatycznego autorytetu”: „Gdy interfejs wygląda jak wyszukiwarka Google, operator podświadomie zakłada, że pierwsza odpowiedź jest najlepsza. W stresie bojowym łatwo więc o bezrefleksyjne kliknięcie – a konsekwencje bywają nieodwracalne”. Przykładem jest incydent podczas manewrów australijskiej armii w 2023 r., kiedy autonomiczny dron omyłkowo oznaczył kolumnę własnych żołnierzy jako „cele wysokiego ryzyka”; ćwiczenia przerwano, raport utajniono.

Prawo w tyle za technologią

Choć w Genewie od ponad dekady toczą się dyskusje o legalności „letalnych autonomicznych systemów uzbrojenia” (LAWS), żaden wiążący traktat nie rozróżnia, czy decyzję o ataku podjął człowiek, czy algorytm. Międzynarodowy Komitet Czerwonego Krzyża mówi wprost o „dyfuzji odpowiedzialności”: łańcuch winy rozciąga się od programisty przez operatora sensorów po generała zatwierdzającego rozkaz. W praktyce nikt nie trafia na ławę oskarżonych.

Ilustruje to niepotwierdzony oficjalnie atak na szkołę w irańskim Minabie. Fragmenty głowicy wskazują na produkcję możliwą w kilku krajach, lecz analiza trajektorii sugeruje użycie algorytmu selekcjonującego cele na podstawie sygnatur elektronicznych. Jeśli wersja ta się potwierdzi, prawnicy staną przed precedensem: jak określić odpowiedzialność nieludzkiego „decydenta”, którego logika działania jest zastrzeżona lub utajniona?

Quo vadis, autonomiczna broń?

Historia technologii wojskowych pokazuje, że zakazy przychodzą zwykle po tragediach: broń chemiczną potępiono dopiero po masowych ofiarach I wojny światowej, a miny przeciwpiechotne – gdy ginęły w nich tysiące cywilów rocznie. Eksperci obawiają się, że podobny scenariusz czeka sztuczną inteligencję. Do tego czasu algorytmy będą coraz głębiej integrowane z rakietami, dronami i systemami wczesnego ostrzegania, skracając czas reakcji do milisekund – i zwiększając ryzyko, że następną wojnę rozpocznie nie człowiek, lecz linijka kodu.