Współpraca firm tworzących modele językowe z resortami obrony od dawna budzi emocje, a napięcie między start-upem Anthropic a amerykańskim Departamentem Obrony pokazuje, jak trudne jest wypracowanie kompromisu pomiędzy innowacją a odpowiedzialnością. Przedsiębiorstwo kierowane przez Dario Amodeia należy do wąskiej grupy podmiotów oferujących systemy generatywne najwyższej klasy, dlatego Pentagon zabiega o dostęp do ich rozwiązań. Jednocześnie Anthropic stawia warunek: żadnych zastosowań naruszających prywatność obywateli ani wdrażania w pełni autonomicznej broni. Gdy administracja rządowa otwarcie odrzuciła te ograniczenia, konflikt przeniósł się na arenę polityczną, a presja na firmę przybrała formę ultimatum grożącego zerwaniem wszystkich kontraktów.
Geneza sporu wokół sztucznej inteligencji dla wojska
Departament Obrony Stanów Zjednoczonych od kilku lat inwestuje w projekty wykorzystujące uczenie maszynowe do analiz wywiadowczych, logistyki oraz planowania operacji. W 2020 r. resort ogłosił „DoD Ethical AI Principles”, ale dokument nie wyklucza ofensywnych zastosowań, o ile są one „proporcjonalne i zgodne z prawem”. Dla wielu inżynierów to zbyt ogólna klauzula. Anthropic, bazując na wewnętrznych wytycznych dotyczących „konstytucyjnego” trenowania modeli, od początku deklarowała sprzeciw wobec projektów obejmujących inwigilację na masową skalę lub decyzje o użyciu siły bez udziału człowieka.
Kiedy Pentagon zażądał przekazania pełnych uprawnień do modyfikacji modelu Claude, firma odpowiedziała odmową. Obawiano się, że brak ścisłych ograniczeń otworzy drogę do integracji systemu z dronami bojowymi lub narzędziami masowego nadzoru. To stanowisko spotkało się z krytyką ze strony wojskowych planistów, którzy argumentowali, że państwo nie może akceptować „oprogramowania z blokadą producenta” w krytycznych zastosowaniach.
Argumenty stron: bezpieczeństwo narodowe kontra etyka technologiczna
Pentagon podkreśla, że wyścig zbrojeń w dziedzinie AI nabiera tempa – Chiny i Rosja rozwijają systemy autonomiczne, a ograniczanie amerykańskich programów może osłabić odstraszanie. Wojskowi eksperci zwracają uwagę, iż modele generatywne przyspieszają analizę obrazów satelitarnych oraz rozpoznanie sygnałów, co może ratować życie żołnierzy.
Z kolei Anthropic powołuje się na badania organizacji takich jak RAND Corporation czy Human Rights Watch, które wskazują, że algorytmy działające bez nadzoru człowieka częściej popełniają błędy klasyfikacji celów i potęgują ryzyko niezamierzonych ofiar. Firma argumentuje, że reputacyjne i prawne skutki błędnych decyzji spadną nie tylko na armię, ale i na twórców oprogramowania. Dodatkowo, obowiązujące w USA prawo o ochronie prywatności – w tym Fourth Amendment – nie rozróżnia sposobu gromadzenia danych, co stawia pod znakiem zapytania zgodność masowego monitoringu opartego na AI z konstytucją.
Presja polityczna i implikacje dla rynku AI
Napięcia eskalowały, gdy były prezydent Donald Trump we wpisie w mediach społecznościowych zagroził uznaniem Anthropic za podmiot zagrażający łańcuchom dostaw, jeśli firma nie spełni wymogów Departamentu Obrony. Ultymatywne warunki uderzają w główne źródła przychodu start-upu – kontrakty federalne oraz granty badawcze – i mogą skłonić inwestorów do rewizji wyceny.
Podobna sytuacja miała miejsce w 2018 r., gdy część pracowników Google zaprotestowała przeciwko udziałowi w projekcie Maven. W efekcie korporacja wycofała się z kontraktu, lecz Pentagon natychmiast zwrócił się do alternatywnych dostawców. Dzisiejszy krajobraz jest jednak inny: liczba firm zdolnych do budowy modeli w skali Claude’a pozostaje ograniczona, a uruchomienie autorskiego rozwiązania od zera zabrałoby armii lata i miliardy dolarów.
Następny krok: poszukiwanie regulacyjnego kompromisu
Eksperci prawni sugerują, że wyjściem z impasu może być niezależny mechanizm audytu, podobny do tego, który w 2022 r. zaproponowała National Institute of Standards and Technology w ramach AI Risk Management Framework. Zakłada on weryfikację algorytmów pod kątem przejrzystości, odporności na manipulacje i przestrzegania praw człowieka. Takie rozwiązanie dawałoby wojsku narzędzie do oceniania funkcjonalności systemów, a dostawcom – gwarancję, że technologia nie zostanie wykorzystana w sposób sprzeczny z ich wartościami.
Na razie jednak strony utknęły w sporze o zakres uprawnień. Jeżeli rozmowy zakończą się fiaskiem, Departament Obrony może zostać zmuszony do korzystania z mniej zaawansowanych modeli oferowanych przez podwykonawców o luźniejszych zasadach etycznych. To z kolei zwiększyłoby ryzyko operacyjne oraz otworzyło rynek dla zagranicznych graczy, co w kontekście strategicznego znaczenia kluczowych technologii byłoby ciosem w przewagę Stanów Zjednoczonych.