Departament Obrony Stanów Zjednoczonych potwierdził, że uruchomił program tworzenia własnych dużych modeli językowych (LLM) przeznaczonych do zastosowań militarnych i wywiadowczych. Posunięcie to zamyka kilkumiesięczny spór z firmą Anthropic, producentem modelu Claude, która w lutym 2024 r. odmówiła udostępnienia swojej technologii do szeroko zakrojonego monitoringu obywateli. Decyzja Pentagonu wyznacza nowy kierunek: budowę ekosystemu AI, w którym krytyczne komponenty pozostają pod pełną kontrolą państwa, a elementy komercyjne służą jedynie jako wsparcie.
Geneza sporu i droga do autorskiego rozwiązania
Konflikt narodził się pod koniec lutego 2024 r., gdy Anthropic publicznie zakwestionował uprawnienia armii do nieograniczonego wykorzystywania modeli językowych w celach inwigilacyjnych. Firma argumentowała, że takie praktyki naruszałyby prawa obywatelskie i etykę AI. Pentagon odpowiedział, iż dostawca technologii nie ma kompetencji ograniczać działań z obszaru bezpieczeństwa narodowego. Gdy rozmowy utknęły w martwym punkcie, Departament Obrony uruchomił projekt inżynieryjny mający na celu stworzenie wewnętrznych, bezpiecznych modeli językowych szkolonych w zamkniętych środowiskach rządowych.
Pentagon stawia na hybrydę własnych i komercyjnych modeli
Oficjalny komunikat z 21 marca 2024 r. wyjaśnia, że nowe LLM będą integrowane z infrastrukturą chmury rządowej oraz systemami tajnymi. „Departament aktywnie pracuje nad wprowadzeniem wielu programów LLM do bezpiecznych środowisk, a ich wstępne wersje trafią do użytku operacyjnego w najbliższych miesiącach” — powiedział Cameron Stanley, Chief Digital and AI Officer w Pentagonie. Obok autorskich algorytmów wojsko planuje wykorzystywać wybrane funkcje komercyjnych platform, m.in. ChatGPT od OpenAI i Grok opracowany przez xAI. Takie rozwiązanie ma połączyć szybkość rozwoju sektora prywatnego z wymaganą przez armię poufnością.
Konsekwencje dla Anthropic i scenariusze prawne
Odmowa współpracy postawiła Anthropic w trudnej sytuacji — spółka została oznaczona w oficjalnych dokumentach jako potencjalne „ryzyko dla łańcucha dostaw” technologii obronnych. W marcu 2024 r. firma złożyła pozew przeciwko Departamentowi Obrony, domagając się uchylenia tej klasyfikacji i przywrócenia możliwości udziału w kontraktach publicznych. Prawnicy zwracają jednak uwagę, że amerykańskie sądy rzadko podważają decyzje związane z bezpieczeństwem państwa, co ogranicza szanse Anthropic na korzystny wyrok. Sprawa może stać się ważnym precedensem dla innych dostawców AI próbujących bronić klauzul etycznych.
Co dalej z militarną sztuczną inteligencją
Inicjatywa Pentagonu wpisuje się w globalny trend przenoszenia najważniejszych zdolności AI „za zamknięte drzwi” instytucji publicznych. Z jednej strony wzmacnia to ochronę wrażliwych danych, z drugiej rodzi pytania o nadzór demokratyczny nad zastosowaniami nowych technologii. Według analityków RAND Corporation własne LLM mogą przyspieszyć analizę wywiadowczą i logistykę nawet o 40%, lecz wymagają jasno zdefiniowanych ram odpowiedzialności. Najbliższe miesiące pokażą, czy połączenie rozwiązań rządowych i komercyjnych przyniesie oczekiwany balans między innowacją a przejrzystością.
Źródło: TechCrunch, Bloomberg, US Department of Defense briefing