Kamery AI przegrywają w sądzie: Mężczyzna nie zapinał pasów
Daniel Wlaźlakkamery |
Szybki rozwój kamer drogowych wykorzystujących sztuczną inteligencję miał zrewolucjonizować politykę bezpieczeństwa na australijskich trasach. Algorytmy analizujące obraz z wysoko umieszczonych obiektywów rozpoznają, czy kierowca trzyma telefon lub czy pasażerowie mają poprawnie zapięte pasy. Dzięki temu – według deklaracji władz stanowych – liczba tragicznych wypadków miała spaść o kilkanaście procent w ciągu kilku lat. Ostatnie wydarzenia pokazują jednak, że cyfrowy strażnik popełnia błędy, a konsekwencje finansowe i prawne spadają na obywateli, którzy muszą bronić się przed automatycznie wygenerowanymi mandatami.
Nie chodzi jedynie o drobne niedoskonałości systemu. Sprawy trafiają na wokandę, a wyroki uchylające kary podsycają debatę o tym, jak daleko można zaufać maszynom w roli inspektorów ruchu drogowego. Pojawia się fundamentalne pytanie: czy w erze uczenia maszynowego odpowiedzialność za bezpieczeństwo na drodze rzeczywiście da się całkowicie przenieść na algorytm, skoro to obywatel, a nie producent oprogramowania, odpowiada za potencjalny błąd systemu?
Głośna wygrana w sądzie podważa nieomylność algorytmu
Przełomowy charakter miała w ostatnich tygodniach sprawa młodego informatyka z Queensland. Mandat o wartości ponad tysiąca dolarów australijskich otrzymał po tym, jak system oceniania zdjęć zaklasyfikował u pasażera nieprawidłowo zapięty pas bezpieczeństwa. Zdjęcie wykonano z wysokości kilku metrów podczas przejazdu przez ruchliwe skrzyżowanie; pas, przełożony nietypowo pod ramię, w cyfrowej interpretacji algorytmu wyglądał jak luźny fragment ubrania. Kierowca samodzielnie zanegował decyzję, argumentując, że w momencie kontroli nie miał realnej możliwości dostrzeżenia, iż pasażer poprawił ułożenie pasa w niezgodny z przepisami sposób.
Sąd zgodził się, że przepisy nakładają obowiązek dopilnowania zapięcia pasów, lecz nie wymagają nieustannego wzrokowego monitorowania każdego ruchu pasażera. W konsekwencji nakaz zapłaty uchylono. Wyrok ten nie tylko pozwolił kierowcy uniknąć grzywny i punktów karnych, ale także stał się precedensem przywoływanym w kolejnych odwołaniach mieszkańców różnych stanów.
Jak pracują kamery wizyjne z AI – od surowych danych do decyzji administracyjnej
Systemy wdrażane od 2019 r. w Nowej Południowej Walii, a w 2022–2023 r. w Queensland i Australii Zachodniej, opierają się na zestawie dwóch kamer umieszczonych na bramownicach lub przydrożnych masztach. Jedna jednostka rejestruje klasyczny kadr z przodu, druga – ujęcie z góry, dzięki czemu widoczny jest układ rąk oraz linia pasa bezpieczeństwa na klatce piersiowej. Oprogramowanie, wytrenowane na setkach tysięcy obrazów, lokalizuje kontury ciała i obiektów, aby rozpoznać nielegalne używanie telefonu lub brak prawidłowo przebiegającej taśmy pasa.
Zgodnie z informacjami podawanymi przez władze stanu Nowa Południowa Walia, każdy alert AI przechodzi następnie przez weryfikację operatora. Jeśli inspektor oceni, że zdjęcie rzeczywiście przedstawia wykroczenie, generowany jest mandat elektroniczny. Oficjalne statystyki mówią o skuteczności systemu przekraczającej 99%, ale przy dziesiątkach milionów skanowanych pojazdów oznacza to tysiące możliwych pomyłek rocznie. Do najczęstszych przyczyn fałszywych trafień należą odbicia światła, wzory na ubraniach zlewające się z pasem oraz różnice w kolorystyce wnętrza pojazdu.
Rosnąca skala odwołań i obawy ekspertów prawnych
Rząd Queensland wprowadził możliwość elektronicznego podważenia kary w ciągu 28 dni od jej wystawienia. Od chwili uruchomienia platformy do końca 2023 r. zarejestrowano ponad 38 tys. odwołań, z czego około 7% zakończyło się uchyleniem decyzji. Choć odsetek może wydawać się niski, prawnicy ruchu drogowego zwracają uwagę, że wielu obywateli rezygnuje z apelacji z powodu kosztów czasu lub braku pewności, jak sformułować dowody niewinności.
Organizacje broniące praw kierowców podkreślają, że implementacja algorytmu odwraca domniemanie niewinności: fotografia przedstawiona przez władze jest traktowana jako rozstrzygający dowód winy, a obywatel musi sam wykazać błąd systemu. Prawnicy wskazują, że w australijskim prawie administracyjnym nie istnieje odrębna droga pozwów przeciw dostawcy technologii, dlatego odpowiedzialność finansową za błędne algorytmy ponoszą obywatele, o ile nie zdecydują się na wyczerpujący proces odwoławczy.
Technologia w służbie bezpieczeństwa – potencjał i ograniczenia
Według danych australijskiego Biura Transportu wspomniane kamery odnotowały w pierwszym pełnym roku działania spadek liczby poważnych kolizji z udziałem kierowców rozmawiających przez telefon o 14%. Zwolennicy systemu argumentują, że automatyczny monitoring eliminuje czynnik ludzkiej selektywności kontroli, a stałe ryzyko wykrycia zniechęca do niebezpiecznych zachowań. Równocześnie eksperci ds. uczenia maszynowego ostrzegają, że modele wizji komputerowej, choć imponująco dokładne w warunkach laboratoryjnych, wciąż zawodzą w sytuacjach odbiegających od scenariuszy szkoleniowych, jak nietypowe oświetlenie czy elementy garderoby.
W odpowiedzi na krytykę władze Australii Zachodniej zainicjowały w 2024 r. audyt wszystkich urządzeń oraz procedur weryfikacji zdjęć. W planach jest wprowadzenie obligatoryjnej drugiej weryfikacji dla każdej sprawy odwoławczej i publikowanie kwartalnych raportów o liczbie uchylonych mandatów. Zapowiedzi te mają uspokoić opinię publiczną i zatrzymać malejące zaufanie do technologii, która – paradoksalnie – została wdrożona właśnie po to, by ratować życie na drogach.
Przyszłość zautomatyzowanego nadzoru drogowego
Australijski eksperyment z kamerami AI bacznie obserwują również europejskie i północnoamerykańskie agencje transportowe. Niektóre z nich rozpoczęły własne pilotaże, lecz dopiero wypracowanie jednolitych protokołów odpowiedzialności prawnej i transparentności algorytmów przesądzi o globalnym sukcesie tej technologii. Najczęściej dyskutowane rozwiązania obejmują niezależne centra kalibracji modeli uczenia maszynowego, publiczny rejestr wskaźników błędu oraz obowiązek udostępniania surowych zdjęć kierowcy bez dodatkowych kosztów.
Inżynierowie sugerują także hybrydowe podejście: system AI sygnalizuje potencjalne wykroczenie, ale ostateczna ocena należy do policjanta patrolującego drogę lub funkcjonariusza w mobilnym centrum kontroli. Taki model mógłby zachować skalowalność cyfrowego nadzoru, a jednocześnie zmniejszyć liczbę sporów trafiających do sądów. Niezależnie od ścieżki wybranej przez poszczególne jurysdykcje jedno jest pewne – kolejne lata zdecydują, czy algorytmy staną się zaufanym sojusznikiem w walce o bezpieczniejsze drogi, czy też źródłem ciągłych kontrowersji i kosztownych procesów.