W anglojęzycznej edycji Wikipedii zapadła właśnie decyzja, która może stać się punktem zwrotnym w relacji największej encyklopedii internetowej ze sztuczną inteligencją: społeczność redaktorów przegłosowała zakaz wprowadzania treści wygenerowanych lub przepisanych przez modele językowe. Wyjątki pozostają nieliczne, a celem inicjatywy jest wzmocnienie wiarygodności i przejrzystości haseł w czasach, gdy algorytmy generatywne coraz odważniej wkraczają do obiegu informacyjnego.
Dlaczego Wikipedia stawia zaporę przed AI
Wikipedyści od lat opierają się na zasadzie weryfikowalności: każde twierdzenie musi być poparte wiarygodnym źródłem, które da się publicznie sprawdzić. Narzędzia generatywne często konstruują przekonująco brzmiące, lecz niepoparte faktami akapity, a zjawisko tzw. halucynacji modeli językowych utrudnia ich wykrycie. W rezultacie wprowadzenie niesprawdzonej treści może podważyć zaufanie, na którym projekt budował pozycję przez ponad dwie dekady.
Dodatkowym argumentem była troska o transparentność autorstwa. Wikipedia to projekt tworzony przez wolontariuszy, którzy podpisują się pod edycjami publicznie. W przypadku generatorów AI trudno przypisać odpowiedzialność za ewentualne błędy, co koliduje z zasadą jawności wkładu redaktorów.
Co dokładnie obejmują nowe zasady
Zakaz dotyczy wszystkich nowych i edytowanych haseł w wersji anglojęzycznej. Redaktorzy nie mogą kopiować fragmentów uzyskanych od narzędzi AI ani „przepisywać” ich ręcznie, aby uniknąć wykrycia. Jednocześnie przyjęto dwa wyraźne odstępstwa:
• drobne korekty stylistyczne dokonane z pomocą narzędzia AI, o ile nie zmieniają sensu merytorycznego; • tłumaczenia artykułów z innej wersji językowej, pod warunkiem że tłumacz zna oba języki na tyle dobrze, by samodzielnie ocenić poprawność faktów.
Obecnie regulacja obowiązuje jedynie w anglojęzycznym wydaniu, jednak lokalne społeczności w hiszpańskiej, niemieckiej czy japońskiej Wikipedii analizują, czy przyjąć zbliżone standardy albo wypracować własne.
Wyzwania egzekucyjne i narzędzia kontroli
Rozpoznawanie tekstu napisanego przez człowieka lub maszynę bywa niepewne. Dostępne detektory AI generują zarówno fałszywe alarmy, jak i mylące wyniki. Wikipedia polega przede wszystkim na czujności redaktorów: jeśli pojawia się podejrzenie użycia modelu językowego, dyskusja toczy się na stronie artykułu lub w przestrzeni moderatorskiej. Wspomagają to zautomatyzowane filtry oraz boty wyszukujące charakterystyczne wzorce stylistyczne.
Wolontariusze zwracają uwagę, że wyegzekwowanie zakazu będzie kosztowne czasowo, zwłaszcza w mniej obserwowanych hasłach. Z drugiej strony ustanowienie jasnych reguł ułatwia usuwanie niepożądanej zawartości i pozwala utrzymać jednolite standardy niezależnie od tematu artykułu.
Spadający ruch i rosnąca konkurencja generatywna
Według danych firm analizujących ruch internetowy liczba odwiedzin anglojęzycznej Wikipedii zmniejszyła się w 2023 roku o około osiem procent. Część badaczy wiąże ten trend z pojawieniem się usług, które podają syntetyczne odpowiedzi bezpośrednio na stronie wyników wyszukiwania lub w czatach opartych na dużych modelach językowych. Gdy użytkownik otrzymuje streszczenie faktów bez konieczności klikania w link, encyklopedia traci odsłony i – potencjalnie – darczyńców.
Redaktorzy podkreślają, że restrykcje wobec AI mają nie tylko chronić jakość treści, ale także wyróżnić Wikipedię na tle platform wykorzystujących modele generatywne. Strategia „najpierw wiarygodność” może przyciągnąć czytelników, którzy poszukują źródeł z wyraźnym aparatem weryfikacji.
Możliwe skutki i dalsze kroki projektu
Wprowadzenie limitów stawia Wikipedię w awangardzie instytucji publicznych, które definiują zasady współpracy z generatywną sztuczną inteligencją. Jeśli eksperyment się powiedzie, kolejne wersje językowe mogą wprowadzić analogiczne przepisy, a cały ekosystem wolnych treści otrzyma wspólną linię obrony przed dezinformacją. Równie prawdopodobny jest jednak scenariusz, w którym lokalne społeczności uznają politykę za zbyt restrykcyjną i wypracują elastyczniejsze procedury.
Decyzja otwiera również dyskusję o przyszłości modeli językowych w środowiskach otwartych. Czy uda się stworzyć wiarygodny, transparentny sposób integracji AI, czy też projekty oparte na wolontariacie wybiorą pełną separację? Odpowiedź na to pytanie zadecyduje o kształcie wiedzy dostępnej w sieci na kolejne lata.