Jeszcze dekadę temu ogłoszenia o „pomocy przy pracach” wisiały głównie na tablicach korkowych w akademikach. Dziś do usług autora widmo wystarczy wyszukiwarka albo aplikacja mobilna. Kilka kliknięć, przelew przez system płatności i student otrzymuje plik z gotową licencjacką lub magisterską – częściej niż kiedykolwiek wspieraną przez generatywną sztuczną inteligencję. Koszt? Od kilkuset złotych za krótką pracę projektową do ponad czterech tysięcy za kompleksową analizę prawną. Skalę zjawiska trudno dokładnie oszacować, ale dane z popularnych grup na Telegramie i Facebooku pokazują tysiące aktywnych ofert miesięcznie, a polskie firmy zajmujące się „doradztwem akademickim” deklarują przychody liczone w milionach złotych rocznie.
Rozwój dużych modeli językowych tylko zwiększył popyt. Narzędzia pokroju ChatGPT, Claude czy Gemini umożliwiają generowanie logicznie spójnych tekstów w kilka minut, redukując czas i koszty po stronie „autora”. Dla studenta oznacza to jeszcze atrakcyjniejszą cenę i szybszy termin realizacji, dla uczelni – nowy wymiar plagiatu trudniejszy do wykrycia tradycyjnymi systemami antyplagiatowymi.
Cyfrowy podziemny rynek: jak działa sprzedaż prac dyplomowych
Rynek nieformalnych usług podzielił się na trzy główne kanały. Pierwszy to otwarte media społecznościowe. Wystarczy dołączyć do jednej z kilkudziesięciu polskojęzycznych grup tematycznych, by w ciągu godziny otrzymać kilkanaście prywatnych wiadomości z wyceną. Moderatorzy dbają, by ogłoszenia nie brzmiały zbyt wprost: znajdziemy tam „korektę merytoryczną”, „wzory prac” czy „wsparcie metodologiczne”, choć w praktyce mówimy o pełnym ghostwritingu.
Drugim kanałem są wyspecjalizowane serwisy, które pozycjonują się w Google na frazy „pomoc w pisaniu pracy licencjackiej”. Strony te prezentują cenniki wprost – na przykład 45 zł za stronę przy terminie pięciu tygodni, 90 zł za stronę przy realizacji w 72 godziny. Klient wypełnia ankietę, płaci zaliczkę i otrzymuje harmonogram „etapów”, aby stworzyć pozory legalnej współpracy naukowej. Firmy rejestrują działalność jako „działalność wydawniczą” lub „usługi szkoleniowe”, co formalnie utrudnia ich ściganie.
Trzeci, najszybciej rosnący segment to komunikatory szyfrowane, głównie Telegram i Signal. Tam ogłoszenia są niewidoczne dla wyszukiwarek, a społeczność działa według zasad „polecenia za polecenie”. Zlecenia pojawiają się i znikają w godzinach, a płatności realizowane są przez kryptowaluty lub platformy anonymizujące, co znacząco utrudnia śledztwa organom karnym.
Kto i dlaczego korzysta z „gotowców” – historie z akademickiego podziemia
Marta, studentka piątego roku prawa, przyznaje, że decyzja o kupnie pracy była podyktowana chorobą somatyczną. “Przez pół roku walczyłam z powikłaniami po COVID-19, a termin gonił. Wiedziałam, że sama nie zdążę” – tłumaczy. Zapłaciła 3 000 zł za 60 stron na temat mediacji gospodarczych. Tekst w większości wygenerował ChatGPT, a freelancer jedynie „ludzko” przeredagował wnioski i dodał bibliografię.
Inny powód to różnice językowe. Według danych Polskiej Komisji Akredytacyjnej ponad 36 tys. osób z zagranicy studiuje obecnie na polskich uczelniach. Ołeksandr z Kijowa, student informatyki, tłumaczy: „Piszę kod, ale polski akademicki to dla mnie bariera. Kolega polecił mi usługodawcę, który za 1 500 zł wyprodukował pracę inżynierską. Ja poprawiłem część techniczną, resztę zostawiłem”.
Są też przypadki czystego konformizmu. Jakub, przyszły ekonomista, mówi wprost: „Studia to dla mnie formalność, bo firmę prowadzę od trzeciego roku. Nie będę spędzał tygodni nad literaturą, skoro mogę delegować to jak każde inne zadanie”. Zapłacił 4 400 zł, przy czym koszt był wyższy, bo zażyczył sobie autorskiej analizy danych finansowych spółki z GPW. Dla autora widmo oznaczało to konieczność wykorzystania Excela i ChatGPT-4 do przygotowania tabel i komentarzy.
Profesjonalne fabryki wiedzy: firmy, freelanserzy i algorytmy
Struktura podaży jest zaskakująco zróżnicowana. Na jednym biegunie działają korporacyjne „copy-housy” zatrudniające po kilkunastu redaktorów. Ich model pracy przypomina agencję PR: menedżer projektu przypisuje tematy do stałego zespołu, kontroluje terminy i korzysta z oprogramowania do parafrazowania AI, aby tekst miał „ludzką sygnaturę”.
Na drugim biegunie plasują się freelancerzy, którzy pracują po godzinach. Według niepublikowanych danych z jednego z popularnych forów copywriterskich średnia stawka freelance wynosi 45-55 zł za stronę, lecz dzięki automatyzacji rzeczywisty nakład czasu bywa znikomy. Freelancer wprowadza do modelu językowego zarys rozdziałów, prosi o styl akademicki, a następnie redaguje i dodaje przypisy. Wydajność? Nawet 20 stron dziennie.
Sama technologia rozwija się błyskawicznie. Modele językowe klasy GPT-4o czy Claude 3 Opus generują przypisy w formacie APA, podając tytuły, autorów i lata wydania. Problem w tym, że część źródeł jest „halucynowana” – fizycznie nie istnieje. Dlatego bardziej doświadczeni ghostwriterzy łączą AI z komercyjnymi bazami, jak EBSCOhost czy Emerald, aby zweryfikować cytowania i uniknąć wpadek, które recenzent wychwyci w kilka minut.
Ciekawym zjawiskiem stały się „AI-kolektywy”. Grupa trzech lub czterech doktorantów zakłada wspólne konto w płatnej wersji narzędzia, wymienia między sobą prompt engineering i dzieli zlecenia według branż. Jeden specjalizuje się w pielęgniarstwie, inny w finansach behawioralnych. Zespół rozlicza się przez mikrofakturę, formalnie widniejąc jako „usługi redakcyjne”.
Prawo i etyka: konsekwencje dla studenta, uczelni i społeczeństwa
Polski Kodeks karny w art. 115 § 6 definiuje dokument jako nośnik informacji, który może wywołać skutki prawne. Jeśli praca dyplomowa zawiera nieprawdę co do autorstwa, a na jej podstawie uzyska się tytuł zawodowy, w grę wchodzi fałsz materialny i sankcja do trzech lat pozbawienia wolności. Rzadko jednak sprawy trafiają do sądu, bo udowodnienie winy wymaga wykazania umyślności zarówno po stronie kupującego, jak i sprzedającego.
Uczelnie najczęściej stosują własne regulaminy dyscyplinarne. Możliwe sankcje to wpis ostrzegawczy, przedłużenie studiów, a w skrajnych przypadkach decyzja rektora o skreśleniu z listy studentów oraz unieważnienie dyplomu. W 2023 roku Ministerstwo Nauki i Szkolnictwa Wyższego poinformowało, że odsetek unieważnień wyniósł 0,03 % wszystkich wydanych dyplomów. Eksperci przyznają jednak, że to ułamek realnej skali procederu.
Poza sankcjami karnymi i dyscyplinarnymi istnieje wymiar społeczny. Dyplom jest z definicji poświadczeniem kompetencji; gdy zostaje wyłudzony, podważa zaufanie do całego systemu. W profesjach regulowanych – prawie, medycynie, psychologii – ryzyko spada już na pacjentów i klientów. W 2022 roku Polska Izba Pielęgniarek i Położnych apelowała o „uszczelnienie” systemu weryfikacji umiejętności, powołując się na przypadki nieetycznego przygotowania dokumentacji przez zewnętrzne podmioty.
Technologia kontra technologia: jak uniwersytety odpowiadają na wyzwanie
Dla wielu uczelni pierwszą linią obrony pozostają klasyczne systemy antyplagiatowe, takie jak JSA czy iThenticate. Problem w tym, że wykrywają one głównie kopie istniejących tekstów. Treść wygenerowana od zera przez AI jest unikatowa, przez co wskaźnik podobieństwa wynosi często poniżej 5%, a to nie uruchamia procedury wyjaśniającej.
W 2024 roku pięć polskich uczelni – w tym Politechnika Łódzka i Uniwersytet Gdański – rozpoczęło pilotaż narzędzia bazującego na detekcji stylometrycznej. Algorytm porównuje rytm zdań, długość fraz i słownictwo z wcześniejszymi pracami studenta, które muszą zostać dostarczone jeszcze przed seminarium. Wstępne wyniki wskazują trafność na poziomie 83%, ale wymóg posiadania próbek sprzed lat ogranicza skalowalność rozwiązania.
Drugą ścieżką jest redefinicja samego procesu dyplomowania. Coraz więcej wydziałów przechodzi na projekty praktyczne: prototyp oprogramowania, analiza laboratoryjna czy portfolio artystyczne. W takich przypadkach sztuczna inteligencja może wspierać, lecz nie zastąpi całkowicie efektu materialnego. Uniwersytet w Maastricht poszedł o krok dalej, testując obrony ustne transmitowane na żywo, gdzie student musi w czasie rzeczywistym bronić metodologii i danych – AI nie podpowie w słuchawce.
Niemniej instytucjonalna reakcja to nie wszystko. UNESCO w 2023 roku wydało wytyczne, według których wykorzystanie AI w edukacji powinno być transparentne i nadzorowane. Rekomenduje się wprowadzenie deklaracji autorstwa – oświadczenia, czy i w jakim zakresie narzędzia generatywne zostały użyte. Niektóre uczelnie implementują już formularze, w których student musi zaznaczyć rodzaj wsparcia AI: tłumaczenie, redakcja, generowanie wstępnego szkicu. W przypadku zatajenia informacji konsekwencje mogą być takie same jak za klasyczny plagiat.
Eksperci od etyki technologicznej zwracają uwagę, że narzędzia AI nie są same w sobie problemem. Mogą pomóc studentowi z dysleksją uporządkować tekst, przyspieszyć formatowanie bibliografii czy zredukować bariery językowe dla cudzoziemców. Kluczowe jest rozróżnienie pomiędzy wsparciem a wyręczeniem. Granica bywa cienka, ale jasne procedury i edukacja w zakresie odpowiedzialnego wykorzystania technologii mogą zapobiec nadmiernemu drenażowi wiarygodności akademii.
Rynek nie zniknie z dnia na dzień – zbyt dobrze odpowiada na realne bolączki systemu szkolnictwa wyższego: masowość, niedobór opieki dydaktycznej i presję czasu. W miarę jak modele językowe będą się doskonalić, wzrośnie też jakość wytwarzanych tekstów, a standardowe metody kontroli okażą się coraz mniej skuteczne. Ostatecznie kryterium wartości dyplomu będzie musiało wyjść poza sam dokument ku sprawdzalnym umiejętnościom i odpowiedzialności zawodowej.