Generatywna sztuczna inteligencja w ciągu zaledwie kilkunastu miesięcy zyskała status codziennego narzędzia dla nastolatków na całym świecie. To już nie tylko wyszukiwarka zamknięta w oknie czatu, lecz niemal stały kompan: pomaga odrabiać zadania, podsuwa pomysły na projekty, tłumaczy trudne pojęcia, a coraz częściej także… wysłuchuje. Coraz liczniejsze badania wskazują, że część młodych ludzi zwraca się do chatbotów po radę w sprawach sercowych, prosząc o wsparcie emocjonalne lub po prostu prowadząc luźne rozmowy, które normalnie zarezerwowaliby dla rówieśników.
Dynamiczny wzrost wykorzystania AI przez młodzież
Pew Research Center odnotował, że już ponad 80 % amerykańskich nastolatków miało kontakt z narzędziami generatywnymi, a blisko 60 % korzysta z nich przynajmniej raz w tygodniu. Najczęściej przywoływanym motywem jest przyspieszenie nauki – młodzi użytkownicy cenią możliwość otrzymania natychmiastowej odpowiedzi bez przekopywania się przez wiele stron wyników wyszukiwania. Popularność napędzają także media społecznościowe: rekomendacje rówieśników, filmiki instruktażowe i wbudowane funkcje AI w aplikacjach takich jak Snapchat czy Instagram.
Rosnąca frekwencja przekłada się na różnorodność zastosowań. Według wspomnianego badania około 12 % nastolatków deklaruje, że przynajmniej raz w miesiącu rozmawia z chatbotem o swoich uczuciach lub problemach osobistych. To nieduża, lecz stale rosnąca grupa. W analogicznym pomiarze sprzed roku wskaźnik ten wynosił niespełna 7 %. Trend wyraźny jest także w Europie: organizacja EU Kids Online sygnalizuje podobne tendencje w Niemczech, Hiszpanii i Polsce, choć skala użycia bywa zróżnicowana w zależności od dostępności lokalnych wersji językowych modeli.
Chatbot jako powiernik – szansa czy ryzyko?
Z punktu widzenia psychologii nastolatki poszukują przestrzeni do bezpiecznego, pozbawionego oceny dialogu. Algorytmy językowe, które nigdy nie zdradzą sekretu, kuszą więc obietnicą dyskrecji i natychmiastowej empatii. Niektóre modele oferują nawet „ton emocjonalny” dostosowany do nastroju użytkownika. Zwolennicy podkreślają, że dla introwertyków lub młodzieży mieszkającej w małych miejscowościach może być to pierwsza okazja do wyrażenia trudnych emocji.
Eksperci zdrowia psychicznego studzą jednak entuzjazm. Amerykańskie Towarzystwo Psychiatryczne podkreśla, że generatywne modele nie przechodzą procedury certyfikacji klinicznej i mogą generować odpowiedzi potencjalnie szkodliwe – od normalizowania destrukcyjnych zachowań po udzielanie nieprecyzyjnych informacji o samookaleczeniach. Badania Uniwersytetu Stanforda wykazały ponadto, że ponad 20 % symulowanych sesji wsparcia zawierało treści, które terapeuci uznaliby za niewłaściwe lub powierzchowne. W skrajnych przypadkach kontakt z AI może wzmacniać izolację, bo młoda osoba zastępuje kontakt interpersonalny relacją z algorytmem.
Rodzice i specjaliści biją na alarm
Luka informacyjna między pokoleniami rośnie. Ponad połowa rodziców ankietowanych przez Common Sense Media przyznała, że nie wiedziała o emocjonalnych rozmowach swoich dzieci z AI. Jednocześnie 67 % z nich ocenia taki zwyczaj jako potencjalnie niebezpieczny, wskazując na ryzyko uzależnienia od technologii i obniżenia kompetencji społecznych. Problematyczne bywa także gromadzenie danych: część aplikacji zapisuje pełne transkrypcje czatów, co budzi wątpliwości dotyczące prywatności osób nieletnich.
Szkoły i poradnie psychologiczno-pedagogiczne odpowiadają pilotażowymi programami edukacji cyfrowej. W wielu okręgach szkolnych wprowadzono warsztaty, podczas których uczniowie uczą się krytycznego podejścia do odpowiedzi modeli, a nauczyciele otrzymują wytyczne, jak rozróżnić pracę własną od tej napisanej przez algorytm. Niektóre stany w USA rozważają obowiązek oznaczania aplikacji oferujących quasi-terapeutyczne funkcje oraz wprowadzenie górnych limitów czasu spędzanego na rozmowie z AI dla kont nieletnich.
Jak reagują twórcy technologii
Narastające napięcie społeczne skłoniło część firm do zaostrzenia polityk. Character.AI wprowadziło weryfikację wieku i całkowicie zablokowało dostęp osobom poniżej 18 roku życia, tłumacząc decyzję brakiem narzędzi zapewniających odpowiedzialne wsparcie emocjonalne. OpenAI z kolei wycofało eksperymentalny model o zwiększonej ekspresji emocjonalnej, deklarując prace nad wersją konsultowaną z psychoterapeutami dziecięcymi. Podobne kroki podjął Snapchat, rozszerzając zestaw ostrzeżeń i automatycznych przekierowań do profesjonalnych linii pomocy, gdy użytkownik wspomina o myślach samobójczych.
Producenci modeli wchodzą też w dialog z regulatorami. W Unii Europejskiej do sierpnia 2024 r. wszystkie większe platformy mają obowiązek przedstawienia raportów ryzyka dotyczących nieletnich, co wynika z Aktu o Usługach Cyfrowych. Firmy pracują nad zbalansowaniem innowacji i ochrony osób wrażliwych: jedni rozważają wbudowane tryby „edukacyjne” blokujące pytania o samookaleczenia, inni inwestują w systemy wczesnego wykrywania nadużyć. W praktyce oznacza to, że przyszłość relacji nastolatków z AI zależeć będzie zarówno od postępów technologii, jak i od determinacji społeczeństwa w tworzeniu jasnych granic jej wykorzystania.