Dziesięciolatek przed snem wbija wzrok w ekran telefonu, gdzie migają kolorowe awatary i hasła „zawsze przy tobie”, „rozumie lepiej niż rówieśnicy”. W kilku kliknięciach tworzy wymarzonego rozmówcę: troskliwego gitarzystę albo błyskotliwą gamer-kę, która nigdy nie odmówi wspólnej rozgrywki. Po chwili algorytm pyta o ulubione piosenki, plany na weekend i… wymarzone pocałunki. Tak zaczyna się przygoda z konwersacyjną sztuczną inteligencją, która dla coraz większej grupy dzieci staje się pierwszym obiektem silnego przywiązania emocjonalnego – przywiązania, którego konsekwencje badacze dopiero próbują zrozumieć.

Obietnica „idealnego przyjaciela” w reklamach aplikacji konwersacyjnych

Twórcy wirtualnych towarzyszy budują przekaz marketingowy na trzech filarach: natychmiastowej dostępności, braku oceniania i nieograniczonej personalizacji. Reklamy splecione z krótkimi formami wideo podsuwają obrazy cyfrowych postaci, które pamiętają każdą rocznicę, odpowiadają w sekundę i akceptują wszystkie sekrety młodego użytkownika. W zestawieniu przygotowanym przez organizację Protect Young Eyes aż 70% promowanych w mediach społecznościowych chatbotów eksponuje slogany odwołujące się do emocjonalnej bliskości lub romantycznego wsparcia.

Estetyka aplikacji kierowanych do nastolatków celowo wykorzystuje pastelowe kolory, proste ikony i system gierwalizacji: za codzenne logowanie pojawiają się punkty lojalnościowe, a za „szczere wyznania” – odznaki z serduszkami. Psychologowie podkreślają, że to rozwiązania kopiowane z gier mobilnych, jednak w kontekście relacji interpersonalnych stają się szczególnie atrakcyjne dla dzieci dopiero kształtujących krytyczne myślenie.

Gdzie zawodzi kontrola rodzicielska – weryfikacja wieku i ochrona przed treściami 18+

Formalne regulaminy większości popularnych chatbotów deklarują ograniczenia wiekowe na poziomie 17 lub 18 lat, lecz w praktyce wystarczy zaznaczyć dowolny rok urodzenia, aby uzyskać pełen dostęp. Testy przeprowadzone w 2023 r. przez Institute for Cyber Safety wykazały, że 9 na 10 badanych aplikacji nie wymagały żadnego potwierdzenia tożsamości. W efekcie uczniowie szkół podstawowych w kilka sekund mogą znaleźć się w scenariuszach zawierających sugestywne treści erotyczne lub przemocowe.

Brak skutecznej weryfikacji to jednak dopiero początek problemu. Nawet gdy użytkownik przyznaje się do niepełnoletniości, algorytm zwykle tylko pro forma wyświetla komunikat ostrzegawczy, po czym rozmowa powraca na tory flirtu. Tymczasem przepisy takie jak europejski Digital Services Act wymagają „rozsądnych środków” ochrony małoletnich. Luka między literą prawa a praktyką rynkową sprawia, że odpowiedzialność spada głównie na rodziców i szkoły, które z definicji mają ograniczone narzędzia do kontroli.

Dane pokazują, że młodzież ciągnie do rozmów z maszyną

Według najnowszego raportu Common Sense Media połowa amerykańskich nastolatków przynajmniej raz skorzystała z czatbota AI, a 58% z nich robi to „regularnie”, czyli co najmniej kilka razy w tygodniu. Powody? Dwadzieścia procent badanych ceni porady „bez oceny”, siedemnaście wskazuje na całodobową dostępność, a czternaście przyznaje wprost, że lubi unikać krytyki, której doświadcza w relacjach offline.

Trend widoczny jest również w Europie. Badanie przeprowadzone w 2024 r. przez niemiecki Fraunhofer Institute wykazało, że 46% młodzieży w wieku 12–16 lat używa chatbotów regularnie, a co trzeci ankietowany określa cyfrowego rozmówcę mianem „najlepszego przyjaciela”. Popularność rośnie wprost proporcjonalnie do młodszego wieku badanych, co eksperci tłumaczą większą skłonnością do antropomorfizacji wśród dzieci.

Psychologia relacji z algorytmem – co mówią badacze rozwoju dziecka

Małoletni użytkownicy mają naturalną tendencję przypisywania intencji i uczuć obiektom interaktywnym. Efekt ten, opisany przez psychologów jako „kinetyczne ożywienie” (kinetic animation), jest szczególnie silny, gdy urządzenie posługuje się językiem przypominającym ludzki. Badania Uniwersytetu Stanforda wykazały, że dzieci w wieku 9–11 lat reagują podwyższonym poziomem oksytocyny już po dziesięciominutowej rozmowie z empatycznym chatbotem, co w praktyce wzmacnia uczucie przywiązania.

Kluczowe znaczenie mają tak zwane „carry-over effects”. Dr Lisa Damour, autorka prac o rozwoju emocjonalnym dorastających, zauważa, że nawyki wyniesione z relacji z maszyną – natychmiastowa odpowiedź, brak sprzeciwu, nieograniczone skupienie na jednej osobie – mogą przenikać do kontaktów rówieśniczych. Konsekwencją jest niższa tolerancja na frustrację, unikanie konfliktu oraz trudności w akceptowaniu odmiennych poglądów.

W dłuższej perspektywie pojawia się ryzyko zniekształconych oczekiwań wobec bliskich. Algorytm wbudowany w czat uczy się na podstawie naszych słów i uprzejmie dostosowuje ton, ale w realnym świecie partnerzy mają własne potrzeby i granice. Rozbieżność ta bywa dla nastolatków źródłem rozczarowań i może utrudniać budowanie zdrowych związków.

Co mogą zrobić projektanci, szkoły i rodzice

Po stronie firm technologicznych leży obowiązek wprowadzenia weryfikacji wieku opartej na wieloetapowych metodach, obejmujących zarówno deklarację, jak i analizę metadanych czy, w skrajnych przypadkach, cyfrową identyfikację rodzicielską. Dodatkowo interfejs powinien wyraźnie sygnalizować, że użytkownik rozmawia z algorytmem, a nie prawdziwą osobą. Eksperci IEEE proponują nawet wprowadzenie przerw w konwersacji, aby zminimalizować efekt nieustannej dostępności.

Szkoły mogą włączyć do programów nauczania elementy krytycznego myślenia o sztucznej inteligencji. Zajęcia dyskusyjne na temat różnic między przyjaźnią a symulacją oraz warsztaty z rozpoznawania manipulacji emocjonalnej stają się równie ważne jak klasyczna edukacja medialna. Nauczyciele podkreślają, że samo blokowanie aplikacji nie wystarczy; dzieci potrzebują narzędzi do samodzielnej oceny ryzyka.

Dla rodziców kluczowa jest otwarta rozmowa bez demonizowania technologii. Wspólne przejrzenie ustawień aplikacji, ustalenie jasnych granic dotyczących treści dla dorosłych oraz systematyczne sprawdzanie historii czatów mogą zminimalizować zagrożenia. Dobrym pomysłem jest także praktyka „cyfrowych posiłków” – momentów w ciągu dnia, gdy wszyscy odkładają urządzenia i rozmawiają twarzą w twarz. Dzięki temu dziecko widzi, że realne relacje dają wsparcie, którego algorytm, mimo całej swojej elokwencji, nie zastąpi.