Dlaczego wiek ma znaczenie
Mózg dzieci i młodszych nastolatków znajduje się w fazie intensywnego rozwoju. Struktury odpowiedzialne za samokontrolę, przewidywanie konsekwencji, regulację emocji i hamowanie impulsów dojrzewają stopniowo i osiągają pełną sprawność dopiero w późniejszym okresie adolescencji. Jednocześnie systemy reagujące na nagrody, nowość i silne bodźce emocjonalne są w tym wieku szczególnie wrażliwe.
W praktyce oznacza to, że dzieci są znacznie bardziej podatne na mechanizmy, na których oparte są media społecznościowe: niekończące się strumienie treści, natychmiastową gratyfikację i algorytmiczne wzmacnianie emocji. Młody mózg ma ograniczoną zdolność do samodzielnego przerwania korzystania, łatwiej ulega przeciążeniu i częściej traci kontrolę nad czasem spędzanym online. W tym sensie dzieci przegrywają z algorytmami, które projektowane są z myślą o maksymalizowaniu uwagi, a nie bezpieczeństwie użytkownika.
Jednocześnie dzieci nie dysponują wystarczającymi kompetencjami poznawczymi i społecznymi, by skutecznie chronić się przed manipulacją. Gorzej rozpoznają intencje nadawców, są bardziej podatne na presję porównań, seksualizację, przemoc symboliczną i ryzykowne wzorce zachowań. Media społecznościowe stają się dla nich środowiskiem intensywnych bodźców, z którymi nie są rozwojowo gotowe sobie radzić.
Z perspektywy rozwoju dzieci potrzebują przede wszystkim bezpośrednich doświadczeń: relacji twarzą w twarz, interakcji społecznych, eksplorowania świata wszystkimi zmysłami oraz uczenia się samoregulacji w realnych sytuacjach. Wczesny i intensywny kontakt z mediami społecznościowymi ogranicza te doświadczenia, zastępując je pośrednimi interakcjami i skracając cykle uwagi.
Dlatego decyzja o wieku dostępu do mediów społecznościowych bazować musi na wiedzy o rozwoju dziecka i jego biologicznych ograniczeniach w konfrontacji z systemami zaprojektowanymi dla dorosłych użytkowników.
13+ to fikcja
Każdy, kto obserwuje dzieci, wie, że media społecznościowe – takie jak TikTok, Instagram, a tym bardziej YouTube – są powszechnie używane, mimo formalnej granicy wieku 13+. Przez długi czas była to jednak wiedza intuicyjna, oparta na obserwacjach dorosłych, nauczycieli i rodziców, a nie na twardych danych.
W Polsce brakowało badań, które pokazywałyby skalę i charakter korzystania z mediów społecznościowych przez dzieci poniżej 13. roku życia. Takimi informacjami nie posługują się również właściciele platform. Publikowane przez nich dane dotyczą najczęściej liczby wykrytych i zablokowanych kont dzieci, co może sprawiać wrażenie skutecznej kontroli wieku. Jak jednak łatwo zaobserwować, działania te nie przekładają się na realne ograniczenie obecności dzieci w serwisach społecznościowych.
Jednym z pierwszych opracowań, które w sposób systematyczny pokazało skalę tego zjawiska w Polsce, był raport „Internet dzieci”, przygotowany przez Instytut Cyfrowego Obywatelstwa. Opisywane w nim badanie zostało zrealizowane w marcu 2025 roku przez Gemius we współpracy z Polskie Badania Internetu (PBI) i opierało się na analizie rzeczywistych aktywności uczestników panelu badawczego, a nie na deklaracjach użytkowników. W listopadzie 2025 badanie zostało powtórzone.
Wyniki badania pokazały, że ponad połowa dzieci w wieku 7–12 lat korzysta z serwisów społecznościowych. Autorzy raportu przeliczyli dane panelowe na populację dzieci w Polsce, co pozwoliło oszacować, że z aplikacji społecznościowych i komunikatorów formalnie dozwolonych od 13. roku życia aktywnie korzysta około 1,4 mln dzieci w wieku 7–12 lat, czyli 58% tej grupy wiekowej.
Wśród platform społecznościowych najczęściej używanych przez dzieci w tym wieku znajdują się:
- TikTok – regularnie korzysta z niego ponad 800 tys. dzieci, czyli ponad jedna trzecia grupy 7–12 lat,
- Facebook – około 630 tys. aktywnych użytkowników, co oznacza, że korzysta z niego co czwarte dziecko,
- Instagram – około 370 tys. dzieci, czyli co szóste dziecko w tym wieku.
Równie powszechne jest regularne korzystanie z komunikatorów internetowych:
- Messenger – 860 tys. dzieci (36% grupy 7–12 lat),
- WhatsApp – 750 tys. dzieci (31% grupy).
TikTok wyróżnia się nie tylko pod względem zasięgu, lecz także intensywności korzystania. Około dwóch trzecich aktywnych użytkowników, czyli ponad 500 tys. dzieci w wieku 7–12 lat, spędza w aplikacji średnio ponad godzinę dziennie. Szacuje się, że około 250 tys. dzieci uruchamia TikToka 20 lub więcej razy w ciągu doby, co potwierdza wyjątkowo silny, angażujący charakter tej aplikacji.
Podobny obraz wyłania się z ogólnopolskiego sondażu „SPRAWDZIAN 13+”, zrealizowanego przez Fundacja Dajemy Dzieciom Siłę. Badanie przeprowadzono na próbie ponad 20 tysięcy uczniów klas 1–3 podczas sześciu lekcji online prowadzonych w ramach akcji Dzień Bezpiecznego Internetu w lutym i marcu 2025 roku.
Wyniki sondażu pokazują, że:
- co drugie dziecko w wieku wczesnoszkolnym (50%) korzysta samodzielnie z mediów społecznościowych,
- niemal jedna trzecia dzieci (31%) posiada konto na platformie TikTok,
- co piąte dziecko w tym wieku publikuje własne treści w serwisach społecznościowych.
- 35% dzieci korzysta z Messenger,
- 51% dzieci używa WhatsApp.
Badanie pokazuje również wysoki poziom doświadczeń negatywnych:
- Messenger – 860 tys. dzieci (36% grupy 7–12 lat),
- WhatsApp – 750 tys. dzieci (31% grupy).
Skalę korzystania z mediów społecznościowych przez dzieci poniżej 13. roku życia potwierdza także raport „Od bezsilności do mobilizacji. Polscy rodzice wobec bezpieczeństwa dzieci w sieci”, prezentujący wyniki badania zrealizowanego przez Ipsos na zlecenie More in Common Polska na próbie 1500 rodziców dzieci poniżej 18. roku życia.
Z deklaracji rodziców wynika, że z serwisów społecznościowych korzysta 40% dzieci w wieku 7–12 lat. Szczególnie niepokojące są dane dotyczące młodszych grup wiekowych: dostęp do tego typu platform ma już 10% dzieci w wieku 4–6 lat oraz 6% dzieci w wieku 0–3 lata1.
Postulat 15+
W ostatnich latach podnoszenie granicy wieku dostępu do mediów społecznościowych przestało być postulatem wyłącznie środowisk eksperckich. Coraz wyraźniej pojawia się ono także w agendach decydentów publicznych oraz w pracach nad nowymi ramami regulacyjnymi. Jednocześnie panuje zgoda co do tego, że obowiązująca dziś granica 13+ nie odpowiada ani współczesnej formie mediów społecznościowych, ani rozwojowej gotowości młodszych użytkowników.
Część specjalistek i specjalistów rekomenduje granicę 15+, inni wskazują 16+ jako bezpieczniejszy próg rozwojowy. Wspólnym mianownikiem tych stanowisk jest przekonanie, że dzieci i młodsi nastolatkowie nie są gotowi do samodzielnego funkcjonowania w środowisku mediów społecznościowych zaprojektowanych wokół algorytmów maksymalizujących uwagę, zaangażowanie i reakcje emocjonalne.
W ramach programu Domowe Zasady Ekranowe Fundacja Dajemy Dzieciom Siłę – we współpracy z ekspertkami i ekspertami z różnych dziedzin – przyjęła na początku 2025 roku granicę 15. roku życia jako rekomendację i praktyczną wskazówkę dla rodziców. Granica ta została uznana za minimalne, rozwojowo uzasadnione zabezpieczenie, uwzględniające zarówno potrzebę kontaktów rówieśniczych młodych ludzi, jak i ich realną gotowość do funkcjonowania w środowisku mediów społecznościowych w ich obecnej formie.
W 2025 roku rekomendacja ta stała się również postulatem rzeczniczym FDDS, obejmującym potrzebę zmiany prawnej granicy wieku dostępu do mediów społecznościowych oraz wprowadzenia skutecznych mechanizmów jej egzekwowania. Oznacza to przesunięcie odpowiedzialności z wyłącznego poziomu decyzji rodzicielskich na poziom systemowy – po stronie państwa i platform cyfrowych – w tym realnej weryfikacji wieku oraz odpowiedzialności za bezpieczeństwo najmłodszych użytkowników.
Postulat podniesienia wieku, od którego dzieci mogłyby samodzielnie rejestrować się w serwisach społecznościowych, cieszy się bardzo wysokim poparciem społecznym. Wprowadzenie granicy 15 lat popiera 80% rodziców w Polsce, przy zaledwie 8% przeciwników tego rozwiązania.
Jednocześnie badania pokazują skalę obaw rodziców o bezpieczeństwo dzieci w środowisku cyfrowym. 89% rodziców deklaruje zaniepokojenie bezpieczeństwem swoich dzieci w internecie. 64% uważa, że politycy nie traktują problemu bezpieczeństwa dzieci w internecie wystarczająco poważnie, a 63% krytycznie ocenia podejście firm technologicznych do ochrony dzieci.
Co istotne, 76% rodziców deklaruje gotowość do ograniczenia nieograniczonej wolności słowa w internecie, jeśli miałoby to prowadzić do skuteczniejszej ochrony dzieci1.
Granica 15+ – konieczna, ale niewystarczająca
Granica wieku 15+ jest kluczowa zarówno na poziomie budowania świadomości problemu, jak i realnej ochrony dzieci, nie jest jednak rozwiązaniem wystarczającym i nie może stanowić jedynego narzędzia ochrony. Ograniczenie dostępu nie usuwa ryzyka, jeśli środowisko cyfrowe pozostaje zaprojektowane w sposób sprzyjający nadmiernemu zaangażowaniu, presji społecznej oraz ekspozycji na szkodliwe treści. W takich warunkach zagrożenia nie znikają, lecz dla części dzieci mogą przenosić się do mniej widocznych i słabiej chronionych przestrzeni.
Dotyczy to również ryzyka wykorzystywania seksualnego dzieci w środowisku online. Kontakty z obcymi osobami, manipulacja relacyjna, nakłanianie do przesyłania intymnych treści czy szantaż, można oczekiwać, że zostaną w pewnym stopniu ograniczone dzięki wzrostowi świadomości rodziców oraz regulacjom prawnym będącym efektem wprowadzenia granicy 15+, jednak nie zostaną w pełni wyeliminowane przez sam zakaz wiekowy. Bez rozwiązań systemowych opartych na bezpieczeństwie w projektowaniu usług część dzieci może nadal pozostawać poza realnym zasięgiem ochrony i wsparcia.
Dlatego platformy i serwisy cyfrowe działające w oparciu o podobne mechanizmy jak media społecznościowe, w szczególności te powszechnie używane przez dzieci i młodzież, powinny być projektowane z uwzględnieniem bezpieczeństwa młodszych użytkowników. Oznacza to odpowiedzialność za sposób działania usług – tak, aby dzieci były chronione także wtedy, gdy mimo formalnych ograniczeń wieku już z nich korzystają.
Gdyby usługi cyfrowe były rzeczywiście bezpieczne z założenia (safe by design), a mechanizmy angażujące, systemy rekomendacji treści i funkcje społeczne były podporządkowane ochronie rozwoju i dobrostanu dzieci, dyskusja o tym, czy granica wieku powinna wynosić 13 czy 15 lat, nie miałaby tak fundamentalnego znaczenia.
Wiek powinien zatem wyznaczać rozwojowo uzasadnione ramy dostępu, ale nie zwalniać platform z odpowiedzialności za sposób projektowania usług. Skuteczna ochrona dzieci w środowisku cyfrowym wymaga zarówno późniejszego dostępu i rozsądnych limitów, jak i realnych zmian systemowych, opartych na rzetelnym planowaniu usług z uwzględnieniem bezpieczeństwa dzieci i młodzieży oraz ich stałym monitorowaniu i modyfikowaniu tam, gdzie stosowane rozwiązania okazują się nieskuteczne.