Podniesienie granicy dostępu do mediów społecznościowych do 15. roku życia nie jest kwestią restrykcji, lecz elementarnym działaniem na rzecz bezpieczeństwa dzieci w środowisku cyfrowym. Przez lata odpowiedzialność za kontakt najmłodszych z produktami zaprojektowanymi pod maksymalizację uwagi spoczywała głównie na rodzinach, choć sam problem ma przecież charakter systemowy. Państwo powinno więc reagować tak jak w innych obszarach rynku konsumenckiego, wyznaczając minimalne standardy ochrony.
Co istotne, nie zaczynamy od zera. Już dziś obowiązujące przepisy dotyczące zgody na przetwarzanie danych osobowych czy ochrony małoletnich w usługach cyfrowych tworzą ramy, które mogłyby realnie ograniczyć obecność najmłodszych w mediach społecznościowych, gdyby były konsekwentnie egzekwowane. Przykładem jest art. 8 ust.1 RODO, który mówi o tym, że dopiero osoba w wieku 16 lat może samodzielnie wydać wiążącą zgodę na to, co dzieje się, gdy zakładamy gdzieś konto: na zbieranie i przetwarzanie naszych danych osobowych.
Nie chciałabym jednak, by nasza perspektywa ograniczona była tylko do mediów społecznościowych. Potrzebujemy kroku dalej: powszechnej klasyfikacji produktów i usług cyfrowych według poziomu ryzyka dla użytkownika oraz zasady projektowania safety by design. Wówczas łatwo zobaczymy produkty i usługi takie jak gry społecznościowe, gry hazardowe, aplikacje AI, komunikatory, które są dzisiaj przedmiotami wysokiego ryzyka, m. in. uzależnień od hazardu czy narażenia na wykorzystanie seksualne online i inne formy przemocy w sieci.
Dopiero połączenie jasnej granicy wieku, egzekwowania istniejącego prawa i klasyfikacji produktów może zapewnić bezpieczeństwo w sieci – nie tylko dzieciom i młodzieży, ale i nam, dorosłym. Nie jest to więc kwestia zakazu, lecz nowego cywilizacyjnego standardu.