Dacă folosești TikTok în Europa, urmează să vezi o schimbare importantă legată de vârstă. Platforma spune că, în următoarele săptămâni, pornește un set îmbunătățit de metode de detectare a conturilor care par folosite de copii sub 13 ani, adică sub vârsta minimă permisă. Vorbim de Spațiul Economic European, dar și de Regatul Unit și Elveția, deci practic aproape întreaga zonă europeană. Ideea de bază rămâne aceeași, doar că devine mai agresivă în practică: nu se bazează pe o singură verificare, ci combină semnale din activitatea contului cu intervenție umană, ca să reducă situațiile în care un copil își trece o dată de naștere inventată și rămâne pe platformă.
Cum funcționează, pe înțelesul tuturor: la creare, utilizatorul își introduce data de naștere, care este doar un prag inițial. Dincolo de asta, intră partea mai interesantă: sistemele platformei se uită la informațiile din profil, la conținutul publicat și la comportamentul din aplicație, adică la acele semnale care, puse cap la cap, pot sugera că persoana din spatele contului ar putea fi un copil sub 13 ani. Dacă un cont este marcat ca suspect, nu este blocat automat, ci ajunge la o echipă de revizuire, unde un moderator specializat decide dacă se aplică blocarea. În paralel, moderatorii care verifică diverse elemente de conținut pentru alte motive pot semnala conturi ce par aparținând unor copii, iar raportarea rămâne deschisă și pentru utilizatori. TikTok afirmă că, prin combinația acestor metode, elimină la nivel global aproximativ 6 milioane de conturi de minori sub 13 ani în fiecare lună, ceea ce spune multe despre amploarea fenomenului.
Partea sensibilă, cum era de așteptat, este verificarea vârstei fără să transformi totul într-un proces intruziv. TikTok recunoaște, în esență, că nu există azi o metodă universal acceptată care să confirme vârsta cu precizie și să protejeze în același timp intimitatea. De aceea insistă pe abordarea în straturi, adică mai multe tehnici folosite împreună, plus decizie umană la final. În apel, dacă ți se închide contul din greșeală, intră mecanismele de confirmare: document de identitate, autorizare cu card sau estimare a vârstei pe baza unei fotografii făcute pe loc cu camera. În Europa, TikTok menționează explicit că folosește estimarea facială prin Yoti, iar în zona de suport explică și cum tratează selfie-ul pentru estimare, adică este capturat automat de un serviciu terț, este folosit doar pentru a estima vârsta și apoi ar trebui șters după ce se transmite rezultatul către TikTok.
Tot la capitolul detalii practice, merită știut că TikTok oferă o perioadă mai lungă pentru apel și descărcarea datelor în Europa, Regatul Unit și Elveția decât în alte regiuni. În documentația proprie, TikTok indică un termen de 180 de zile în aceste țări pentru a face apel și pentru a solicita arhiva de date, înainte ca ștergerea contului și a datelor să avanseze către etapa finală. Cu alte cuvinte, dacă cineva este blocat pe motiv de vârstă, nu e genul de situație în care ai două zile să te prinzi ce s-a întâmplat, cel puțin în Europa.
De ce se întâmplă toate astea acum, fix în Europa? Pentru că presiunea de reglementare a crescut vizibil, iar protecția minorilor a devenit una dintre temele centrale în legislația și controalele din zona digitală. Digital Services Act, de exemplu, a pus pe masă obligații mai clare pentru platforme, inclusiv în zona de reducere a riscurilor pentru copii și adolescenți, iar Comisia Europeană a deschis încă din 2024 proceduri oficiale legate de TikTok, unde protecția minorilor apare explicit între punctele urmărite, alături de transparența reclamelor, accesul cercetătorilor la date și managementul riscurilor asociate designului adictiv și conținutului dăunător. În acest context, TikTok spune că a lucrat cu autoritatea principală de supraveghere a confidențialității din UE pentru Data Protection Commission din Irlanda, tocmai ca să fie în parametri cu standardele europene de protecție a datelor.
În paralel, se întărește și curentul politic care împinge spre limite de vârstă mai mari pe social media, nu doar spre sub 13 ani. Australia a mers deja pe o interdicție pentru conturi ale minorilor sub 16 ani, activă din 10 decembrie 2025, iar autoritatea locală pentru siguranță online a raportat că platformele au dezactivat aproximativ 4,7 milioane de conturi asociate adolescenților sub 16 ani la o lună după intrarea în vigoare. Legea vine cu amenzi care pot ajunge până la 49,5 milioane de dolari australieni pentru companiile care nu iau măsuri rezonabile, în timp ce copiii și părinții nu sunt ținta sancțiunilor. În același pachet apar și tensiuni juridice, inclusiv faptul că Reddit a contestat măsura în instanță, deși spune că se conformează până la clarificarea situației.
Regatul Unit pare să se uite atent la exemplul australian. Din ce se discută public, există presiune politică și socială pentru o variantă de restricție sub 16 ani, iar în perioada imediat următoare este așteptat un vot în House of Lords pe o propunere care ar bloca accesul la social media pentru cei sub 16 ani, urmând ca, dacă trece, subiectul să ajungă la un vot în Camera Comunelor în lunile următoare. Dincolo de dezbaterea politică, genul acesta de mișcare ar forța practic platformele să dovedească mai bine vârsta, ceea ce explică de ce vedem tot mai des soluții care combină estimare automată, verificări cu documente și revizuire umană.
Rămâne, totuși, problema clasică a acestor sisteme: cât de ușor pot fi păcălite și câte erori produc. E suficient să te uiți la cazul Roblox, unde verificarea bazată pe estimarea vârstei a atras critici tocmai pentru că unii utilizatori au arătat metode de ocolire, iar alții s-au plâns de încadrarea greșită pe grupe de vârstă, ceea ce arată cât de complicat e să găsești un echilibru între siguranță și exactitate. Tocmai de aceea, la TikTok pare că se merge pe aceeași idee de decizie finală umană, nu doar la algoritm, și pe apel cu metode alternative, ca să reducă riscul ca un adult sau un adolescent să fie scos din platformă doar pentru că un model automat a interpretat greșit niște semnale.
