El acceso de menores a redes persiste en Australia pese a la ley y expone fallos en la verificación de edad

Australia fue uno de los primeros países en intentar limitar el acceso de menores de 16 años a redes sociales. La intención era reducir la exposición temprana a contenidos y dinámicas de alto impacto. Sin embargo, los primeros datos tras la entrada en vigor de la ley muestran una realidad más compleja: la mayoría de los menores sigue usando estas plataformas.

Un informe del regulador eSafety apunta que cerca de siete de cada diez menores continúan activos en servicios como Facebook, Instagram, Snapchat o TikTok. Las plataformas han eliminado millones de cuentas, pero el uso no ha desaparecido. Ha bajado, sí, aunque el comportamiento de fondo apenas se ha movido.

Fallos estructurales en la verificación de edad

El problema no está en la norma, sino en cómo se aplica. Los sistemas de verificación siguen siendo fáciles de esquivar. El informe detalla varias vías habituales:

  • Cambiar la edad declarada en el registro
  • Repetir intentos hasta superar el control
  • Crear cuentas con datos falsos

Son prácticas simples. Cualquier menor con algo de experiencia digital puede hacerlo en minutos. La barrera existe, pero no es sólida. Algunas compañías han empezado a probar soluciones más exigentes, como documentos oficiales o vídeos selfie para validar identidad. Aun así, ni siquiera estos métodos han cerrado del todo las grietas. La tecnología todavía no garantiza un control fiable sin generar fricción.

Más presión sobre las tecnológicas

El regulador australiano ha endurecido su postura. Está recopilando pruebas y prepara posibles acciones legales. Las plataformas deben demostrar que han aplicado medidas efectivas, no solo cumplir en apariencia.

La responsabilidad recae directamente en las empresas. Si fallan, se enfrentan a sanciones económicas relevantes. El mensaje es directo: no basta con bloquear cuentas, hay que impedir el acceso real.

El trasfondo: salud mental y diseño de producto

La regulación responde a una preocupación creciente. El uso intensivo de redes en menores ya no es un debate teórico. Según datos manejados por el Ejecutivo australiano, la mayoría de niños entre 10 y 15 años utiliza estas plataformas. Una parte significativa ha estado expuesta a contenidos dañinos, desde mensajes misóginos hasta vídeos violentos o que promueven trastornos alimentarios.

Aquí aparece otra cuestión clave. ¿El problema es solo el acceso o también el diseño de las plataformas? Muchos servicios están optimizados para maximizar el tiempo de uso. Eso aumenta la exposición y dificulta el control, incluso cuando existen límites legales.

Indonesia se suma y eleva el tono

Australia no está sola. Indonesia ha aprobado una normativa similar y ya muestra frustración con los resultados iniciales. El Gobierno ha pedido a empresas como Meta y Google que refuercen sus sistemas de detección y eliminación de cuentas de menores. También ha señalado a plataformas como TikTok y Roblox. La crítica se centra en la falta de transparencia y en la lentitud de los cambios reales.

Una tendencia global que apunta a Europa

Lo que ocurre en Australia anticipa lo que viene. Países como España, Francia o Reino Unido ya trabajan en medidas similares. La verificación de edad se perfila como uno de los grandes retos regulatorios de la economía digital. No es solo una cuestión técnica. Implica equilibrar control, privacidad y experiencia de usuario.

Por ahora, ese equilibrio no existe. Y mientras tanto, gobiernos y plataformas siguen tensando la cuerda en un terreno donde la tecnología aún no ofrece una solución definitiva.

No hay comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *