Australia pone contra las cuerdas a Meta, TikTok y YouTube por la verificación de edad en redes sociales

La prohibición del acceso a redes sociales para menores de 16 años en Australia vuelve a situar en el centro del debate a las grandes plataformas tecnológicas. Aunque algunas compañías han defendido que los sistemas actuales todavía no bastan para aplicar controles eficaces, los proveedores especializados en verificación de edad sostienen justo lo contrario: la tecnología ya existe y funciona, pero no se está utilizando con la consistencia necesaria.

Esa es la idea principal que trasladó la Asociación de Proveedores de Verificación de Edad, conocida como AVPA, al analizar los primeros resultados de la norma australiana. Según esta organización, el gran obstáculo no está en la capacidad técnica de las herramientas, sino en cómo las plataformas deciden aplicarlas, en qué momento del proceso las activan y con qué rigor supervisan su uso. Dicho de otro modo, el problema no sería la falta de soluciones, sino la falta de ejecución.

El debate no es menor. Australia puso en marcha en diciembre una medida pionera a escala internacional al prohibir el uso de redes sociales a usuarios menores de 16 años. Desde entonces, el país ha pasado a convertirse en un laboratorio regulatorio observado por gobiernos, tecnológicas y expertos en seguridad digital de todo el mundo. Lo que ocurra allí puede marcar el camino de futuras leyes en otros mercados.

Desde la AVPA se insiste en que los primeros ensayos y despliegues reales han dejado una conclusión clara: los sistemas de verificación de edad pueden operar con precisión incluso a gran escala. El fallo, según su análisis, aparece cuando las plataformas no los incorporan de forma estable en momentos decisivos, como la creación de cuentas o la revisión de perfiles ya existentes. ¿De qué sirve disponer de una cerradura resistente si la puerta se deja entreabierta?

En ese punto está una de las mayores críticas. El regulador australiano eSafety ha detectado carencias repetidas en el cumplimiento de la norma. Entre ellas figuran la ausencia de controles sólidos al abrir una cuenta, la posibilidad de repetir comprobaciones de edad hasta obtener un resultado favorable y la dependencia excesiva de la edad autodeclarada por el propio usuario, un sistema que en la práctica resulta fácil de esquivar. Para los proveedores tecnológicos, estas debilidades responden más a decisiones de diseño y supervisión que a límites reales de la tecnología.

La presión regulatoria ya se ha trasladado a nombres muy concretos. El comisionado de seguridad en internet de Australia está investigando a Meta, por Facebook e Instagram; Google, por YouTube; TikTok; y Snap por posibles incumplimientos relacionados con esta prohibición. El mensaje del Gobierno también se ha endurecido: si las plataformas no mejoran su nivel de cumplimiento, podrían enfrentarse a multas de hasta 49,5 millones de dólares australianos por infracción, además de una posible acción ante el Tribunal Federal respaldada con pruebas regulatorias.

Ese endurecimiento cambia el tono del debate. Ya no se trata solo de una discusión técnica sobre qué sistema es mejor, sino de una cuestión de responsabilidad empresarial. Las plataformas llevan años invirtiendo en inteligencia artificial, personalización y segmentación publicitaria, por lo que ahora los reguladores les exigen una capacidad similar cuando se trata de proteger a menores. La comparación pesa: si una red puede identificar gustos, rutinas y patrones de consumo con enorme precisión, también debería poder reforzar con seriedad sus filtros de edad.

Los datos manejados por las autoridades australianas reflejan, además, que el problema es de gran escala. Desde la entrada en vigor de la ley, se han eliminado millones de cuentas presuntamente pertenecientes a menores de edad. Esa cifra muestra dos cosas a la vez: por un lado, que existe actividad de control; por otro, que el acceso de menores seguía siendo amplio incluso después de aprobada la norma. Para los defensores de una regulación más estricta, este dato refuerza la idea de que las plataformas reaccionan, pero todavía no previenen lo suficiente.

La AVPA también pone el foco en otro punto sensible: la confianza excesiva en los modelos internos de inferencia de edad. Estos sistemas intentan calcular la edad de una persona a partir de su comportamiento digital, su actividad o ciertos patrones de uso. El problema es que, según el informe, basarse demasiado en estas estimaciones puede dejar agujeros importantes, especialmente si no se combinan con mecanismos de verificación más directos y robustos. A eso se suma la revisión insuficiente de cuentas antiguas, que pueden seguir activas sin un control actualizado.

Mientras TikTok y Snap evitaron pronunciarse sobre estas conclusiones, Meta y Google no ofrecieron comentarios inmediatos. Ese silencio, al menos de momento, deja más espacio a la interpretación de reguladores y proveedores tecnológicos, que coinciden en una idea incómoda para las plataformas: el acceso continuado de menores no demostraría que la tecnología falle, sino que su aplicación sigue siendo débil.

Australia, de hecho, ya había evaluado a miembros de la AVPA en un proceso exhaustivo antes de poner en marcha la prohibición. Ese detalle refuerza el argumento de quienes sostienen que el país no actuó a ciegas, sino después de revisar soluciones disponibles en el mercado. Por eso, la discusión actual no gira tanto en torno a si existe tecnología útil, sino a quién asume la responsabilidad de usarla de verdad.

En el fondo, el caso australiano abre una pregunta que ya empieza a extenderse por otros países: si la protección del menor en internet depende de herramientas disponibles, por qué sigue fallando su aplicación en las plataformas más grandes del mundo. La respuesta, según los proveedores de verificación de edad, no está en una imposibilidad técnica. Está en la ejecución. Y ahí es donde Australia ha decidido apretar.

No hay comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *