El Senado de Estados Unidos ha presentado una propuesta que podría redefinir cómo los menores interactúan con la inteligencia artificial. Los senadores Josh Hawley (R-Misuri) y Richard Blumenthal (D-Connecticut) impulsan el GUARD Act, una ley que busca prohibir el acceso de los menores de 18 años a los chatbots de IA y exigir a las empresas verificar la edad de todos los usuarios.
La propuesta llega tras varias audiencias en el Congreso, donde asociaciones de padres y defensores de la infancia alertaron sobre el impacto psicológico de estas herramientas. Si se aprueba, las compañías deberán solicitar un documento oficial de identidad o aplicar métodos alternativos de verificación —como reconocimiento facial u otras tecnologías consideradas “razonables”— para validar la edad.
Transparencia obligatoria y límites al contenido
Más allá del control de acceso, la iniciativa introduce nuevas obligaciones de transparencia y seguridad. Los chatbots deberán recordar cada 30 minutos que no son humanos y evitar cualquier conducta que lo simule.
El texto también prohíbe generar contenido sexual o mensajes que inciten al suicidio dirigidos a menores. Estas prácticas serían ilegales y conllevarían sanciones civiles y penales para las empresas responsables. El objetivo es evitar que los sistemas de IA produzcan respuestas dañinas en situaciones sensibles o con usuarios vulnerables.
Regulación y responsabilidad en la era conversacional
El GUARD Act aparece en un momento en que el Congreso busca establecer responsabilidades claras en el uso de algoritmos conversacionales. Aunque la medida pone el foco en la protección de los menores, también apunta a la rendición de cuentas de las grandes tecnológicas, acusadas de priorizar el crecimiento sobre la seguridad.
Para las compañías de IA y startups del sector, la ley supondría nuevas exigencias técnicas y legales:
- Implementar verificación de edad.
- Incluir avisos automáticos sobre la naturaleza no humana de los chatbots.
- Garantizar que los modelos no generen contenido inapropiado.
Cumplir con estas condiciones implicará inversiones adicionales en desarrollo, auditorías y cumplimiento normativo.
California, el precedente más cercano
Aunque el GUARD Act se debate a nivel federal, no es el primer intento de regular el comportamiento de los chatbots. En septiembre, California aprobó la ley SB 243, que obliga a los desarrolladores de “compañeros digitales” basados en IA a revelar su naturaleza no humana e implementar protocolos de seguridad ante posibles autolesiones.
Esa normativa estatal ha servido de referencia y refuerza la idea de que la transparencia y la seguridad deben ser pilares básicos de cualquier modelo de inteligencia artificial interactiva.
Hacia un estándar global de protección digital
La tramitación del GUARD Act marca un punto de inflexión en la política tecnológica estadounidense. Si prospera, el país podría convertirse en un referente internacional en protección digital de menores.
El debate, sin embargo, apenas empieza. ¿Podrá la industria tecnológica innovar sin poner en riesgo la confianza del usuario? Las próximas semanas serán clave para definir si la inteligencia artificial conversacional crece bajo un nuevo marco de responsabilidad o si continúa moviéndose en terreno incierto.
