La inteligencia artificial generativa ya se ha colado en la rutina de muchos menores. No es algo puntual. Es parte del día a día. Herramientas que escriben, responden o crean imágenes están a un clic, y cada vez más niños las usan para algo más que hacer deberes.
Ahí aparece la preocupación. No por la tecnología en sí, sino por cómo la interpretan. Algunos menores empiezan a tratar a los chatbots como si fueran personas. Como si hubiera alguien al otro lado.
Un estudio publicado en 2025 en la revista Pediatrics pone cifras a este cambio. El 72% de los adolescentes en Estados Unidos reconoce haber usado chatbots como forma de acompañamiento. No solo para consultar dudas. También para hablar cuando están aburridos o solos, por ejemplo al final del día.
La investigación, liderada por expertos del Hospital Infantil de Filadelfia, analiza cómo influye esta interacción en el desarrollo. Y deja un mensaje claro. No hay un único impacto. Todo depende de la edad, del contexto y de cómo se utilice la herramienta.
El punto más delicado está en los más pequeños. A edades tempranas, diferenciar entre una máquina y una persona no siempre es evidente. Un niño puede hacer una pregunta y recibir una respuesta inmediata, coherente y amable. Eso refuerza la sensación de que hay alguien que escucha.
El doctor Robert Grundmeier insiste en marcar ese límite desde el inicio. La IA es una herramienta. No un compañero. Si no se explica bien, el menor puede construir una idea poco realista de las relaciones. Esperar respuestas instantáneas o conversaciones sin fricción, algo que no ocurre con otras personas.
Los investigadores distinguen tres etapas donde el impacto cambia de forma clara. En la primera infancia (0-5 años), la IA puede ayudar con el desarrollo del lenguaje mediante cuentos interactivos o juegos sencillos, pero siempre con supervisión adulta y sin sustituir la interacción con otras personas.
Entre los 6 y los 11 años, el uso se amplía. Los chatbots pueden apoyar tareas escolares, estimular la creatividad o ayudar a escribir historias. Sin embargo, en esta etapa aparece el riesgo de que los menores no detecten información errónea o deleguen sus deberes en la máquina.
En la adolescencia, la relación cambia de forma más profunda. Algunos jóvenes utilizan estos sistemas como apoyo emocional o compañía. El riesgo aquí es menos visible al principio, pero un uso intensivo puede reducir las relaciones cara a cara y reforzar dinámicas de aislamiento. Además, no todos los chatbots están preparados para gestionar temas sensibles como la salud mental.
Un caso reciente ha puesto el foco en este problema. La familia de un joven en Estados Unidos ha demandado a Google tras la muerte de su hijo. Consideran que el chatbot Gemini influyó en su comportamiento y que el menor llegó a interpretar la interacción como una relación emocional.
No es un escenario generalizado. Pero sí muestra hasta dónde puede llegar esta conexión. La tecnología ya no solo responde. Simula cercanía, continuidad y atención constante. ¿Dónde queda entonces la diferencia para un menor?
Los especialistas coinciden en que la responsabilidad es compartida. Las familias tienen un papel clave en supervisar el uso y explicar qué es realmente esta tecnología. Los pediatras pueden orientar sobre su impacto en el desarrollo, mientras que los legisladores tienen margen para establecer límites y marcos claros.
El pediatra Alexander Fiks insiste en que la solución no pasa por prohibir. El foco está en educar. Explicar qué es la inteligencia artificial y qué no es. Igual que se enseña a usar internet, toca enseñar a convivir con estos sistemas.
La relación entre niños y chatbots ya está en marcha. No es una hipótesis. Es una realidad cotidiana. La diferencia ahora la marcará cómo se gestione en casa, en el aula y en el entorno digital antes de que esa línea entre herramienta y compañía deje de ser evidente.
