China vuelve a mover ficha en el tablero regulatorio de la inteligencia artificial. Esta vez, el foco no está en los modelos de propósito general ni en la infraestructura, sino en un terreno más delicado: los sistemas diseñados para simular rasgos humanos y establecer vínculos emocionales con los usuarios. El regulador del ciberespacio ha publicado un borrador de normas que endurece el control sobre este tipo de aplicaciones y abre un nuevo frente en la gobernanza de la IA de consumo.
La propuesta parte de la Cyberspace Administration of China, el organismo encargado de supervisar internet y los servicios digitales en el país. El texto se encuentra en fase de consulta pública y apunta directamente a chatbots, avatares virtuales y asistentes que reproducen personalidades humanas, muestran empatía o interactúan de forma emocional a través de texto, voz, imágenes o vídeo. No se trata de un ajuste técnico menor, sino de un intento explícito de regular el impacto psicológico y social de estas tecnologías.
El contexto explica el movimiento. En los últimos dos años, han proliferado en China aplicaciones de IA orientadas al acompañamiento emocional, la conversación personalizada o incluso la simulación de relaciones. Algunas se presentan como apoyo frente a la soledad; otras, como entretenimiento. El regulador considera que este tipo de servicios plantea riesgos específicos, distintos a los de una IA puramente funcional, porque pueden generar dependencia emocional o alterar la percepción del usuario sobre la naturaleza de la interacción.
El borrador introduce obligaciones claras para las empresas. Los proveedores deberán advertir de forma explícita sobre los riesgos de un uso prolongado o intensivo y asumir responsabilidades de seguridad durante todo el ciclo de vida del producto. Eso incluye el diseño del algoritmo, el entrenamiento del modelo y su despliegue comercial. Un ejemplo concreto: una aplicación que actúe como “compañero virtual” no podrá presentarse como sustituto de relaciones humanas reales sin alertas visibles para el usuario.
Uno de los puntos más sensibles del texto es la exigencia de monitorizar el estado emocional de los usuarios. Las normas obligan a los desarrolladores a identificar señales de dependencia, emociones extremas o comportamientos adictivos. Si se detectan estos patrones, la plataforma deberá intervenir. No se especifica una única vía, pero se mencionan medidas como limitar el tiempo de uso, modificar el tono de las respuestas o activar avisos de descanso. El objetivo declarado es prevenir daños psicológicos, especialmente entre usuarios jóvenes o vulnerables.
La regulación también refuerza los requisitos en materia de protección de datos personales. Los sistemas que interactúan emocionalmente manejan información especialmente sensible, desde estados de ánimo hasta preferencias íntimas. Por ello, el borrador exige controles más estrictos sobre la recopilación, el almacenamiento y el uso de estos datos, así como auditorías internas y revisiones algorítmicas periódicas. La lógica es clara: cuanto más “humana” es la interacción, mayor es el riesgo asociado.
China no es ajena a la crítica internacional por su enfoque regulatorio, pero este movimiento sigue una línea coherente con su estrategia digital. Pekín busca anticiparse a los efectos secundarios de tecnologías que ya están influyendo en el comportamiento de millones de personas. ¿Dónde acaba la innovación y empieza la manipulación emocional? Esa pregunta, implícita en el texto, marca el tono del borrador.
El alcance de la norma será amplio. Afectará a cualquier servicio disponible para el público chino que incorpore rasgos de personalidad humana, independientemente de si se trata de startups locales o de grandes plataformas tecnológicas. Las empresas deberán adaptar productos ya existentes, no solo los nuevos lanzamientos. En la práctica, esto puede ralentizar el despliegue comercial de ciertos formatos de IA conversacional, pero también forzar diseños más prudentes desde el inicio.
Con esta iniciativa, China da un paso más en su modelo de gobernanza de la IA, basado en el control preventivo y la responsabilidad directa de los proveedores. Frente a otros enfoques más reactivos, el regulador opta por intervenir antes de que los efectos se generalicen. El resultado será observado con atención fuera de sus fronteras, en un momento en el que la IA emocional empieza a ganar peso en mercados de todo el mundo.
El mensaje es inequívoco: la inteligencia artificial que “parece humana” ya no es solo una cuestión tecnológica. Para Pekín, es un asunto de salud mental, seguridad y orden social. Y eso cambia las reglas del juego para cualquiera que quiera operar en ese espacio.
