ChatGPT ya no decide por ti: OpenAI deja en manos del usuario el tono, la cercanía y hasta los emojis

OpenAI ha dado un paso que puede parecer menor, pero que dice mucho sobre el momento que vive la inteligencia artificial conversacional. ChatGPT estrena nuevas opciones de personalización que permiten ajustar de forma explícita el nivel de entusiasmo, cercanía y uso de emojis del asistente. La novedad fue anunciada por la compañía a través de redes sociales y ya está disponible en el menú de Personalización para una parte de los usuarios.

No se trata de un simple retoque estético. Es una respuesta directa a meses de debate sobre cómo “suena” ChatGPT cuando habla. ¿Demasiado frío? ¿Excesivamente amable? ¿Poco humano o demasiado complaciente? Ahora, por primera vez, OpenAI traslada esa decisión al usuario.

Tres controles claros para moldear la personalidad

Los nuevos ajustes permiten elegir entre tres niveles (Más, Menos o Predeterminado) para modular distintos rasgos del asistente. En concreto, el usuario puede decidir:

  • Cuánto entusiasmo muestra ChatGPT en sus respuestas
  • El grado de cercanía o calidez en el lenguaje
  • La frecuencia con la que utiliza emojis

Estos controles se suman a las opciones introducidas en noviembre, cuando OpenAI permitió definir un estilo base como Profesional, Directo o Informal. También se han incorporado ajustes similares para el uso de encabezados y listas, algo especialmente relevante para quienes emplean ChatGPT en tareas de escritura, documentación o trabajo técnico.

Un ejemplo sencillo ilustra el cambio. Un consultor que utiliza ChatGPT para redactar informes puede optar por un tono sobrio, sin emojis y con respuestas concisas. En cambio, alguien que lo usa para brainstorming creativo o aprendizaje informal puede preferir un asistente más expresivo, con mensajes motivadores y un lenguaje más cercano.

Un giro tras meses de idas y venidas

La actualización no llega por casualidad. El tono de ChatGPT ha sido uno de los temas más controvertidos de los últimos meses. OpenAI llegó incluso a revertir una actualización después de reconocer que el sistema se había vuelto “demasiado complaciente”, con respuestas excesivamente afirmativas y poco críticas.

Más tarde, con la llegada de GPT-5, parte de la comunidad expresó la queja contraria. Muchos usuarios percibían al asistente como más frío, distante y robótico, especialmente en interacciones cotidianas. OpenAI ajustó entonces el modelo para hacerlo algo más cercano, aunque sin recuperar del todo el estilo anterior.

El resultado fue una sensación de vaivén. Lo que agradaba a unos molestaba a otros. La solución ahora es clara: no existe un tono perfecto para todos, así que cada usuario puede definir el suyo.

Personalización como estrategia, no como adorno

Desde la compañía, el mensaje es que estos controles buscan ofrecer mayor margen de elección, adaptando la experiencia al contexto de uso. No es lo mismo interactuar con ChatGPT para revisar un contrato que para preparar una clase, escribir un post o simplemente charlar.

Este enfoque encaja con una tendencia más amplia en el diseño de productos de IA. En lugar de imponer una “personalidad oficial”, las empresas empiezan a asumir que los asistentes son herramientas versátiles, usadas en entornos muy distintos. La personalización deja de ser un extra y pasa a ser parte del núcleo del producto.

Además, estos ajustes ayudan a resolver un problema práctico. Muchas críticas a ChatGPT no apuntan a errores técnicos, sino a sensaciones subjetivas: respuestas demasiado largas, exceso de empatía, tono paternalista o, al contrario, falta de humanidad. Permitir que el usuario regule estos aspectos reduce fricción sin necesidad de tocar el modelo base en cada actualización.

El debate de fondo: cercanía, refuerzo y salud mental

La decisión de OpenAI también se produce en un momento delicado. Parte de la comunidad académica y varios expertos en ética de la IA llevan tiempo alertando sobre los riesgos de los chatbots excesivamente afirmativos. El argumento es que un asistente que valida de forma constante las opiniones del usuario puede reforzar creencias erróneas, fomentar dependencia emocional o generar dinámicas adictivas.

Este debate ha ganado visibilidad a medida que los chatbots se integran en la vida diaria. Para algunas personas, ChatGPT no es solo una herramienta de trabajo, sino un espacio de conversación frecuente. En ese contexto, el tono importa tanto como el contenido.

Permitir ajustar el nivel de cercanía y entusiasmo puede verse como una forma de mitigar esos riesgos. Un usuario que prefiera interacciones más neutrales puede reducir ese componente emocional. Otro, que busque apoyo motivacional, puede aumentarlo conscientemente. La clave está en que la elección sea explícita.

Un pequeño cambio con implicaciones grandes

A primera vista, elegir si ChatGPT usa más o menos emojis puede parecer trivial. No lo es. El lenguaje define la relación entre humanos y máquinas, y OpenAI parece haber asumido que esa relación no puede ser uniforme.

Con estos nuevos controles, ChatGPT deja de tener una personalidad cerrada y pasa a comportarse como un sistema adaptable. Es un reconocimiento implícito de que el asistente ya no es solo un experimento tecnológico, sino un producto usado por millones de personas con expectativas muy distintas.

La pregunta ahora es hasta dónde llegará esta personalización. ¿Veremos en el futuro controles para el grado de crítica, el nivel de iniciativa o la forma de discrepar? Si algo deja claro esta actualización es que el debate sobre cómo debe “hablar” una IA está lejos de cerrarse. Y, por primera vez, OpenAI ha decidido que esa conversación no la gane solo el modelo, sino también el usuario

Temas:
No hay comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *