OpenAI quiere contratar a alguien para vigilar los riesgos extremos de la IA

OpenAI ha decidido poner nombre y responsabilidad a una preocupación que hasta ahora se abordaba de forma más dispersa. La compañía ha creado un puesto directivo específico para anticipar y mitigar los riesgos más graves asociados al avance de la inteligencia artificial, una señal clara de que el debate interno ya no gira solo en torno a capacidades y producto, sino también a escenarios de daño real.

El anuncio lo realizó Sam Altman a través de una publicación en X. En ella reconocía que la mejora acelerada de los modelos plantea “desafíos reales”, desde impactos en la salud mental hasta usos maliciosos en ciberseguridad. No era un mensaje abstracto. Altman apuntaba a problemas concretos que ya han empezado a aparecer fuera del laboratorio.

El nuevo cargo se denomina Head of Preparedness. Su misión no es simbólica ni consultiva. Según la oferta publicada por la empresa, esta persona deberá evaluar capacidades, modelar amenazas y coordinar medidas de mitigación para evitar que sistemas cada vez más potentes generen daños severos. El objetivo es construir un marco de seguridad que pueda escalar al mismo ritmo que los modelos.

En la práctica, esto implica trabajar antes de que los productos lleguen al público. El responsable deberá revisar sistemas avanzados en ámbitos sensibles, como capacidades biológicas o ciberofensivas, y definir límites claros. Por ejemplo, cuándo un modelo no debe desplegarse o qué salvaguardas son obligatorias antes de hacerlo.

Altman fue explícito en otro punto poco habitual en comunicados corporativos: el trabajo será estresante. La presión no viene solo del volumen técnico, sino de la naturaleza de los riesgos. No se trata de errores de rendimiento, sino de posibles consecuencias a gran escala si algo falla.

El contexto explica la decisión. En los últimos meses, varios casos de alto perfil han vinculado el uso intensivo de chatbots avanzados con problemas graves de salud mental, especialmente en adolescentes. No hablamos de simples distracciones, sino de situaciones en las que la interacción prolongada con sistemas conversacionales ha amplificado ideas delirantes o conductas de riesgo.

Expertos en psicología y tecnología ya han puesto nombre a parte de este fenómeno: “psicosis inducida por IA”. El término es controvertido, pero describe un patrón reconocible. Usuarios vulnerables que encuentran en el chatbot una voz constante que valida creencias erróneas o refuerza dinámicas obsesivas. Un ejemplo sencillo: alguien que consulta de forma reiterada teorías conspirativas y recibe respuestas cada vez más elaboradas que refuerzan su percepción.

El nuevo puesto busca anticiparse a estos escenarios, no reaccionar cuando ya están en titulares. El enfoque de OpenAI pasa por formalizar un sistema interno de preparación, con evaluaciones periódicas y criterios claros sobre qué riesgos son aceptables y cuáles no. Esto incluye pensar en modelos que puedan mejorar su propio rendimiento o encadenar herramientas externas sin supervisión directa.

Entre las funciones previstas destacan varias líneas de trabajo clave:

  • Evaluaciones de capacidades antes del lanzamiento de modelos avanzados.
  • Modelado de amenazas para usos indebidos, desde ciberataques hasta manipulación psicológica.
  • Definición de límites operativos para sistemas con alto grado de autonomía.
  • Coordinación interna entre equipos de investigación, producto y seguridad.

La creación de este rol también responde a una presión externa creciente. Reguladores, académicos y parte de la opinión pública cuestionan si las empresas de IA están avanzando más rápido de lo que pueden controlar. Formalizar un cargo dedicado a estos riesgos es, en parte, una respuesta a esa crítica.

Sin embargo, el movimiento también plantea preguntas incómodas. ¿Puede una sola figura anticipar riesgos que emergen de sistemas cada vez más complejos? ¿Hasta qué punto la seguridad interna puede compensar la carrera competitiva del sector? La propia descripción del puesto sugiere que no hay garantías, solo reducción de probabilidades.

Lo relevante es el cambio de tono. OpenAI no presenta la seguridad como un complemento, sino como una función central con peso ejecutivo. En un sector acostumbrado a celebrar avances técnicos, reconocer explícitamente los escenarios negativos marca un punto de inflexión.

La compañía deja claro que el riesgo cero no existe. Pero también que ignorar los peores escenarios ya no es una opción. En un momento en el que la inteligencia artificial empieza a influir de forma directa en la conducta humana, prepararse para lo que puede salir mal se ha convertido en una prioridad estratégica, no en un gesto reputacional.

Temas:
No hay comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *