La carrera por aplicar inteligencia artificial a la seguridad nacional acaba de provocar una nueva sacudida dentro de la industria tecnológica. Una integrante del equipo de robótica de OpenAI ha dimitido tras mostrar su desacuerdo con el acuerdo alcanzado entre la compañía y el Departamento de Defensa de Estados Unidos.
La persona que ha abandonado la empresa es Caitlin Kalinowski, ingeniera vinculada al desarrollo de robótica y hardware dentro de OpenAI. En varias publicaciones en redes sociales explicó que dejaba su puesto “por principios” después de que la compañía anunciara su intención de poner sistemas de inteligencia artificial a disposición de entornos informáticos seguros del Pentágono.
Su salida reabre un debate que lleva años presente en el sector: hasta dónde deben llegar las empresas tecnológicas cuando trabajan con gobiernos en aplicaciones militares o de seguridad nacional.
Una dimisión que apunta al proceso, no solo al acuerdo
Kalinowski explicó públicamente que su decisión no fue sencilla. En uno de sus mensajes señaló que sentía un fuerte apego por el equipo con el que había trabajado durante los últimos años.
“I resigned from OpenAI. I care deeply about the Robotics team and the work we built together. This wasn’t an easy call”, escribió.
La ingeniera también quiso dejar claro que su desacuerdo no estaba dirigido contra personas concretas dentro de la organización. De hecho, expresó respeto por el consejero delegado de la empresa, Sam Altman, y por el resto del equipo directivo.
Su crítica se centró en el proceso que llevó al anuncio del acuerdo. Según explicó, las salvaguardas sobre ciertos usos de la inteligencia artificial no estaban suficientemente definidas antes de que la empresa hiciera público el proyecto con el Departamento de Defensa.
En sus propias palabras, la inteligencia artificial puede tener un papel relevante en la seguridad nacional. Pero advirtió de que ciertos límites merecían más discusión antes de avanzar.
Entre los ejemplos que mencionó figuraban dos escenarios especialmente sensibles:
- Vigilancia de ciudadanos estadounidenses sin supervisión judicial
- Uso de sistemas autónomos letales sin autorización humana
Estas líneas rojas, según Kalinowski, deberían haber sido objeto de un debate más profundo antes de formalizar el acuerdo.
El creciente papel de la IA en defensa
La salida se produce en un momento en el que el Gobierno de Estados Unidos está acelerando la incorporación de herramientas de inteligencia artificial en distintas áreas de seguridad nacional.
El uso de estos sistemas abarca múltiples ámbitos. Desde análisis de grandes volúmenes de información hasta apoyo en planificación estratégica o automatización de procesos logísticos.
Un ejemplo concreto sería el análisis de imágenes satelitales. Sistemas de IA pueden revisar miles de fotografías captadas desde el espacio para detectar cambios en infraestructuras o movimientos de vehículos, una tarea que manualmente llevaría semanas.
Esta tendencia está empujando a las principales compañías tecnológicas a posicionarse en el sector. Anthropic, al contrario que OpenAI, rechazó su contrato millonario con el gobierno para evitar que su herramienta sea utilizado en conflictos bélicos como el actual de Irán.
La posición de OpenAI
Desde la empresa, la respuesta ha sido intentar delimitar claramente los usos permitidos.
Un portavoz de OpenAI señaló a NPR que el acuerdo con el Departamento de Defensa “crea un camino viable para usos responsables de la IA en seguridad nacional”.
Al mismo tiempo, la compañía reiteró sus límites:
- No vigilancia doméstica masiva
- No desarrollo de armas autónomas
La empresa también afirmó que seguirá dialogando con empleados, administraciones públicas, organizaciones civiles y expertos para definir marcos de uso responsables.
Un debate que atraviesa toda la industria
El caso de Kalinowski no es aislado. La relación entre tecnología y defensa ha generado tensiones similares en otras compañías durante la última década.
Uno de los episodios más conocidos ocurrió en 2018, cuando empleados de Google protestaron por la participación de la empresa en Project Maven, un programa del Pentágono que utilizaba inteligencia artificial para analizar imágenes de drones.
La presión interna llevó finalmente a Google a no renovar ese contrato.
En el ecosistema actual, las posiciones siguen siendo diversas. Algunas compañías buscan colaborar con gobiernos bajo límites estrictos. Otras prefieren mantenerse al margen de cualquier uso militar.
El consejero delegado de Anthropic, tal como hemos mencionado previamente, ha defendido recientemente que los modelos de su empresa no deberían utilizarse en vigilancia masiva interna ni en sistemas de armas autónomas.
Estas posturas han provocado fricciones con responsables del Departamento de Defensa. Entre ellos el secretario Pete Hegseth, que ha argumentado que el ejército necesita margen para desplegar herramientas comerciales de inteligencia artificial en todas las operaciones legales.
El futuro profesional de Kalinowski
Antes de su salida, Kalinowski trabajaba en la expansión del área de robótica dentro de OpenAI. Su perfil profesional incluía tareas de contratación y desarrollo de proyectos relacionados con inteligencia artificial aplicada a infraestructuras físicas y maquinaria.
Tras anunciar su dimisión, explicó que seguirá vinculada a este campo.
“I’m taking a little time, but I remain very focused on building responsible physical AI”, escribió.
Su mensaje deja claro que la discusión no termina con su salida. A medida que la inteligencia artificial se integra en sistemas físicos, desde robots hasta infraestructuras críticas, el debate sobre sus límites seguirá creciendo.
