La empresa de inteligencia artificial Anthropic ha llevado su enfrentamiento con el Gobierno estadounidense a los tribunales. La compañía presentó este lunes dos demandas contra el Departamento de Defensa de Estados Unidos después de que el organismo la incluyera en una lista oficial de entidades consideradas “riesgo para la cadena de suministro”. Según la empresa, la decisión es ilegal y amenaza directamente su actividad.
Las acciones judiciales se registraron en dos instancias distintas. Una en el tribunal federal del distrito norte de California y otra en el tribunal de apelaciones del circuito de Washington DC. Ambas buscan revertir una medida que el Pentágono formalizó el jueves pasado y que, de acuerdo con la propia compañía, nunca se había aplicado antes contra una empresa estadounidense.
La designación no es menor. Supone que cualquier empresa que tenga contratos con el Gobierno federal debe romper sus vínculos comerciales con Anthropic. En la práctica, esto podría afectar a proveedores tecnológicos, contratistas y socios que dependen de contratos públicos. Un ejemplo concreto sería una empresa de software que colabora con el Pentágono y que, para mantener su contrato, se vería obligada a dejar de usar herramientas desarrolladas por Anthropic.
El enfrentamiento entre ambas partes lleva meses gestándose. Durante ese tiempo, la empresa tecnológica trató de introducir salvaguardas para limitar el uso militar de sus sistemas de inteligencia artificial. Entre esas restricciones figuraban impedir que los modelos se utilizaran para vigilancia masiva dentro de Estados Unidos o para armas completamente autónomas.
¿Dónde empezó realmente el choque? En el desacuerdo sobre los límites de la inteligencia artificial en el ámbito militar.
Según la demanda, la respuesta del Pentágono fue aplicar la controvertida etiqueta de riesgo en la cadena de suministro. Para Anthropic, esa decisión no es una medida técnica, sino una represalia política. La empresa sostiene que la Administración de Donald Trump está castigando a la compañía por no alinearse con determinadas exigencias del Gobierno.
El argumento central de la demanda se apoya en la Primera Enmienda de la Constitución estadounidense. En el documento presentado en California, la empresa afirma que el Gobierno no puede usar su poder institucional para penalizar a una compañía por su expresión o posición pública.
El caso adquiere más relevancia si se tiene en cuenta la relación previa entre ambas partes. El modelo de inteligencia artificial de la empresa, Claude, ha estado integrado en el Departamento de Defensa durante el último año. Hasta hace poco, incluso era el único sistema autorizado para operar en redes clasificadas del organismo.
Según informaciones citadas en la demanda, el Pentágono utilizó ese sistema en diferentes operaciones militares. Entre ellas, tareas de análisis que ayudaban a decidir objetivos de ataques con misiles durante la guerra contra Irán. Ese antecedente muestra hasta qué punto la tecnología de Anthropic ya formaba parte de los sistemas de defensa estadounidenses.
Pese al enfrentamiento judicial, la compañía insiste en que no pretende romper su relación con el ámbito de seguridad nacional. Al contrario, afirma que sigue abierta a colaborar con el Gobierno en el desarrollo de aplicaciones de inteligencia artificial para defensa.
La empresa recuerda además que ya había trabajado junto al Pentágono para adaptar sus sistemas a usos específicos. Por ejemplo:
- Ajustar modelos para operar en entornos clasificados.
- Modificar herramientas para tareas concretas dentro de agencias federales.
- Evaluar límites de seguridad en aplicaciones militares.
Un portavoz de la compañía explicó en un comunicado que acudir a los tribunales no significa abandonar esa cooperación. “Solicitar revisión judicial no cambia nuestro compromiso de larga data de aprovechar la inteligencia artificial para proteger nuestra seguridad nacional, pero es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios”, señaló la empresa.
En el texto legal, Anthropic también sostiene que la medida del Gobierno está provocando un daño “irreparable” a la compañía. La etiqueta de riesgo podría afectar a su reputación, a sus contratos y a sus relaciones con socios comerciales.
Sin embargo, existe una aparente contradicción en el discurso público de la empresa. La semana pasada, su director ejecutivo, Dario Amodei, afirmó en declaraciones a CBS News que el impacto de la designación era “bastante pequeño” y que la compañía seguiría adelante sin grandes problemas.
Esa diferencia entre el tono de las declaraciones públicas y el contenido de la demanda refleja la complejidad del conflicto. Por un lado, la empresa busca minimizar la percepción de daño ante clientes e inversores. Por otro, en los tribunales sostiene que la medida amenaza el valor económico de una de las compañías privadas de inteligencia artificial que más rápido ha crecido en los últimos años.
El caso abre una pregunta más amplia para la industria tecnológica y el sector de defensa: ¿hasta dónde puede llegar el Gobierno al presionar a una empresa que desarrolla tecnologías estratégicas?
La respuesta, ahora, quedará en manos de los tribunales. Y su impacto podría extenderse mucho más allá de una sola empresa de inteligencia artificial.
