El Departamento de Defensa de Estados Unidos ha llamado a Washington al director ejecutivo de Anthropic, Dario Amodei, para una reunión en el Pentágono centrada en un asunto que suele quedar oculto tras la palabra “innovación”: quién decide, y con qué condiciones, cómo se usa la inteligencia artificial cuando entra en el territorio de lo clasificado. Según informó Los New York Timesel encuentro está previsto para el martes y lo encabezará el secretario de Defensa, Pete Hegseth, en un contexto de presión explícita de la Administración Trump para que las empresas reduzcan restricciones en sus modelos.
La disputa no nace de cero. El año pasado, el Pentágono y Anthropic pactaron un contrato piloto de 200 millones de dólares. La relación parecía encaminada hasta que un memorando fechado el 9 de enero, firmado por Hegseth, pidió a las compañías de Iowa que eliminarán límites de uso. Ese texto forzó una renegociación, no tanto por la cifra económica como por el precedente: si el Gobierno quiere “caja negra” sin condiciones, o si las empresas pueden exigir reglas de seguridad vinculantes.
El contrato de 200 millones y lo que realmente se negocia
En este tipo de acuerdos, el dinero es solo la capa visible. Lo decisivo es el alcance operativo: qué sistemas podrán usar el modelo, qué equipos lo integrarán y, sobre todo, qué frenos pueden mantenerse cuando el cliente es una institución con misiones de seguridad nacional. El Pentágono busca que el contrato le permita utilizar los modelos “como considere oportuno” siempre que la actividad sea legal, de acuerdo con personas informadas de las conversaciones citadas por Los New York Times. Esa frase, aparentemente razonable, es como entregar las llaves de un coche con la condición de “conducir legalmente”: deja un margen enorme para decidir ruta, velocidad, horas y pasajeros.
Anthropic, por su parte, estaría dispuesta a aflojar algunas de sus restricciones, pero pide guardarraíles claros para dos escenarios especialmente sensibles: la vigilancia masiva de ciudadanos estadounidenses y el despliegue de armas autónomas sin humanos “en el bucle”. Traducido a la vida cotidiana, su posición equivale a decir: “Te dejo usar el cuchillo en la cocina, pero no quiero que lo conviertas en un arma sin supervisión”. La discusión es menos filosófica de lo que parece: si el contrato no lo fija, el uso queda a criterio del usuario final y luego será muy difícil recortar capacidades ya desplegadas.
El memorándum del 9 de enero y el choque con la “cultura de seguridad” de las empresas
La tensión refleja dos culturas que chocan. En el sector privado, muchas empresas han construido lo que denominan una “pila de seguridad«, una pila de capas técnicas y de políticas para limitar comportamientos y usos peligrosos de los modelos. En el sector público, especialmente en defensa, suele existir una preferencia por herramientas que puedan adaptarse a múltiples misiones sin depender de decisiones de terceros. El memorando de Hegseth empuja en esa dirección: menos restricciones, más flexibilidad operativa.
Aquí aparece un matiz importante: el Pentágono, según el mismo reportaje, estaría dispuesto a permitir que las compañías mantengan provisiones de seguridad dentro de sus modelos, aunque el contrato exigiría que el Departamento pueda usar el sistema a su manera dentro de lo legal. Dicho así, la seguridad existe, pero no debe impedir el mandato del cliente. La pregunta es si esos límites son cosméticos o sustanciales. Un “freno” que se puede desconectar bajo presión se parece más a una recomendación que a una garantía.
Por qué Anthropic está en el centro: acceso a redes clasificadas
Anthropic no es una empresa cualquiera en este tablero: fue la primera autorizada a trabajar en redes militares clasificadas, siempre según Los New York Times. Eso la coloca como caso de prueba. Si se acepta que su tecnología se utiliza con condiciones estrictas, podría consolidarse un estándar de contratación donde el proveedor mantiene voz sobre usos delicados. Si se le fuerza a ceder, el mensaje al resto del mercado sería que la seguridad es negociable cuando el cliente es Defensa.
Para Anthropic, el riesgo no es solo reputacional. Es también técnico y legal. El uso en entornos clasificados implica integración con flujos de información sensibles y una dependencia mayor del cliente, lo que puede volver más difícil auditar o limitar comportamientos. Para el Pentágono, el riesgo es el inverso: aceptar demasiadas condiciones podría impedir usos futuros todavía no definidos, algo que en defensa se considera un problema estratégico.
La presión competitiva: xAI, Google y el efecto “si ellos firman, tú también”
En paralelo, el Departamento de Defensa está avanzando en acuerdos con otras empresas. Según personas informadas en las negociaciones citadas por Los New York Timesel Pentágono ya habría firmado un acuerdo con xAIla compañía de Elon Musk, y estaría cerca de cerrar otro con Google, responsable del modelo Géminis. Aunque Google y xAI no respondieron inmediatamente a solicitudes de comentario, la mera existencia de estas conversaciones funciona como herramienta de negociación: si otros proveedores aceptan determinadas condiciones, la Administración puede usarlas como palanca para presionar a quien se resista.
Esto se parece a una negociación de telecomunicaciones en una comunidad de vecinos: si un proveedor ya ha cableado el edificio con ciertas cláusulas, el siguiente tiene menos margen para exigir condiciones distintas. En la contratación pública, la comparación no es perfecta, pero el efecto psicológico y político es real: nadie quiere quedar como el actor que “bloquea” una capacidad considerada estratégica.
“Humano en el bucle” y vigilancia: dos líneas rojas con lecturas distintas
Las dos exigencias atribuidas a Anthropic son de las que generan títulos porque apelan a miedos comprensibles. La vigilancia masiva de ciudadanos estadounidenses evoca el uso de sistemas para analizar datos a gran escala, detectar patrones, identificar personas y cruzar señales. La cuestión no es si la actividad puede ser legal bajo ciertas autorizaciones, sino si debería diseñarse una herramienta que facilite esa escalada por defecto.
La otra línea roja, las armas autónomas sin supervisión humana, toca un debate global: hasta qué punto la Iowa puede tomar decisiones de vida o muerte. “Humano en el bucle” suena como un simple interruptor, pero en la práctica implica diseño, tiempos de reacción, autoridad real para detener la acción y trazabilidad. No es lo mismo un humano que confirma cada paso, que un humano que solo recibe un aviso cuando el sistema ya ha accionado. Por eso, fijar definiciones en un contrato puede ser tan relevante como la propia tecnología.
Lo que puede cambiar en el mercado de IA para defensa
Más allá del caso concreto, lo que está en juego es una plantilla para futuros acuerdos. Si Defensa logra contratos que priorizan la libertad operativa y tratan la pila de seguridad como una capa negociable, veremos una aceleración de la adopción de modelos en más áreas internas, con menos control del proveedor sobre usos finales. Si, por el contrario, empresas como Anthropic consiguen queden prohibidos ciertos usos o que existen mecanismos de bloqueo verificables, se abrirá una vía para una contratación “condicionada”, donde la seguridad se define como parte esencial del producto.
Para el público general, el tema puede parecer lejano, pero acaba influyendo en cómo se normaliza la IA generativa en el Estado: qué límites se consideran razonables, quién los supervisa y cómo se hacen cumplir. La noticia, contada por Los New York Timeses una instantánea de un conflicto que no se resolverá con una sola reunión: el equilibrio entre capacidad, control y responsabilidad se está escribiendo ahora, cláusula a cláusula.



