Washington. — Microsoft apoyó a la empresa de inteligencia artificial Anthropic en su disputa legal contra el Gobierno de EE.UU. y solicitó a un tribunal bloquear temporalmente la designación de la compañía como “riesgo para la cadena de suministro”, medida impuesta por el Pentágono que amenaza contratos vigentes en el sector militar.
En un documento judicial, Microsoft argumentó que una orden temporal permitiría una transición más ordenada y evitaría interrumpir el uso de tecnologías de IA por parte de las Fuerzas Armadas. La empresa advirtió que, sin esa medida, compañías tecnológicas tendrían que modificar de inmediato productos y contratos del Departamento de Guerra, lo que podría afectar operaciones en un momento crítico.
Batalla por la IA
La semana pasada, el Pentágono prohibió oficialmente la tecnología de Anthropic al considerarla un riesgo para la seguridad nacional, tras no lograr un acuerdo con la empresa. La compañía exigía garantías de que sus modelos no serían utilizados para armas totalmente autónomas ni para vigilancia masiva dentro del país, mientras que el Departamento de Guerra buscaba acceso total y sin restricciones para usos legales.
La decisión obliga a los contratistas de defensa a certificar que no emplean modelos de Anthropic en proyectos vinculados con el Pentágono. Ante ello, Anthropic demandó el lunes a la administración del presidente Donald Trump, calificando la medida como “ilegal” y “sin precedentes”.
Aunque no forma parte directa de la demanda, Microsoft intervino en el caso para pedir una tregua judicial que permita negociar una solución. La compañía también anunció que continuará integrando los modelos de Anthropic, incluido Claude, en sus plataformas M365, GitHub y AI Foundry, salvo en proyectos del Departamento de Guerra.
Por su parte, Google y Amazon, que también utilizan tecnología de Anthropic en sus servicios en la nube, informaron a sus clientes que los modelos de la empresa seguirán disponibles fuera del ámbito de defensa.






