Seguinos

Actualidad

Anthropic irá a la Justicia por la sanción del Pentágono y crece la tensión por el uso militar de la IA

La empresa dueña de Claude confirmó que demandará al Departamento de Defensa de Estados Unidos tras ser catalogada como “riesgo para la cadena de suministro”, una medida que restringe su uso en contratos militares.

Publicado

el

Anthropic anunció que impugnará en los tribunales la decisión del Pentágono de declararla un “riesgo para la cadena de suministro”, una calificación que ya quedó formalizada y que impide a los contratistas usar su tecnología en trabajos vinculados al Departamento de Defensa de Estados Unidos. La compañía sostuvo que la medida es “legalmente insostenible” y aseguró que su alcance es más limitado de lo que sugirieron funcionarios del Gobierno. 

Según explicó su CEO, Dario Amodei, la restricción “se aplica solo al uso de Claude como parte directa de contratos” con el área de Defensa y no al resto de las relaciones comerciales de la firma con clientes privados o con contratistas en proyectos ajenos al Pentágono. Reuters reportó además que la medida entró en vigencia de inmediato

Qué cuestiona Anthropic

La compañía afirmó que el conflicto se originó tras meses de negociaciones con el Gobierno por dos límites concretosque se negó a remover: el uso de su IA para vigilancia masiva interna en Estados Unidos y para armas totalmente autónomas. Anthropic sostuvo que esos reparos no habían afectado “ninguna misión gubernamental” hasta el momento. 

En un comunicado publicado el 27 de febrero, la empresa dijo que una designación de este tipo sería “sin precedentes”para una firma estadounidense y recordó que comenzó a trabajar en redes clasificadas del Gobierno en junio de 2024. También advirtió que la herramienta legal invocada, la sección 10 USC 3252, solo permitiría restricciones acotadas y no un bloqueo generalizado. 

Amodei reafirmó esa postura el 5 de marzo, cuando reveló que Anthropic recibió una carta oficial confirmando la designación. Allí insistió en que la empresa “no ve otra opción que desafiarla en la corte” y aseguró que seguirá colaborando con la comunidad de seguridad nacional mientras sea posible. 

Impacto en contratistas y socios

De acuerdo con Reuters, la decisión del Pentágono bloquea el uso de Anthropic en tareas militares, aunque no impide que otras compañías sigan ofreciendo Claude en proyectos civiles o comerciales. Microsoft, por ejemplo, indicó que sus abogados concluyeron que los productos de Anthropic pueden seguir disponibles para clientes fuera del Departamento de Defensa. 

La medida llega después de una disputa de varios meses entre la empresa y el Pentágono por las condiciones de uso de la IA en el campo militar. Reuters señaló que Claude era utilizado en funciones como análisis de inteligencia y planificación operativa, incluso en operaciones relacionadas con Irán, según una fuente citada por la agencia. 

En paralelo, Amodei pidió disculpas por el tono de un memo interno que se filtró a la prensa, en medio de un intento por bajar la tensión con Washington. Sin embargo, ratificó el punto central del conflicto: Anthropic no cederá en sus límites sobre vigilancia masiva y armas autónomas. 

Lo que viene

El caso abre un nuevo frente en la discusión sobre IA, defensa y límites éticos en Estados Unidos. Mientras Anthropic prepara su ofensiva judicial, el alcance real de la sanción y su efecto sobre contratistas, tecnológicas e iniciativas militares quedará bajo escrutinio en las próximas semanas.