La disputa entre el Pentágono y Anthropic llega este viernes a un punto álgido, pues se vence el ultimátum que autoridades impusieron al laboratorio de inteligencia artificial, para el uso por parte del Departamento de Guerra, por ello aquí te explicamos cómo la utilizan.
Así usa el Pentágono la IA de Anthropic: Esta es la disputa por Claude con el Departamento de Guerra
Anthropic y el Departamento de Guerra están inmersos en una disputa por el uso de la inteligencia artificial Claude. Aquí te explicamos los detalles
A las 17:00 horas, tiempo del Este de hoy viernes 27 de febrero de 2026, vence el plazo que el Departamento de Guerra dio para que Anthropic permita el uso legal y ampliado de su inteligencia artificial llamada Claude.
Sin embargo, el laboratorio de Anthropic ha fijado su postura y señaló que no dará al Departamento de Guerra un uso incondicional de su inteligencia artificial.
¿Cómo usa el Pentágono la IA Claude de Anthropic?
El 26 de febrero de 2026 Anthropic publicó un posicionamiento en su página web en torno a la disputa con el Departamento de Guerra y explicó cómo es que las autoridades utilizan su inteligencia artificial Claude.
Según el comunicado, “Claude se utiliza ampliamente en el Departamento de Guerra y otras agencias de seguridad nacional para aplicaciones de misión crítica, como análisis de inteligencia, modelado y simulación, planificación operativa, operaciones cibernéticas y más”.
Anthropic explicó, además, que renunció a cientos de millones de dólares en ingresos “para impedir el uso de Claude por parte de empresas vinculadas al Partido Comunista Chino (algunas de las cuales han sido designadas por el Departamento de Guerra como empresas militares chinas)”.
Explicó que se logró el desmantelamiento de ciberataques patrocinados por el Partido Comunista Chino, “que intentaban abusar de Claude y abogamos por estrictos controles a la exportación de chips para garantizar una ventaja democrática”.
¿Cuál es la disputa de Antrhopic vs Departamento de Guerra?
Anthropic expuso los dos temas coyunturales que mantienen la disputa con el Departamento de Guerra por el uso de la inteligencia artificial Claude, lo cual autoridades de Estados Unidos han salido a desmentir.
En su comunicado del pasado jueves, Anthropic detalló lo que considera " dos casos de uso que nunca se han incluido en nuestros contratos con el Departamento de Guerra, y creemos que no deberían incluirse ahora".
- Vigilancia doméstica masiva. Anthropic considera que "usar estos sistemas para la vigilancia doméstica masiva es incompatible con los valores democráticos" y señala que "presenta riesgos serios y novedosos para nuestras libertades fundamentales".
- Armas totalmente autónomas. El laboratorio asegura que las armas autónomas "pueden resultar cruciales para nuestra defensa nacional", pero considera que actualmente los sistemas de IA de vanguardia "simplemente no son lo suficientemente fiables como para impulsar armas totalmente autónomas".
Sobre la vigilancia masiva, Anthropic adelantó que posiblemente es una actividad legal actualmente, pero señaló que "esto se debe únicamente a que la ley aún no se ha puesto al día con las crecientes capacidades de la IA".
Y ejemplificó que con la vigilancia masiva, "bajo la ley actual, el gobierno puede comprar registros detallados de los movimientos, la navegación web y las asociaciones de los estadounidenses de fuentes públicas sin obtener una orden judicial, una práctica que la Comunidad de Inteligencia ha reconocido que plantea preocupaciones sobre la privacidad y que ha generado oposición bipartidista en el Congreso". Según la empresa, la IA tiene la capacidad de juntar toda esa información que puede estar dispersa en la web y convertirlos "en una imagen completa de la vida de cualquier persona, de forma automática y a gran escala".
El centro del debate ha girado en torno a la decisión de una IA para determinar si mata o no a una persona, por lo cual Anthropic ha señalado sobre las armas totalmente autónomas que "no proporcionaremos, a sabiendas, un producto que ponga en riesgo a los combatientes y civiles estadounidenses".
"Hemos ofrecido colaborar directamente con el Departamento de Guerra en I+D para mejorar la fiabilidad de estos sistemas, pero no han aceptado la oferta", señaló Anthropic y consideró que "sin una supervisión adecuada, no se puede confiar en que las armas totalmente autónomas ejerzan el juicio crítico que nuestras tropas profesionales y altamente entrenadas demuestran a diario".
Por su parte, el subsecretario de Guerra, Emil Michael, respondió a los mensajes de Anthropic, señalando en su cuenta de la red social X que el laboratorio de inteligencia artificial " miente".
Anthropic miente. El Departamento de Guerra no lleva a cabo vigilancia masiva, ya que eso es ilegal.
"De lo que estamos hablando es de permitir que nuestros combatientes utilicen la IA sin tener que pedir permiso a Dario Amodei, CEO de Anthropic, para derribar enjambres de drones enemigos que podrían matar a estadounidenses", concluyó Emil Michael.





