En medio de una creciente disputa entre el gobierno de Estados Unidos y la empresa de inteligencia artificial Anthropic, China aprovechó la polémica para lanzar una advertencia directa sobre los riesgos de militarizar la Inteligencia Artificial ( IA).
Este es el mensaje por posible Apocalipsis estilo ‘Terminator’ que China envió a Estados Unidos
La declaración llega en un momento de tensión entre Washington y una de las compañías líderes en investigación y seguridad de inteligencia artificial, lo que ha generado debate internacional sobre los límites éticos del uso militar de esta tecnología
El mensaje, emitido por el Ministerio de Defensa chino, alertó sobre la posibilidad de que un escenario similar al de la película Terminator pueda convertirse algún día en realidad si las potencias continúan desarrollando armas autónomas.
La declaración llega en un momento de tensión entre Washington y una de las compañías líderes en investigación y seguridad de inteligencia artificial, lo que ha generado debate internacional sobre los límites éticos del uso militar de esta tecnología.
Mensaje de China a Estados Unidos
El portavoz del Ministerio de Defensa de China , Jiang Bin, emitió el mensaje el miércoles 11 de marzo de 2026 en respuesta a cuestionamientos sobre la intención de Washington de ampliar el acceso del ejército estadounidense a sistemas avanzados de inteligencia artificial.
Según reportó la agencia de noticias Agence France-Presse (AFP), el funcionario advirtió sobre los peligros de permitir que la IA tenga un papel central en la guerra. “Una distopía como la que se describe en la película estadounidense ‘Terminator’ podría convertirse algún día en realidad”.
Jiang Bin también alertó sobre los riesgos éticos y tecnológicos de permitir que algoritmos tomen decisiones en conflictos armados.
“Continuar sin límites con la militarización de la inteligencia artificial, utilizarla como instrumento para violar la soberanía de otras naciones, permitir que influya excesivamente en las decisiones bélicas y dejar que los algoritmos tengan poder de vida o muerte sobre los seres humanos no solo socava los fundamentos éticos y las responsabilidades en tiempo de guerra, sino que también corre el riesgo de provocar una pérdida de control tecnológico”.
Disputa entre Anthropic y el Pentágono
El conflicto comenzó a inicios de marzo de 2026, cuando el Departamento de Defensa de Estados Unidos solicitó a Anthropic permitir el uso de su modelo de inteligencia artificial Claude para fines militares.
Entre las peticiones se incluía la posibilidad de utilizar la tecnología para desarrollar armas autónomas y realizar vigilancia avanzada. Sin embargo, la empresa se negó a eliminar las salvaguardas éticas de su sistema. Anthropic rechazó permitir que Claude fuera utilizado para vigilancia masiva de ciudadanos estadounidenses o para operar sistemas de armas completamente autónomos sin supervisión humana.
Como respuesta, el Pentágono designó formalmente a la compañía como un riesgo para la seguridad nacional y la cadena de suministro, una medida sin precedentes contra una empresa tecnológica estadounidense.
El secretario de Defensa, Pete Hegseth, informó que la administración del presidente Donald Trump ordenó a todas las agencias federales dejar de utilizar productos de Anthropic.
Advertencia global sobre IA militar
En medio de la disputa, China aprovechó el conflicto para reforzar su postura contra la militarización de la inteligencia artificial.
El gobierno chino señaló que permitir que la IA controle armas o decisiones de combate podría provocar un escenario similar al de Terminator, la famosa película de ciencia ficción que retrata una guerra entre la humanidad y una inteligencia artificial fuera de control.
Hasta el momento, el gobierno de Estados Unidos no ha dado una respuesta ante las advertencias del gigante asiático.
JICM









