La startup californiana Anthropic demandó el lunes al gobierno del presidente Donald Trump por considerar que la penalizó por negarse a autorizar el uso militar sin límites de sus modelos de inteligencia artificial Claude.
Anthropic demanda a la administración de Donald Trump tras ser señalada como riesgo para la seguridad nacional
Anthropic es la primera empresa estadounidense calificada de "riesgo" por el gobierno federal, una consideración reservada a entidades de países rivales, como el gigante tecnológico chino Huawei.
El Departamento de Defensa estadounidense designó la semana pasada a Anthropic como un "riesgo" para la cadena de suministro de seguridad nacional, después de que la empresa rechazara la utilización de su tecnología para vigilancia masiva o fines bélicos.
En la demanda de 48 páginas, presentada ante un tribunal federal de San Francisco, Anthropic solicita que dicha designación se revierta y declare ilegal.
La compañía sostiene que se fundó sobre la convicción de que su IA debe "usarse de una manera que maximice los resultados positivos para la humanidad" y debe "ser la más segura y la más responsable".
" Anthropic presenta esta demanda porque el Gobierno federal ha tomado represalias por expresar ese principio", añade en su escrito.
Anthropic es la primera empresa estadounidense calificada de "riesgo" por el gobierno federal, una consideración reservada a entidades de países rivales, como el gigante tecnológico chino Huawei.
La designación exige a los proveedores y contratistas de defensa que certifiquen que no utilizan los modelos de Anthropic en su trabajo con el Pentágono.
"Consecuencias enormes"
"Las consecuencias de este caso son enormes", ya que el Gobierno "pretende destruir el valor económico creado por una de las empresas privadas de más rápido crecimiento del mundo", afirma la demanda.
La disputa estalló después de que Anthropic enfureciera al jefe del Pentágono, Pete Hegseth, al insistir en que su tecnología no debía utilizarse para vigilar a los ciudadanos o para sistemas de armas totalmente autónomos.
Posteriormente, Trump ordenó a todas las agencias federales que dejaran de utilizar la tecnología de Anthropic.
Hegseth ordenó que ningún contratista, proveedor o socio militar "puede realizar ninguna actividad comercial con Anthropic". Concedió por otra parte un período de transición de seis meses para el propio Pentágono.
Más de una treintena de ingenieros en IA de OpenAI y Google, incluido el científico jefe de Google, Jeff Dean, manifestó su apoyo a Antrophic en un escrito presentado ante el tribunal el lunes.
Indicaron que expresaban sus opiniones como profesionales que desarrollan, entrenan o estudian IA y que no representaban a sus empresas. I, e instaron al tribunal a fallar a favor de Anthropic.
"Estamos unidos en la convicción de que los sistemas de IA de vanguardia actuales presentan riesgos cuando se usan para permitir la vigilancia masiva doméstica o en la operación de sistemas de armas letales autónomas sin supervisión humana, y que esos riesgos requieren algún tipo de límites, sea con medidas de seguridad técnicas o restricciones de uso", señalaron.
En su declaración también aseguraron que "la designación gubernamental de Anthropic como un riesgo para la cadena de suministro era un uso de poder impropio y arbitrario que tiene serias repercusiones para nuestra industria".
El diferendo entre el Pentágono y Anthropic se desató días antes de la ofensiva militar estadounidense contra Irán.
Claude es el modelo de IA de vanguardia más ampliamente desplegado por el Pentágono y el único modelo de este tipo que opera actualmente en los sistemas clasificados del Departamento de Defensa.
En su demanda, Anthropic asegura que las medidas adoptadas en su contra exceden la autoridad legal del Pentágono y violan derechos constitucionales.
"La Constitución no permite que el gobierno utilice su enorme poder para castigar a una empresa por su discurso", señala el texto.
Fundada en 2021 por los hermanos Dario y Daniela Amodei, ambos exempleados de OpenAI, creadora del ChatGPT, Anthropic se ha posicionado en la carrera de la IA como una alternativa centrada en la seguridad.










