El presidente Donald Trump ordenó este viernes a su administración que "cesen todo uso de la tecnología de Anthropic", en medio de la disputa del Pentágono con la empresa tecnológica al reclamar que se le permita a la administración usar su inteligencia artificial sin limitaciones.
Trump ordena a su gobierno dejar de usar la tecnología de Anthropic, y llama "'woke' de izquierda radical" a la empresa
El presidente Donald Trump ordenó este viernes a las agencias federales de su administración "dejar todo uso de la tecnología de Anthropic", luego del enfrentamiento por las demandas del gobierno de que la empresa le permita usar su inteligencia artificial sin limitaciones.
"Los chiflados de izquierda de Anthropic han cometido un ERROR DESASTROSO al intentar presionar al Departamento de Guerra y obligarlo a obedecer sus Términos de Servicio en lugar de nuestra Constitución. Su egoísmo está poniendo en riesgo VIDAS ESTADOUNIDENSES, poniendo en peligro a nuestras tropas y poniendo en peligro nuestra seguridad nacional", afirmó Trump en un duro mensaje publicado en sus redes sociales.
El Departamento de Defensa le había dado a la startup hasta las 5:01 PM ET de este viernes para aceptar el uso militar incondicional de su IA, llamada Claude, a pesar de que esa petición viola los lineamientos éticos de la empresa.
Además de la orden de Trump, el secretario de Guerra, Pete Hegsteh, designó a Anthropic como "un riesgo para la cadena de suministro y la seguridad nacional", lo que impide a los proveedores militares estadounidenses trabajar con la empresa.
Hegseth llamó a la empresa "arrogante" y "traicionera".
En el centro del conflicto está la negativa de Anthropic a permitir que sus modelos Claude se utilicen para la vigilancia masiva de ciudadanos estadounidenses o en sistemas de armas totalmente autónomos.
Anthropic dijo este jueves a través de su director ejecutivo, Dario Amodei, que la empresa "no puede, en conciencia, acceder" a la exigencia final del Pentágono de permitir el uso ilimitado de su tecnología.
La orden de Trump contempla un plazo de seis meses para que las agencias federales e instancias de gobierno como el departamento de Guerra abandonen por completo el uso de Anthropic. "¡No lo necesitamos, no lo queremos y no volveremos a hacer negocios con ellos!", aseguró el mandatario.
La empresa no respondió de inmediato a una solicitud de comentarios sobre la decisión de Trump.
Una larga e infructuosa negociación
La empresa de IA afirmó que solicitó garantías específicas al Pentágono de que Claude no se utilizaría para la vigilancia masiva de los estadounidenses ni en armas totalmente autónomas. Sin embargo, tras meses de conversaciones privadas que derivaron en un debate público, afirmó en un comunicado el jueves que la nueva redacción del contrato, "formulada como un compromiso, se combinaba con jerga legal que permitiría ignorar esas salvaguardias a voluntad".
Esto ocurrió después de que Sean Parnell, portavoz principal del Pentágono, publicara en las redes sociales que el Ejército de EEUU "no tiene interés en utilizar la IA para llevar a cabo una vigilancia masiva de los estadounidenses (lo cual es ilegal), ni queremos utilizar la IA para desarrollar armas autónomas que funcionen sin intervención humana".
Parnell hizo hincapié en que el Pentágono quiere "utilizar el modelo de Anthropic para todos los fines legales", pero ni él ni otros funcionarios han detallado cómo quieren utilizar la tecnología.
Anthropic, creador del chatbot Claude, puede permitirse perder un contrato de defensa. Sin embargo, el ultimátum lanzado esta semana por el secretario de Defensa, Pete Hegseth, planteó riesgos más amplios en el momento álgido del meteórico ascenso de la empresa, que ha pasado de ser un laboratorio de investigación informática poco conocido de San Francisco a convertirse en una de las startups más valiosas del mundo.
Y, lo que es más importante, agudiza el conflicto sobre el papel de la IA en la seguridad nacional y la preocupación por cómo se podrían utilizar máquinas cada vez más capaces en situaciones de alto riesgo que impliquen fuerza letal, información sensible o vigilancia gubernamental.
Discusión polarizante sobre ética y seguridad
El asunto es altamente complejo. Los oficiales militares advirtieron que si Amodei no cedía, no solo rescindirían el contrato de Anthropic, sino que también "los considerarán un riesgo para la cadena de suministro", una designación que suele aplicarse a los adversarios extranjeros y que podría arruinar las alianzas fundamentales de la empresa con otras compañías.
Y si Anthropic permitía las demandas del Pentágono, podría perder la confianza en la floreciente industria de la IA, en particular la de los mejores talentos atraídos por la empresa por sus promesas de crear de forma responsable una IA mejor que la humana que, sin las debidas salvaguardias, podría suponer un peligro catastrófico.
Emil Michael, subsecretario de Defensa para Investigación e Ingeniería, ha arremetido contra Amodei, alegando en redes sociales que "tiene complejo de Dios" y "no desea otra cosa que intentar controlar personalmente el ejército estadounidense y no le importa poner en peligro la seguridad de nuestra nación".
Ese mensaje no ha tenido mucho eco en Silicon Valley, donde un número cada vez mayor de trabajadores tecnológicos de los principales rivales de Anthropic, OpenAI y Google, expresaron su apoyo a la postura de Amodei el jueves por la noche en una carta abierta titulada "No nos dividirán".
Más de 330 empleados de Google DeepMind y OpenAI instaron a los líderes de sus compañías a dejar de lado las rivalidades para cerrar filas en apoyo de Anthropic en su enfrentamiento con el gobierno de Donald Trump.
" Esperamos que nuestros líderes dejen a un lado sus diferencias y se mantengan unidos para seguir rechazando las exigencias del Departamento de Guerra de obtener permiso para utilizar nuestros modelos en vigilancia masiva doméstica y para matar personas de forma autónoma sin supervisión humana", dice la carta.
La delicada relación entre los gigantes tecnológicos y la administración federal
OpenAI y Google, junto con xAI de Elon Musk, también tienen contratos para suministrar sus modelos de IA al ejército.
Musk se puso del lado de la administración republicana de Trump el viernes, diciendo en su plataforma de redes sociales X que "Anthropic odia la civilización occidental" después de que Michael llamara la atención sobre una versión anterior de los principios rectores de Claude que fomentaban "la consideración de perspectivas no occidentales".
Todos los modelos de IA líderes, incluidos Grok, de Musk, y ChatGPT, de OpenAI, están programados con un conjunto de instrucciones que guían los valores y el comportamiento de un chatbot. Anthropic denomina a esa guía "constitución".
Aunque algunos líderes tecnológicos aliados de Trump se han sumado a la polémica, entre ellos Musk y Palmer Luckey, cofundador de la empresa de defensa Anduril, el debate polarizado sobre la "IA woke" ha puesto a otros en una posición difícil.
En su mensaje de este viernes con Anthropic, Trump dijo: "¡ Estados Unidos nunca permitirá que una empresa 'woke' de izquierda radical dicte como nuestro grandioso Ejército pelea y gana guerras!"
"Nosotros decidiremos el destino de nuestro país, no una empresa radical de IA fuera de control, dirigida por personas que no tienen idea de lo que es el mundo real", aseveró el mandatario.
La carta abierta de algunos de los empleados de OpenAI y Google refiere que "el Pentágono está negociando con Google y OpenAI para intentar que acepten lo que Anthropic ha rechazado". Y alertan que "están tratando de dividir a cada empresa con el temor de que la otra ceda".
Sin embargo, hubo una posición sorprendente por parte de uno de los rivales más feroces de Amodei, el director ejecutivo de OpenAI, Sam Altman, que se puso el viernes del lado de Anthropic.
Altman cuestionó la "amenazante" medida del Pentágono en una entrevista con la CNBC, sugiriendo que OpenAI y la mayor parte del sector de la IA comparten las mismas líneas rojas.
Amodei trabajó en OpenAI antes de que él y otros líderes de OpenAI renunciaran para formar Anthropic en 2021.
"A pesar de todas las diferencias que tengo con Anthropic, confío en ellos como empresa y creo que realmente se preocupan por la seguridad", declaró Altman a la CNBC. "Me alegra que hayan estado apoyando a nuestros combatientes. No estoy seguro de cómo va a acabar esto".
Preocupación entre legisladores y expertos militares
También expresaron su preocupación por el enfoque del Pentágono legisladores republicanos y demócratas, así como un antiguo líder de las iniciativas de IA del Departamento de Defensa.
El senador Mark Warner, de Virginia, máximo representante demócrata en la Comisión de Inteligencia del Senado, afirmó que esta medida, "junto con la retórica incendiaria contra dicha empresa, suscita serias dudas sobre si las decisiones en materia de seguridad nacional se basan en análisis rigurosos o en consideraciones políticas".
Por su parte, el general retirado de la Fuerza Aérea Jack Shanahan dijo en una publicación en las redes sociales: "Poner en el punto de mira a Anthropic genera titulares sensacionalistas, pero al final todos salen perdiendo".
Shanahan se enfrentó a una ola diferente de oposición por parte de los trabajadores tecnológicos durante la primera administración Trump, cuando dirigió Maven, un proyecto para utilizar tecnología de IA para analizar imágenes de drones y armas de precisión. Tantos empleados de Google protestaron por su participación en el Proyecto Maven en ese momento que el gigante tecnológico se negó a renovar el contrato y se comprometió a no utilizar la IA en armamento.
"Dado que estuve en medio del Proyecto Maven y Google, es razonable suponer que me pondría del lado del Pentágono en este caso", escribió Shanahan el jueves en las redes sociales. "Sin embargo, simpatizo con la posición de Anthropic. Más que con la de Google en 2018".
Afirmó que Claude ya se está utilizando ampliamente en todo el gobierno federal, incluso en entornos clasificados, y que las líneas rojas de Anthropic son "razonables". Dijo que los grandes modelos de lenguaje de IA que alimentan los chatbots como Claude tampoco están "listos para su uso en entornos de seguridad nacional", y menos aún para armas totalmente autónomas.
"No están tratando de hacerse los listos", escribió.
Vea también:










