Imagina que construyes una de las IAs más poderosas del mundo, la entrenas para ser útil, inofensiva y honesta, consigues un contrato de 200 millones de dólares con el ejército más poderoso del planeta… y luego el presidente de los Estados Unidos te llama “empresa radical de izquierda” en redes sociales. Eso, exactamente, es lo que le pasó a Anthropic en los primeros meses de 2026.
Todo empezó con una captura en Venezuela
Para entender este enredo hay que viajar a enero de 2026, cuando fuerzas especiales estadounidenses capturaron al dictador venezolano Nicolás Maduro y a su esposa, que fueron trasladados a Estados Unidos para enfrentar cargos de narcotráfico. Fox News Una operación de película. Pero con un detalle que cambiaría la historia del sector IA: el ejército de EE.UU. utilizó el modelo de IA de Anthropic, Claude, durante la operación para capturar a Maduro, a través de su asociación con la empresa de análisis de datos Palantir Technologies. Axios
El ejército ha utilizado Claude en el pasado para analizar imágenes satelitales e inteligencia. Las fuentes confirmaron que Claude fue usado durante la operación activa, no solo en los preparativos. Axios
El problema es que Anthropic tiene políticas de uso muy claras: Claude no debe ser usado para medidas ofensivas, y sus políticas prohíben explícitamente que el modelo facilite la violencia, el desarrollo de armas o la vigilancia. The Jerusalem Post
Y alguien en Anthropic lo notó. Durante una reunión rutinaria entre Anthropic y Palantir, un ejecutivo de Palantir quedó preocupado porque un empleado de Anthropic no parecía estar de acuerdo con cómo sus sistemas podrían haber sido usados en la operación, lo que generó una ruptura en la relación de Anthropic con el Pentágono. NBC News
El ultimátum
Lo que siguió fue una escalada digna de un thriller político. El Pentágono le dio a Anthropic un ultimátum: permitir al ejército el uso irrestricto de su tecnología de IA, o enfrentar una prohibición de todos los contratos gubernamentales. CBS News
El Departamento de Defensa quería que Anthropic otorgara al Pentágono acceso sin restricciones a sus modelos para “todos los propósitos legales”, mientras que Anthropic quería asegurar que su tecnología no fuera usada para armas completamente autónomas ni para vigilancia masiva doméstica. CNBC
Anthropic se negó. Y el CEO Dario Amodei fue categórico: ha respaldado lo que describe como “regulación sensata de la IA”, incluyendo reglas que exigirían a las empresas ser transparentes sobre los riesgos de sus modelos. CBS News Para el Pentágono, eso fue inaceptable.
La blacklist sin precedentes
La designación de Anthropic fue la primera vez que una empresa estadounidense fue designada públicamente como riesgo en la cadena de suministro bajo un oscuro estatuto de adquisiciones gubernamentales, pensado para proteger los sistemas militares del sabotaje extranjero. CBC News
Es decir: una herramienta diseñada para señalar a empresas chinas o rusas que podrían infiltrar los sistemas del Pentágono fue usada por primera vez contra una compañía americana fundada en San Francisco. La etiqueta exige a los contratistas de defensa, incluyendo Amazon, Microsoft y Palantir, que certifiquen que no usan los modelos Claude de Anthropic en su trabajo con el ejército. CNBC
Y Trump fue más allá. El presidente Trump publicó en redes sociales ordenando a todas las agencias federales “cesar de inmediato” el uso de la tecnología de Anthropic, escribiendo: “NOSOTROS decidiremos el destino de nuestro País — NO una empresa de IA Radical de Izquierda dirigida por personas que no saben nada del mundo real”. NPR
Anthropic contraataca en los tribunales
Anthropic presentó dos demandas federales contra la administración Trump, alegando que los funcionarios del Pentágono retaliaron ilegalmente contra la empresa por su postura sobre la seguridad de la inteligencia artificial. NPR Las demandas argumentan que el gobierno violó la Primera Enmienda —libertad de expresión— al castigar a Anthropic por sus políticas de uso.
Anthropic quiere que un juez pause la designación de riesgo en la cadena de suministro del Pentágono y la directiva del presidente Trump que prohíbe a las agencias federales usar sus modelos Claude. Sin la orden judicial, Anthropic ha declarado que podría perder miles de millones de dólares en negocios. CNBC
El 26 de marzo, la jueza Rita Lin emitió un fallo otorgando la solicitud de Anthropic de una orden preliminar en su demanda contra la administración Trump. CNBC La magistrada fue directa: el Pentágono había intentado “paralizar” a la compañía y cuestionó si el Departamento de Defensa había violado la ley. CNBC
Pero el alivio duró poco. El 8 de abril de 2026, un panel de tres jueces del Tribunal de Apelaciones del Circuito de DC negó la solicitud de emergencia de Anthropic para pausar la decisión del Pentágono de etiquetarla como amenaza a la seguridad nacional. Vucense
El razonamiento del tribunal fue fríamente pragmático: el panel reconoció que Anthropic “probablemente sufriría algún grado de daño irreparable”, pero caracterizó los intereses de la compañía como “principalmente de naturaleza financiera”. Vucense
La paradoja que nadie quiere nombrar
Aquí está el giro más irónico de toda esta historia. A pesar de la prohibición de Anthropic, su modelo Claude continúa siendo utilizado a través de su asociación con Palantir, central en el sistema Maven Smart System de Palantir, que proporciona objetivos en tiempo real para operaciones militares contra Irán. Responsible Statecraft
Claude es usado para ayudar a analistas militares a procesar inteligencia y, según fuentes con conocimiento del trabajo de Anthropic con el Departamento de Defensa, no provee directamente asesoría de objetivos. NBC News
En otras palabras: el gobierno prohibió usar Claude, pero sigue usándolo porque no puede prescindir de él. Desarticular estos sistemas sería una tarea de meses que los funcionarios reconocen causaría una disrupción significativa. Android Headlines
El tablero se reorganiza
Mientras la batalla legal continúa, el ecosistema se mueve rápido. Desde la ruptura con Anthropic, la empresa rival OpenAI ha ocupado su lugar: Sam Altman confirmó haber alcanzado un acuerdo con el Pentágono para usar sus herramientas, incluyendo ChatGPT, en sus redes clasificadas. NPR También xAI, la empresa de Elon Musk, ha sido habilitada para operar en sistemas clasificados del ejército.
La inyunción emitida en San Francisco sí logró un efecto parcial: las agencias no pertenecientes al DOD —FEMA, NASA, organismos reguladores— pueden seguir usando Claude. Pero la designación específica de riesgo en la cadena de suministro del Pentágono permanece vigente. Vucense
Lo que Anthropic dejó claro con todo esto es que no está dispuesta a negociar sus límites éticos, aunque eso cueste contratos multimillonarios y la ira de la Casa Blanca. “Ninguna cantidad de intimidación o castigo del Departamento de Guerra cambiará nuestra posición sobre la vigilancia masiva doméstica o las armas autónomas totalmente independientes”, declaró la compañía. Built In
Un caso que, sea cual sea su desenlace, ya ha trazado una línea en la arena sobre quién decide —y quién debería decidir— cómo se usa la IA más poderosa del mundo.



Deja un comentario
Lo siento, tenés que estar conectado para publicar un comentario.