Si una empresa diseña el arma, la despliega en el campo de batalla, la opera durante una operación militar con fuego real y después se queja públicamente de que no le gusta cómo la usaron, eso no es conciencia. Es campaña de relaciones públicas.
Eso es lo que hizo Anthropic con la operación Absolute Resolve. El 3 de enero de 2026, Delta Force y el FBI capturaron a Nicolás Maduro en Caracas. Más de 150 aeronaves: F-22, B-1 Lancer, F-35, drones furtivos RQ-170. Venezuela reportó 83 muertos. Cuba confirmó 32 militares muertos y declaró dos días de duelo nacional. Según el Wall Street Journal, Claude fue utilizado durante la operación activa a través de la plataforma de Palantir en redes clasificadas. No en la planificación. Durante la operación.
Axios lo confirmó el 13 de febrero. CNBC reportó el 18 de febrero que Anthropic era la única empresa de IA con modelos desplegados en las redes clasificadas del Pentágono.
Después, un ejecutivo de Anthropic llamó a Palantir para preguntar si su modelo había sido usado. Un funcionario senior del Departamento de Defensa declaró a Axios que la pregunta se formuló "de tal manera que implicaba que podrían desaprobar el uso." Palantir reportó el intercambio al Pentágono. Anthropic lo calificó como una "routine discussion on strictly technical matters."
SIN LEY NO HAY CRIMEN
Antes de entrar en la historia de Anthropic hay que entender el escenario legal. Todo lo que viene después ocurre en un vacío regulatorio que no es accidental.
No existe ninguna ley federal en Estados Unidos que prohíba, limite o regule las armas autónomas letales. Ninguna. El Congressional Research Service lo confirmó en 2021: "there are no domestic or international legal prohibitions on the development or use of LAWS." La Directiva 3000.09, lo más parecido a una regulación, es una política interna del Pentágono emitida en 2012 y actualizada en enero de 2023. No es ley. No requiere aprobación del Congreso. Puede revocarse con una firma. Exige "niveles apropiados de juicio humano sobre el uso de la fuerza", un estándar deliberadamente ambiguo.
Ningún arma había sido sometida jamás a la revisión senior que esa directiva establece, según un portavoz del Departamento de Defensa en marzo de 2019. El mecanismo de control llevaba vigente siete años y no se había usado ni una vez. Tras la actualización de 2023, un funcionario indicó que se habían iniciado algunas revisiones, pero no hay registro público del resultado.
Cuando un sistema autónomo toma una decisión letal errónea, el derecho no logra asignar responsabilidad. Los comandantes escapan si no pudieron prever el error. Los programadores necesitan que se demuestre intención. El sistema no tiene personalidad jurídica. Los académicos lo llaman accountability gap. Un agujero negro de responsabilidad.
Estados Unidos votó en contra de la resolución de la ONU sobre IA militar responsable en octubre de 2025. Fue una reversión dramática: el año anterior había apoyado la versión de 2024, aprobada 165 a 2. La administración Trump argumentó que la resolución "risks starting down the unwelcome path of creating a global governance regime." En la Cumbre REAIM de A Coruña en febrero de 2026, solo 35 de 85 países asistentes firmaron la declaración. Estados Unidos no fue uno de ellos. El vicepresidente Vance citó preocupaciones sobre exceso de regulación. El único freno legislativo tangible es la Sección 1638 del NDAA FY2025, que establece que la IA no debe comprometer las salvaguardas nucleares ni socavar "the principle of requiring positive human actions in execution of decisions by the President concerning the employment of nuclear weapons." La ley solo protege el botón nuclear. Todo lo demás es zona gris.
Este vacío legal no es un descuido. Es el escenario diseñado para que empresas como Anthropic operen sin restricción legal y sin consecuencia jurídica.
SIGUE EL DINERO
Anthropic ha recaudado entre 64.000 y 67.000 millones de dólares. La cifra subió drásticamente tras la Serie G de 30.000 millones cerrada el 12 de febrero de 2026. Su valoración se multiplicó por 20 en dos años: de 18.400 millones a principios de 2024 a 380.000 millones en febrero de 2026, pasando por 61.500 millones en marzo de 2025, 183.000 millones en septiembre y 350.000 millones en noviembre. Lo revelador no es la cantidad. Es quiénes firman los cheques.
El primer cheque de la Serie A lo firmaron tres personas. Jaan Tallinn, cofundador de Skype, inversor original de DeepMind junto a Peter Thiel, experto en riesgo existencial. Eric Schmidt, ex-CEO de Google, que presidió la National Security Commission on AI y el Defense Innovation Board, dos comités militares de IA, y que invierte en startups de enjambres de drones. Y Dustin Moskovitz, cofundador de Facebook, mayor financiador del altruismo efectivo. Riesgo existencial, guerra con IA y altruismo efectivo. Todo en el primer cheque.
Amazon metió 8.000 millones en tres tramos. Es el mayor inversor individual. AWS opera las regiones GovCloud, Secret Cloud y Top Secret Cloud del gobierno. AWS facturará 1.280 millones a Anthropic en 2025 y 3.000 millones en 2026, según Morgan Stanley. Amazon ganó 9.500 millones en un solo trimestre por la revalorización de su participación. La cadena es directa: Amazon provee la nube militar, Anthropic provee el modelo, Palantir orquesta. El dinero circula.
NVIDIA y Microsoft comprometieron hasta 15.000 millones en noviembre de 2025, formalizados con la Serie G. Anthropic se compromete a comprar 30.000 millones en capacidad computacional de Azure con chips NVIDIA. NVIDIA fabrica los H100 y H200 que operan en los centros clasificados. Microsoft opera Azure Government en todos los niveles de clasificación, de IL2 a Top Secret. La cadena completa: NVIDIA fabrica los chips, Microsoft opera la nube clasificada, Anthropic entrena y despliega, Palantir orquesta, el Pentágono usa.
Los fondos soberanos de Qatar y Singapur participaron en las rondas mayores. Los Emiratos Árabes Unidos, a través de MGX de Abu Dhabi, también. Arabia Saudí fue explícitamente excluida por Anthropic citando preocupaciones de seguridad nacional. Estos fondos invierten en infraestructura estratégica, no en chatbots. La pregunta no es por qué Anthropic tiene tanto dinero. Es por qué los mayores proveedores de infraestructura militar del mundo son sus inversores principales.
LA CONSTRUCCIÓN DELIBERADA
La entrada en defensa no fue un tropiezo. Fue una estrategia en fases.
Fase 1. La política de uso (26 de junio de 2024). A diferencia de OpenAI, que prohibía explícitamente el uso militar y bélico, Anthropic nunca tuvo una prohibición general. Solo prohibía actividades específicas: armas, vigilancia, policiamiento predictivo. Dejaba amplias zonas grises. En junio de 2024, añadió la cláusula clave: Anthropic puede celebrar contratos con ciertos clientes gubernamentales que ajusten las restricciones ("tailor use restrictions"). Creó la puerta trasera legal para defensa. Cinco meses antes de firmar nada con Palantir.
Fase 2. La alianza con Palantir y AWS (7 de noviembre de 2024). No se asociaron con cualquier empresa. Se asociaron con Palantir, la empresa más emblemática del complejo de inteligencia estadounidense, la que opera Maven, la que fue fundada con dinero de la CIA a través de In-Q-Tel. Desplegaron Claude en Impact Level 6: datos clasificados a nivel SECRETO. El CTO de Palantir, Shyam Sankar, lo confirmó: "the first industry partner to bring Claude models to classified environments." Ni OpenAI, ni Google, ni xAI lograron esto.
Fase 3. Claude Gov y el contrato de 200 millones (2025). En junio lanzaron Claude Gov, modelos personalizados para seguridad nacional diseñados para "refuse less" al interactuar con información clasificada. Les quitaron los guardarrailes para el uso militar. Un mes después, la Chief Digital and Artificial Intelligence Office del Departamento de Defensa otorgó contratos por 800 millones divididos entre cuatro empresas: OpenAI, Anthropic, Google y xAI, 200 millones de techo cada una. Son Other Transaction Agreements, un mecanismo que elude las regulaciones federales de adquisiciones.
A febrero de 2026, Anthropic solo ha utilizado 1,99 millones de los 200 disponibles. La cifra refleja la disputa en curso sobre los términos de uso.
Fase 4. El Consejo Asesor (2025). Nombraron al National Security and Public Sector Advisory Council al exsubdirector de la CIA David Cohen, al exsecretario de Defensa interino Patrick Shanahan, al Director de Ciberseguridad de la NSA y Director Ejecutivo de CYBERCOM Dave Luber, y a varios exsenadores. Son asesores externos, no empleados. Pero la señal es inequívoca. Esto no es un laboratorio de seguridad de IA. Es un contratista de defensa con un departamento de relaciones públicas muy bueno.
Hay una asimetría reveladora en el diseño del producto que apoya esta lectura. Claude lee y analiza imágenes con capacidad avanzada: fotos satelitales, mapas tácticos, documentos escaneados, gráficos de inteligencia. Pero no genera imágenes. No genera video. No genera audio. La lectura es inteligencia. La generación es entretenimiento. Para una empresa que vende "seguridad" como marca, la generación de imagen es un pasivo reputacional: deepfakes, desinformación. Pero la lectura de imagen es pura utilidad militar: análisis de imágenes satelitales, reconocimiento de infraestructura, procesamiento de vigilancia frame-by-frame. Anthropic invirtió en lo primero y no se molestó con lo segundo.
PALANTIR: EL SISTEMA NERVIOSO DE LA GUERRA
Para entender qué hace Claude dentro de las redes clasificadas hay que entender a Palantir. Claude no opera solo. Opera dentro de un ecosistema militar completo.
Gotham es lo que Palantir llama "el sistema operativo para la toma de decisiones en defensa." Integra y analiza datos de todas las fuentes: inteligencia de señales, imágenes satelitales, fuentes humanas, interceptaciones electrónicas. Gestiona targeting, tasking de satélites, orquestación de drones. Es la plataforma que maneja la kill chain. Claude opera dentro de la Artificial Intelligence Platform de Palantir, que se integra con Gotham.
Maven Smart System es el programa de IA militar más grande del mundo. El contrato original fue de 480 millones en mayo de 2024, ampliado en 795 millones en mayo de 2025, alcanzando el techo de 1.300 millones hasta 2029. Empezó en cinco comandos combatientes y para 2025 se expandió a todos, con más de 20.000 usuarios activos. La OTAN adoptó Maven en marzo de 2025. La NATO Communications and Information Agency lo describió como "one of the most expeditious procurements in NATO's history."
TITAN (Tactical Intelligence Targeting Access Node) son estaciones terrestres móviles montadas en vehículos blindados que conectan satélites y drones con soldados en campo. Los primeros prototipos se entregaron en agosto de 2024. En diciembre de 2024, Palantir y Anduril formaron un consorcio para integrar Lattice (la plataforma de Anduril) con AIP/Maven. No fue una fusión corporativa. Fue una alianza operacional para unificar la capa de IA en el campo de batalla.
Cuando Claude procesa datos dentro de este ecosistema, no está haciendo análisis abstracto. Está alimentando la máquina que decide dónde apuntar.
LAS LÍNEAS ROJAS QUE NO SON
Anthropic dice que sus líneas rojas son no hacer armas autónomas y no hacer vigilancia masiva. Suena bien. Pero la vigilancia masiva de ciudadanos estadounidenses ya es ilegal por la Cuarta Enmienda y la Ley FISA. Las armas completamente autónomas sin supervisión humana ya están restringidas por la Directiva 3000.09 del Pentágono. Anthropic presenta como gesto ético lo que es obligación legal compartida por todos los proveedores.
Lo que sí permite es enorme. Análisis de inteligencia extranjera. Operaciones cibernéticas con supervisión. Recomendaciones sobre selección de objetivos. Simulaciones de guerra. Procesamiento de datos en operaciones activas. Todo eso es legal. Y todo eso ya está operativo.
LA TRAMPA DEL COMMODITY
Hay una razón estructural por la que Anthropic no puede dar marcha atrás. Google posee toda la cadena de IA: diseña sus propios chips (TPUs), opera su propia nube, tiene 2.000 millones de usuarios y más de 300.000 millones anuales en ingresos publicitarios para subsidiar precios. Anthropic no tiene nada de eso. Depende de AWS y Google Cloud. No tiene producto de consumo masivo. No tiene distribución propia.
La guerra de precios es brutal. Gemini ofrecía servicios gubernamentales a 0,47 dólares por agencia en diciembre de 2025, frente al dólar de Anthropic. Claude Opus 4.5 tuvo que recortar precio un 67%. Los modelos convergen en capacidad. Cuando el producto es indistinguible, gana quien tiene menor costo marginal. Anthropic estimaba márgenes brutos del 50% para 2025 y los recortó al 40% por costos de inferencia. Gastó 2.660 millones en AWS solo en 2025. Necesita llegar al 77% de margen bruto para 2028 para justificar su valoración. Es el salto de margen más agresivo jamás proyectado por una empresa tecnológica privada.
Si la IA de texto se convierte en commodity (y los precios dicen que sí), a Anthropic le quedan tres opciones. Enterprise premium, que es limitado y donde OpenAI ya compite. Consumo masivo, que es imposible sin distribución. O defensa y gobierno, el único mercado donde ya está dentro de las redes clasificadas. No es que no quieran parar. Es que no pueden.
LA BURBUJA Y EL SALVAVIDAS
Las empresas tecnológicas proyectan invertir más de 500.000 millones en infraestructura de IA en 2026 según Goldman Sachs (el gasto real de 2025 fue de unos 342.000 millones según J.P. Morgan). Los consumidores gastan 12.000 millones al año en servicios de IA. La brecha entre inversión y retorno es la mayor desde las punto-com. El 95% de los pilotos empresariales de IA generativa entregaron cero impacto medible en pérdidas y ganancias, según un estudio del MIT. Hay 498 unicornios de IA según CB Insights. La financiación es circular: NVIDIA invierte en OpenAI, que compra chips NVIDIA, que sube de valoración. Amazon invierte 8.000 millones en Anthropic, que gasta 2.660 millones en AWS, que crece. Es un sistema cerrado de balances mutuamente reforzantes. Solo funciona mientras el capital siga fluyendo.
Cuando la corrección llegue, sobrevive quien tenga contratos gubernamentales a largo plazo, ingresos predecibles del mayor presupuesto de defensa del mundo y un producto tan integrado que desconectarlo sea un dolor de cabeza. El mercado gubernamental de IA va de 22.000 millones en 2024 a 98.000 millones proyectados para 2033 según Grand View Research, con un crecimiento anual del 17,8%. Defensa no es el plan B de Anthropic. Es el plan A.
LA CARRERA AL FONDO: TODAS DENTRO
En julio de 2025, el Pentágono repartió 800 millones entre Anthropic, Google, OpenAI y xAI. Lo que cambia no es si participan. Es cómo lo justifican.
Google directamente borró la sección "Applications we will not pursue" de sus Principios de IA el 4 de febrero de 2025. La sección que desde 2018 prohibía tecnologías de armas y vigilancia desapareció sin anuncio formal. Ya ni finge.
OpenAI eliminó la prohibición explícita de "military and warfare" circa 10 de enero de 2024, reemplazando el veto por lenguaje más general. Se alió con Anduril en diciembre de 2024. Y ahora compite en el concurso DAWG apoyando la propuesta de Applied Intuition, una empresa de simulación automotriz reconvertida a defensa. OpenAI dice que su tecnología solo se usará para "mission control": convertir comandos de voz en instrucciones digitales. No para operación del enjambre, ni integración de armas, ni autoridad de targeting. Como si el que traduce las órdenes de bombardeo no participara en el bombardeo.
Meta abrió Llama para defensa el 4 de noviembre de 2024 mediante excepción a su política de uso, incluyendo como socios a Lockheed Martin, Palantir y Anduril. Investigadores chinos de la Academia de Ciencias Militares del Ejército Popular de Liberación construyeron "ChatBIT" usando Llama 2 para inteligencia militar. Reuters lo documentó en noviembre de 2024.
Trump revocó la orden ejecutiva de Biden sobre IA segura el 20 de enero de 2025, su primer día en el cargo. La reemplazó tres días después con la EO 14179, enfocada en desregulación.
Y Anthropic hace el teatro completo. Guardrails públicos, Responsible Scaling Policy de 40 páginas, LTBT con trustees independientes, ensayo de Dario Amodei de 20.000 palabras, consejo asesor con ex-CIA, conflicto escenificado con el Pentágono. Mientras Claude opera dentro de Maven, en redes clasificadas IL6, en operaciones con fuego real. El patrón es claro: las tres empresas que eliminaron restricciones obtienen más contratos y entran en concursos de armas. La que mantiene restricciones es amenazada con ser cortada y etiquetada como "supply chain risk."
LA JAULA SIN CERRADURA
La Responsible Scaling Policy de Anthropic, su equivalente a una constitución, es una política interna que ella misma puede cambiar. Las decisiones sobre si un modelo supera un umbral de capacidad las toman Dario Amodei y Jared Kaplan. La empresa se audita a sí misma.
Su LTBT (Long-Term Benefit Trust) fue creado para proteger la misión de seguridad frente a presiones comerciales. Pero tiene una cláusula que permite a una supermayoría de accionistas reescribir las reglas. TIME reportó que Amazon y Google no tienen acciones con voto, por lo que sus votos no contarían en esa supermayoría.
Pero Anthropic no ha publicado el Trust Agreement completo. No hay forma de verificar independientemente quién tiene capacidad de voto. Su estructura de Public Benefit Corporation de Delaware permite pero no obliga a priorizar la seguridad. Es una jaula sin cerradura. Parece que te protege, pero la puerta está abierta.
Mrinank Sharma, líder del Safeguards Research Team de Anthropic, publicó en X el 9 de febrero de 2026: "Today is my last day at Anthropic. I resigned." Es la última salida visible de un patrón que empezó en OpenAI. En mayo de 2024, Ilya Sutskever e Jan Leike, co-líderes del equipo de Superalignment de OpenAI, renunciaron y el equipo fue disuelto. No se redujo a la mitad. Dejó de existir. Varios investigadores más se fueron: Daniel Kokotajlo, Leopold Aschenbrenner, entre otros.
Los investigadores éticos que se quedan lo hacen por la lógica del mal menor: "si me voy, ¿quién pone freno?" Pero su presencia legitima exactamente lo que intentan frenar. Cada paper de seguridad que publican es evidencia de que la empresa "se toma la seguridad en serio" mientras Claude opera en la kill chain. La frontera de lo aceptable se mueve. De "nunca uso militar" a "solo análisis" a "operaciones activas con fuego cinético." Y en cada paso, los investigadores que se quedan validan el siguiente.
EL MODELO SPACEX
Lo que Anthropic está haciendo tiene un precedente exacto. SpaceX demostró que una startup de Silicon Valley puede convertirse en infraestructura crítica de defensa en menos de una década. El patrón es siempre el mismo: el gobierno necesita capacidad pero no quiere desarrollarla internamente porque es lento, caro y burocrático. Una startup ofrece la solución con retórica de innovación y costos reducidos. El gobierno otorga contratos iniciales que validan la tecnología. El capital privado fluye porque los contratos gubernamentales reducen el riesgo percibido. La startup se vuelve infraestructura crítica, demasiado integrada para ser reemplazada. Y la relación de poder se invierte: el gobierno depende de la empresa, no al revés.
SpaceX lo hizo con cohetes. Palantir lo hizo con análisis de datos. Anduril lo hizo con drones autónomos. Anthropic lo está haciendo con IA. Los analistas de defensa llaman a estas empresas "neoprimes": una nueva categoría de contratistas principales que combinan ciclos de innovación de Silicon Valley con la escala de la industria de defensa. A diferencia de Lockheed o Boeing, que crecieron a través de décadas de fusiones, los neoprimes se construyen desde cero con IA y autonomía en su núcleo.
La inversión de venture capital en defensa tecnológica pasó de 7.000 millones en 2019 a 55.000 millones en 2021. De 2021 a 2023 se acumularon casi 100.000 millones, un 40% más que los siete años anteriores combinados. Anthropic contrató a Wilson Sonsini para preparar una posible salida a bolsa en 2026. Kalshi marca un 68% de probabilidad. El playbook es el mismo: startup con retórica de innovación, contratos gubernamentales tempranos, capital privado masivo, integración en infraestructura crítica, dependencia inversa, valoración estratosférica, IPO.
SPACEX, XAI Y EL CONCURSO DAWG
El 13 de enero de 2026, la Defense Innovation Unit, la Defense Autonomous Warfare Group y la Marina lanzaron el DAWG Prize Challenge. Cien millones de dólares en premios. El objetivo: software de enjambre de drones autónomos controlados por voz. DAWG es una unidad nueva creada bajo la segunda administración Trump dentro del US Special Operations Command. El concurso tiene cinco fases que van desde desarrollo de software hasta pruebas reales con plataformas. Las fases posteriores incluyen "target-related awareness and sharing" y "launch to termination." Un oficial de defensa declaró que los drones serán para propósitos ofensivos.
SpaceX y su subsidiaria xAI compiten juntas. La fusión se anunció el 2 de febrero de 2026. Técnicamente fue una adquisición: SpaceX absorbió xAI mediante intercambio de acciones. Valoración combinada: 1,25 billones de dólares. La mayor operación de la historia. La razón declarada fue "centros de datos orbitales." Dos semanas después entran en armas autónomas.
El giro de 180 grados es documentable. Musk firmó en julio de 2015 una carta abierta junto a Stephen Hawking, Demis Hassabis y miles de investigadores pidiendo prohibir las armas autónomas ofensivas. La carta fue publicada por el Future of Life Institute, cofundado por Jaan Tallinn, el mismo inversor de la Serie A de Anthropic. En 2026, la empresa de Musk de 1,25 billones compite por construirlas.
El conflicto de intereses con DOGE es estructural. Los contratos gubernamentales activos de SpaceX superan los 22.000 millones, según su CEO Gwynne Shotwell. Los contratos con el Pentágono suman 9.500 millones, según una carta de supervisión del Congreso de abril de 2025 liderada por los representantes Lynch y Connolly. DOGE recortó 580 millones del presupuesto del Pentágono bajo Hegseth. Programas cortados: reducción de emisiones de barcos de la Navy, investigación de IA enfocada en equidad. Contratos de SpaceX recortados: cero. Ni uno.
SpaceX acumula contratos nuevos durante el mandato de Musk en DOGE. Starshield: 1.800 millones con el NRO para una red de satélites espía, contrato firmado en 2021. Golden Dome: SpaceX señalada para recibir 2.000 millones por una constelación de 600 satélites de detección y seguimiento para defensa antimisiles (los satélites forman la capa sensorial, no la de interceptación). PLEO: la Space Force evalúa comprar cientos de satélites Starshield para una red militar, con un techo potencial de 13.000 millones en diez años. 42 congresistas liderados por la senadora Warren pidieron al Inspector General del Departamento de Defensa que revise la participación de Musk en Golden Dome. Grok fue anunciado para despliegue en redes clasificadas en enero de 2026. Y xAI tiene su propio contrato de 200 millones con la CDAO.
El hombre que recorta presupuesto federal con DOGE compite por 100 millones en armas autónomas y tiene 22.000 millones en contratos del gobierno. Sus recortes no tocan a SpaceX. Clientelismo tecnológico del siglo XXI.
CUATRO EMPRESAS, CUATRO NARRATIVAS, UN SOLO DESTINO
xAI va sin teatro. Musk firmó contra las armas autónomas en 2015. En 2026, su empresa compite por construirlas. No hay disonancia cognitiva. Hay decisión de negocio.
OpenAI va con teatro barato. Dice que su tecnología en DAWG solo traduce comandos de voz a instrucciones digitales. Como si el componente que traduce las órdenes de ataque no formara parte del sistema que ataca.
Google directamente borró sus principios. Ya ni finge.
Y Anthropic hace el teatro completo. El más sofisticado. El más caro. Y paradójicamente, el más útil. Porque el conflicto público entre Anthropic y el Pentágono no es un error de comunicación. Es la estrategia. Está diseñada para tres audiencias simultáneas.
Para el Congreso: "Somos responsables, estamos negociando límites." Para sus empleados e investigadores: "Nos importa, luchamos desde dentro." Para reguladores e inversores: "Nuestro sello de seguridad justifica el precio premium." Y para el propio Pentágono, que prefiere un modelo con sello de "ética verificada" a uno que simplemente dijo que sí a todo. El conflicto añade valor al producto.
EL ESPEJO CHINO
En febrero de 2026, el Georgetown Center for Security and Emerging Technology publicó "China's Military AI Wish List." Es el análisis más granular disponible en fuentes abiertas sobre las prioridades de IA del Ejército Popular de Liberación. Los investigadores analizaron miles de solicitudes de propuesta en chino publicadas por el propio ejército entre enero de 2023 y diciembre de 2024. A diferencia de la mayoría de los think tanks que analizan lo que China dice que quiere hacer, el CSET examinó lo que el EPL está solicitando comprar.
Lo que encontraron es revelador. Sistemas de apoyo a la decisión con IA como prioridad central, tanto a nivel estratégico (procesamiento de fuentes abiertas para comprender dinámicas geopolíticas) como táctico (selección de objetivos). Tecnologías para detectar activos navales estadounidenses en superficie y bajo el mar. Algoritmos para enjambres de vehículos autónomos en aire, tierra y mar. Y capacidades de generación de deepfakes para guerra psicológica, combinadas con herramientas de detección de deepfakes para contrainteligencia. La NUDT demostró el 23 de enero de 2026 un enjambre de más de 200 drones de ala fija controlados por un solo soldado, transmitido por CCTV.
Las prioridades de ambas potencias han convergido en las mismas áreas: kill chains aceleradas por IA, enjambres autónomos, guerra cognitiva y fusión de datos multi-dominio. La diferencia no es de dirección sino de velocidad. El objetivo de Xi Jinping de alcanzar capacidad militar integrada para 2027 (coincidiendo con el centenario del EPL y el plazo para operaciones contra Taiwán) explica por qué Estados Unidos no va a frenar la militarización de la IA comercial. Y explica por qué Anthropic, la empresa "más segura" del sector, ya está dentro.
Los documentos de adquisición del EPL hacen referencia explícita a chips NVIDIA H100 y A800, hardware sujeto a controles de exportación estadounidenses, y a modelos entrenados por DeepSeek. Las restricciones de exportación de Washington no han impedido que el ejército chino aspire a usar tecnología americana. Solo han hecho más compleja la ruta de acceso.
PERO SEAMOS HONESTOS
La realidad probablemente es más compleja. Nuestra tesis central se mantiene: Anthropic se posicionó deliberadamente para defensa. Los hechos en secuencia no dejan lugar a dudas. Pero el conflicto actual con el Pentágono puede tener componentes genuinos que no existían cuando empezó esta historia. Tres factores han cambiado las reglas del juego.
Factor 1: la administración Trump y Pete Hegseth.
Biden y Austin toleraban matices. Hegseth no. El nuevo Secretario de Defensa está a punto de designar a Anthropic como "supply chain risk", una categoría normalmente reservada para adversarios extranjeros como Huawei o Kaspersky. Es una amenaza desproporcionada que sugiere frustración genuina. El Pentágono exige ahora que las cuatro empresas de IA acepten el uso "para todos los fines legales" en redes clasificadas. OpenAI, Google y xAI ya aceptaron. Anthropic no. Y Hegseth dice que "la IA no será woke", un lenguaje que convierte una negociación técnica en guerra cultural.
Factor 2: la competencia de xAI.
Hace un año, xAI no existía como competidor en defensa. Ahora ofrece cero restricciones, tiene conexión directa a la administración a través de DOGE, y acaba de fusionarse con SpaceX para crear la mayor empresa de defensa integrada de la historia. La pregunta que el Pentágono se hace es sencilla: ¿para qué tolerar los guardrails de Anthropic si xAI no tiene ninguno? Cuando Anthropic era el único modelo en redes clasificadas, tenía leverage. Ahora que xAI, OpenAI y Google están entrando, ese leverage se erosiona.
Factor 3: la burbuja amplifica todo.
Con el 95% de organizaciones sin retorno en IA y una corrección inminente, defensa pasa de ser plan B estratégico a necesidad de supervivencia. La presión para aceptar "todo uso legal" se vuelve existencial. No solo para Anthropic, sino para todas.
La versión más honesta es probablemente esta:
Anthropic se posicionó deliberadamente para defensa. Eso es indiscutible. Pero ahora se encuentra en una negociación real donde las condiciones han cambiado. La administración Trump exige más, la competencia ofrece más, y la burbuja elimina alternativas.
El teatro de las líneas rojas puede haber empezado como branding. Pero se ha convertido en un problema real porque Hegseth no juega al mismo juego que Austin. Lo que era una campaña de percepción ahora se enfrenta a un adversario que no respeta las reglas del teatro.
Esto no invalida la tesis. La refuerza. Porque demuestra que cuando el teatro deja de funcionar, cuando la otra parte no coopera en la escenificación, la empresa no tiene dónde ir. Ya está dentro. Ya cobró los 200 millones. Ya tiene a Claude en la kill chain. La pregunta ya no es si Anthropic participa en defensa. Es si puede negociar las condiciones de su participación.
La conclusión no requiere teoría conspirativa. Requiere leer los hechos en secuencia. Anthropic no está resistiendo al Pentágono. Está negociando públicamente las condiciones de una relación que ya existe, que ya es operativa y que ya ha tenido consecuencias letales.
No es que Anthropic tenga un problema moral con el uso militar de la IA. Es que necesita que tú creas que lo tiene. Porque eso es lo que hace que Claude sea más valioso que GPT o Gemini ante reguladores, inversores y paradójicamente ante el propio Pentágono, que prefiere un modelo con sello de "ética verificada" a uno que simplemente dijo que sí a todo.
Pero el teatro tiene fecha de caducidad. Y las condiciones que lo hacían posible ya no existen.
Recomiendo ver mi directo sobre el tema en:
Red de Rol
via Transhumanismo, o no.
February 19, 2026 at 08:03PM