Tras un ataque mortal, estalla una lucha de poder entre IA en el Pentágono.
Una de las principales empresas de inteligencia artificial de EE. UU. lucha por seguir trabajando con el Ejército.
El secretario de Estado, Marco Rubio, observa mientras el secretario de Guerra, Pete Hegseth, habla con la prensa. (Foto Prensa Libre: Sarah L. Voisin/The Washington Post)
El modelo Claude de Anthropic es uno de los pocos sistemas de inteligencia artificial (IA) líderes que el Pentágono está utilizando para desarrollar rápidamente sus capacidades en materia de ciberguerra, mejorar el rendimiento de sus sistemas de armas autónomos y aumentar la eficiencia de su personal. El equipo del secretario de Guerra, Pete Hegseth, ha insistido en las últimas semanas en que las fuerzas armadas deben tener la libertad de usar estas potentes herramientas como mejor les parezca. Las autoridades afirman que otras empresas líderes en IA han accedido a esta demanda.
OpenAI, creador de ChatGPT, Google y xAI, de Elon Musk, han acordado permitir que el Pentágono utilice sus sistemas para "todos los fines legales" en redes no clasificadas, según declaró un funcionario de Defensa, y trabajan en acuerdos para redes clasificadas —The Washington Post tiene un acuerdo de contenido con OpenAI—. Las empresas no respondieron a las solicitudes de comentarios. Pero Anthropic, que ha buscado posicionarse como la empresa más preocupada por la seguridad, tiene principios corporativos que podrían impedirle dar carta blanca al Pentágono.
A diferencia de muchas armas tradicionales, los potentes sistemas de IA pueden desplegarse de muchas maneras no previstas por sus diseñadores, y la disputa ha suscitado dudas sobre quién debería tener la última palabra en cuanto a su uso por parte del Ejército. Si bien Anthropic no ha especificado cuáles son sus reservas sobre las exigencias del Pentágono, su director ejecutivo ha advertido recientemente de los peligros de las armas autónomas y la vigilancia masiva basada en IA. En una declaración a The Washington Post, Anthropic dijo que está “comprometido a utilizar inteligencia artificial de vanguardia en apoyo de la seguridad nacional de Estados Unidos”.
“Claude se utiliza para una amplia variedad de casos de inteligencia en todo el Gobierno, incluido el Departamento de Defensa —Guerra—, de acuerdo con nuestra Política de Uso”, declaró. “Estamos manteniendo conversaciones productivas, de buena fe, con el Departamento de Defensa sobre cómo continuar con este trabajo y resolver estos complejos problemas”. Hasta hace pocas semanas, Anthropic se encontraba en una posición envidiable, con un contrato de US$200 millones y su tecnología, excepcionalmente aprobada para su uso en las redes clasificadas del Pentágono.
Esto empezó a cambiar rápidamente, según afirman funcionarios de la administración de Trump, tras la respuesta de Anthropic a su reciente uso por parte del Pentágono en la operación contra Maduro. La tecnología desarrollada por la firma de defensa Palantir y Claude, de Anthropic, se utilizó en los preparativos del asalto del 3 de enero, según una persona familiarizada con el asalto, quien habló bajo condición de anonimato para compartir detalles confidenciales sobre la operación. Durante el asalto, decenas de guardias de seguridad de Maduro y militares venezolanos fueron asesinados. Tras el ataque, según un alto funcionario de Defensa, un ejecutivo de Anthropic conversó sobre al respecto con un colega de Palantir, y le preguntó si se habían utilizado las herramientas de Anthropic.
El ejecutivo de Palantir transmitió la pregunta al Departamento de Guerra y afirmó que esto implicaba que Anthropic podría haber desaprobado el uso de Claude, según el funcionario. Esto llevó a los líderes del Departamento a cuestionar si se podía confiar plenamente en la empresa. “Expresaron su preocupación por la redada de Maduro, que es un gran problema para el Departamento”, dijo un funcionario de la administración de Trump. Sin embargo, Anthropic indicó que no había discutido ninguna operación específica con el Departamento de Guerra ni “había discutido esto con, o expresado preocupaciones a ningún socio de la industria fuera de las discusiones de rutina sobre asuntos estrictamente técnicos”.
La disputa parece ser más profunda que cualquier duda sobre el ataque a Venezuela. Hegseth considera que el dominio de la IA es una capacidad indispensable, y sus directivas han presionado al Ejército para que actúe con rapidez y adopte esta tecnología. En enero, afirmó que "la velocidad es clave" en un futuro impulsado por la IA, y ordenó al Pentágono que desbloqueara datos para que la IA los entrenara, a la vez que presiona al Departamento para que pase de la "planificación de campañas a la ejecución en cadena". “Debemos abordar las compensaciones de riesgos, las 'acciones' y otras cuestiones subjetivas como si estuviéramos en guerra”, escribió Hegseth en la directiva de enero del 2026.
Poco más de dos semanas después de que se diera a conocer la directiva de Hegseth, Darío Amodei, cofundador y director ejecutivo de Anthropic, publicó un ensayo que esboza una posible distopía en la que la IA empodera a una nueva generación de armas imparables y herramientas de vigilancia. “Deberíamos preocuparnos por ellos en manos de autocracias, pero también deberíamos preocuparnos de que, debido a que son tan poderosos y tienen tan poca responsabilidad, existe un riesgo mucho mayor de que los gobiernos democráticos los vuelvan contra su propio pueblo para tomar el poder”, escribió Amodei sobre los enjambres de drones habilitados con IA.
Es probable que aún falten muchos años para que se desarrolle un armamento de ese tipo, pero no llegar a un acuerdo podría tener rápidamente consecuencias de gran alcance para la empresa. El Pentágono ha sugerido que podría calificarse como un "riesgo para la cadena de suministro", algo que no solo afectaría a Anthropic, sino a cualquier empresa que utilice su IA. Esta designación se ha dirigido tradicionalmente a empresas chinas y rusas. "Podríamos exigir que todos nuestros proveedores y contratistas certifiquen que no utilizan ningún modelo antrópico", señaló un funcionario de defensa a The Post.
En el pasado, las empresas han podido incluir cláusulas en sus contratos con el Pentágono que las indemnizan de toda responsabilidad si su tecnología se utiliza de manera ilegal y les permiten obligar al Gobierno a utilizar la tecnología solo para fines legales. Pero puede que no sea razonable que las empresas que contratan con el Pentágono intenten establecer limitaciones sobre cómo se puede aplicar su tecnología en rápida evolución, dijo Frank Kendall, quien se desempeñó como secretario de la Fuerza Aérea durante la administración Biden y supervisó el desarrollo de una flota de aviones de guerra autónomos. "La función del ejército es la aplicación de la violencia, y si le vas a dar algo al Departamento de Defensa, probablemente será utilizado para ayudar a matar gente", advirtió Kendall.
El gobierno ha sostenido que sus acciones —que también incluyen ataques estadounidenses contra presuntos barcos narcotraficantes en el Caribe, el despliegue de tropas en servicio activo en territorio estadounidense y su decisión de usar fuerza letal en Minneapolis, donde murieron dos ciudadanos estadounidenses— han sido lícitas. Sin embargo, el gobierno de Trump también ha despedido a muchos de los abogados militares y del Departamento de Justicia independientes que habrían tenido la capacidad de impugnar la legalidad de dichos usos. "Si le preocupa que esta administración haga cosas ilegales, simplemente no debería trabajar con ellos", dijo Kendall.
"La función del ejército es la aplicación de la violencia, y si le vas a dar algo al Departamento de Defensa, probablemente será utilizado para ayudar a matar gente.
El Pentágono lleva años integrando IA en algunos de sus sistemas de armas, pero nunca al ritmo actual. Esto se debe en parte a su competencia con China y a la evolución de amenazas como los misiles hipersónicos, donde la capacidad de reacción humana puede ser insuficiente. Pero también se ha puesto énfasis en asegurar que el aprendizaje impredecible de la IA pueda ser controlado. En la Base Aérea Edwards, en 2024, la Fuerza Aérea voló su primer avión de combate con IA en combates aéreos. El avión, un F-16 que transportaba la IA en una computadora en la parte trasera, ya superaba a los pilotos de pruebas de élite al reducir milisegundos en giros y maniobras.
Incluso entonces, había un humano involucrado, un piloto de pruebas dentro del avión que podía desactivar la IA según fuera necesario, y la IA se mantenía en un sistema sin conexión a ninguna red. A medida que la Fuerza Aérea avanzaba con la IA, afirmó que la prioridad era asegurar que los datos que obtenía estuvieran limpios para evitar riesgos de seguridad. En el 2023, la administración Biden instruyó al Pentágono que cualquier uso de IA en sistemas requeriría niveles de revisión, mecanismos antimanipulación y salvaguardas para garantizar que los humanos mantuvieran la decisión sobre el uso de la fuerza.
Esa política todavía está vigente, pero será revisada según sea necesario, dijo el funcionario de la administración a The Post.



