31 de marzo de 2026
La IA empieza a ocupar un lugar central en el terreno militar. La reciente disputa entre Anthropic y el Pentágono reactivó el debate sobre los riesgos y dilemas éticos de entregar el control de armas letales a estas herramientas.

Líbano. Bombardeos sobre Beirut. El uso bélico de la inteligencia artificial, debatido en el conflicto en Medio Oriente.
Foto: Getty Images
Uno de los principales incentivos para el desarrollo tecnológico a lo largo de la historia ha sido el uso militar. El ejemplo paradigmático es el Proyecto Manhattan, que durante la Segunda Guerra Mundial reunió en los Estados Unidos a los mejores cerebros y muchísimo dinero para desarrollar en solo tres años una bomba atómica antes de que lo hiciera, como se temía, el régimen de Adolf Hitler. El conocimiento desarrollado con apuro permitió luego, en tiempos de paz, aprovechar la energía nuclear.
En la actualidad, la tecnología que podría compararse con ese ambicioso proyecto es la IA generativa: países como Estados Unidos y China, sobre todo, compiten por desarrollar sus modelos, a los que consideran clave para definir la disputa geopolítica entre ambas potencias. Esta tecnología podría incidir en cuestiones de distinto tipo, desde comerciales o científicas hasta logísticas o espaciales. Pero el área en el que esta herramienta podría resultar más determinante ‒y la más discutida‒ es la militar.
El uso bélico de la IA generativa se debate desde hace tiempo: un caso que avivó la discusión y la instaló en un primer plano internacional ocurrió en 2024, durante el contraataque de Israel a Palestina. Durante varios días prácticamente se delegó en una IA llamada Lavender el bombardeo sobre presuntos blancos terroristas, a pesar del margen de error estadístico de esta herramienta.
Ahora la discusión se reactivó en los Estados Unidos por la negativa de la empresa Anthropic a que su herramienta de IA generativa tenga control total sobre armas letales o sea usada para tareas de vigilancia interior. La disputa entre la empresa desarrolladora de Claude y el Pentágono escaló y abrió un debate necesario sobre el uso militar de las IA.
Una empresa moral
Darío Amodei es el CEO de Anthropic, una empresa que fundó luego de abandonar OpenAI por discrepar con su CEO, Sam Altman. Desde el punto de vista de Amodei, la urgencia económica no daba tiempo para testear los potenciales usos peligrosos de las herramientas. Por eso, en 2021 decidió armar su propia compañía.
Anthropic no solo parecía la cara más «ética» de Silicon Valley, sino que lanzó una de las herramientas mejor valoradas del mercado de IA generativa: Claude. Gracias a su posterior asociación con Amazon, que le prestó infraestructura, dinero y contactos, la nueva empresa pudo conseguir algunos anhelados contratos con el Estado norteamericano, incluido el aparato militar, que le permitieron importantes ingresos.
El dinero fue bienvenido, pero generó una fuerte tensión con el discurso ético de Amodei, quien se mostró independiente de su nuevo cliente, por ejemplo, criticando la política de volver a exportar chips a China. Sobre el tema específico de la IA generativa, denunció violaciones a acuerdos sobre el uso de una versión de Claude retocada para uso militar que fue utilizada en el secuestro de Nicolás Maduro. Amodei dio a conocer públicamente sus opiniones frente a un Gobierno al que no le gusta en absoluto la disidencia.
El diálogo terminó de quebrarse el 26 de febrero cuando el CEO de Anthropic publicó una carta abierta en la que reconocía que era el Departamento de Guerra, «no empresas privadas, quienes toman las decisiones militares», pero que «en algunos pocos casos, la IA puede minar, más que defender, valores democráticos. Algunos usos también están fuera de los límites de lo que la tecnología de hoy puede hacer de manera segura y confiable».
Al día siguiente de esta publicación se vencía el plazo para llegar a un acuerdo con el Pentágono que exigía, según Amodei, que se quitaran todas las salvaguardas que impedían a la IA ser usada para automatizar totalmente armas letales o usarlas para la vigilancia interna. Como era de esperar, la publicación fue leída como una declaración de guerra por el propio presidente Donald Trump quien respondió en su red social Truth Social con un extenso posteo: «Los locos izquierdistas de Anthropic acaban de cometer un ERROR DESASTROSO intentando torcer EL BRAZO del Departamento de Guerra». En el mismo tono escribieron otros funcionarios.
Desde el Pentágono aseguraron que su plan no era hacer ninguna de las tareas que denunciaba Amodei, sino que simplemente querían disponer de toda la capacidad de la herramienta en caso de urgencia. Luego, el Gobierno de Estados Unidos declaró a Anthropic como un «riesgo para la cadena de suministro», prohibió sus herramientas en el Estado y también contratar a quienes tuvieran vínculos con ellas. El anuncio funcionó como una gigantesca advertencia para una industria a la que Trump viene protegiendo como a pocas.
Empleados de distintas empresas de IA apoyaron la posición de Amodei y convocaron a otros empresarios a imitarlo. Algunos de estos líderes, como Sam Altman, hablaron en favor de Anthropic, pero pronto se supo que habían firmado un contrato suficientemente ambiguo con el Pentágono como para que este pudiera hacer lo que quisiera con sus herramientas.
Urgido, el mismo Amodei pidió reabrir las negociaciones, sin suerte, por lo que presentó una demanda contra el Gobierno de los Estados Unidos para que se revierta su condición de «riesgo para la seguridad nacional». Aun si consigue un fallo favorable, su relación con los clientes más grandes quedará seriamente dañada, al menos hasta que haya un cambio de signo político en el Gobierno estadounidense.
Dinero y locura
La inversión en IA generativa que se está realizando en los Estados Unidos es tan desmedida que cada vez más especialistas señalan que va a ser imposible recuperarla. Por eso, cualquier contrato es valorado enormemente, no tanto por los ingresos que propicia (que no llegan a modificar una ecuación muy deficitaria), sino porque ayuda a generar un aura de sostenibilidad económica. Por eso, no resulta extraño que OpenAI y Google se hayan alineado rápidamente para conseguir los contratos del Estado que Anthropic acaba de perder. Negocios son los negocios.
Más allá de la problemática cuestión comercial, lo más preocupante es que el Gobierno de los Estados Unidos considere una buena idea delegar el control total de armas de guerra en IA generativas. Tal como explicó Amodei, estas no dan garantías suficientes para tareas que requieren certezas.
Es que, pese a lo engañoso del nombre, la inteligencia artificial no es inteligencia, sino estadística. Si bien resulta sorprendente lo que puede hacer, el mecanismo probabilístico sobre el que se construye también define sus límites. Por eso se repiten las historias en que distintas IA cometen lo que resulta un error evidente para cualquier humano. Al ser herramientas estadísticas que se basan en miles de millones de ejemplos, carecen de un criterio propio y pueden generar respuestas poco sensatas en áreas para las que no tienen suficientes datos, estos quedaron viejos o simplemente arrojan algo «posible» pero improbable simplemente porque los datos con los que cuentan avalan esa posibilidad.
Este límite puede no ser tan grave en casos de una tarea escolar o una receta de cocina, pero cuando se trata de un arma letal, puede costar miles de vidas. De hecho, se sabe que la IA Claude fue utilizada en el ataque a Irán pese a la prohibición publicada por Trump horas antes: durante ese ataque, según denuncia Irán, se bombardeó una escuela en la que murieron más de 170 niñas. El caso está en discusión, pero no debería descontarse un «error estadístico» o que estuviera basado en información vieja, como indican algunas investigaciones.
La disputa entre Anthropic y el Gobierno de los Estados Unidos es excepcional para ilustrar la relación simbiótica entre una industria que necesita contratos y desregulación, por un lado, y un Gobierno que busca automatizar decisiones con IA para conseguir un aura de neutralidad ideológica que reduzca las críticas y disidencias internas.
