Logo

Anthropic vs. el Pentágono: la disputa por el uso militar de la inteligencia artificial explicada

Por Gustavo Arias | 17 de Mar. 2026 | 4:45 am

Si tiene solo unos segundos, lea estas líneas:

  • El Departamento de Defensa de Estados Unidos vetó a la empresa de IA Anthropic y la calificó como "riesgo para la cadena de suministro" después de que se negara a permitir el uso irrestricto de su tecnología en operaciones militares.

  • La decisión se formalizó con una orden del presidente Donald Trump que prohíbe utilizar sus sistemas en agencias federales, tras el rechazo de la empresa —dirigida por Dario Amodei— a eliminar cláusulas que vetan la vigilancia masiva y el desarrollo de armas autónomas.

  • El choque refleja un debate creciente sobre la militarización de la inteligencia artificial: mientras el Pentágono busca integrar estos sistemas en el campo de batalla, empresas tecnológicas y críticos advierten sobre los riesgos de delegar decisiones letales y de vigilancia a algoritmos.


El Departamento de Defensa de Estados Unidos vetó a la empresa de inteligencia artificial Anthropic y la catalogó como un "riesgo para la cadena de suministro", después de que la compañía se negara a permitir que su tecnología se utilice sin restricción en operaciones militares.

La decisión culminó con una orden del presidente Donald Trump que prohíbe el uso de sus sistemas en todas las agencias federales y abrió un intenso debate sobre los límites éticos de la inteligencia artificial, la influencia de las empresas tecnológicas en la política de defensa y el futuro de la guerra impulsada por algoritmos.

La ruptura se produjo después de que la compañía rechazara eliminar cláusulas éticas que prohíben el uso de sus sistemas para la vigilancia masiva de ciudadanos estadounidenses y para el desarrollo de armas letales totalmente autónomas. Para el Pentágono, esas restricciones resultan incompatibles con sus necesidades operativas. Para la empresa, representan una línea roja frente a los riesgos de una tecnología aún poco regulada.

El origen del conflicto de Anthropic: líneas rojas y ultimátums

Anthropic es una empresa con sede en San Francisco fundada en 2021 por antiguos directivos de OpenAI (empresa atrás de ChatGPT). Desde su creación, la compañía se presenta como un laboratorio dedicado a desarrollar inteligencia artificial "segura y ética".

Su producto principal es Claude, un modelo de lenguaje capaz de procesar grandes volúmenes de datos, analizar imágenes complejas y generar código informático con gran rapidez.

El conflicto estalló cuando el Departamento de Defensa de Estados Unidos exigió renegociar un contrato de $200 millones para utilizar esta tecnología con "cualquier propósito legal". El director ejecutivo de la empresa, Dario Amodei, rechazó la solicitud y defendió mantener dos límites claros: que la IA no se utilice para vigilancia masiva, ni para alimentar armas autónomas capaces de seleccionar objetivos sin intervención humana.

El secretario de Defensa, Pete Hegseth, respondió con un ultimátum. Según su posición, las Fuerzas Armadas no pueden aceptar que una empresa privada imponga restricciones ideológicas a sus operaciones.

Tras el fracaso de las negociaciones, el Pentágono clasificó a la empresa como "riesgo para la cadena de suministro". Esa etiqueta, que normalmente se aplica a compañías vinculadas a potencias rivales, impide que contratistas militares trabajen con ella. En respuesta, la empresa presentó una demanda contra el gobierno estadounidense por lo que considera represalias ilegales.

El Pentágono y la nueva guerra impulsada por algoritmos

El ejército estadounidense no utiliza la inteligencia artificial solo para tareas administrativas. El objetivo es integrar estos sistemas directamente en el campo de batalla.

El gobierno busca construir una fuerza militar basada en el procesamiento masivo de datos, bajo la premisa de que la velocidad para analizar información será decisiva en los conflictos del futuro.

El modelo Claude fue una de las primeras IA utilizadas dentro de redes clasificadas del Pentágono. La integración se realizó a través del sistema Maven Smart System de la empresa contratista Palantir Technologies.

Reportes internos, revelados por medios estadounidenses, señalan que la tecnología ya se utilizó en escenarios de alto impacto, como la planificación de operaciones militares complejas y campañas de bombardeo recientes en Medio Oriente. El sistema analizó inteligencia satelital, evaluó objetivos potenciales y generó coordenadas en tiempo real, reduciendo procesos que antes requerían semanas de trabajo.

Para los estrategas militares, la IA funciona como un analista permanente capaz de conectar información dispersa en enormes bases de datos. Sin embargo, el creciente peso de estos sistemas también genera inquietud dentro de la industria tecnológica, que teme una dependencia excesiva de decisiones automatizadas.

Los dilemas éticos que marca Anthropic

El uso militar de la inteligencia artificial plantea dilemas sin precedentes. El primero es la posibilidad de crear armas totalmente autónomas, conocidas en el debate público como "robots asesinos".

Aunque el Pentágono insiste en que siempre habrá un humano que tome la decisión final de disparar, los críticos advierten sobre el llamado "sesgo de automatización": la tendencia humana a confiar en las recomendaciones de una máquina, especialmente bajo presión.

Si una IA identifica erróneamente un objetivo civil como militar, el error puede tener consecuencias devastadoras.

El segundo dilema gira en torno a la vigilancia masiva. Las herramientas de IA permiten analizar grandes volúmenes de datos disponibles comercialmente, desde historiales de navegación hasta registros financieros o datos de geolocalización.

Para Anthropic, permitir que el ejército utilice estos sistemas para analizar información de ciudadanos estadounidenses sin supervisión judicial equivale a instaurar un sistema de vigilancia masiva incompatible con los principios democráticos.

El Pentágono rechaza esa interpretación. Sus responsables sostienen que las leyes y protocolos militares existentes bastan para regular el uso de la inteligencia artificial en defensa.

Silicon Valley frente a la militarización tecnológica

La disputa también expone divisiones profundas dentro de la industria tecnológica.

Tras el veto a Anthropic, su principal rival, OpenAI, firmó rápidamente un acuerdo para trabajar con el ejército estadounidense.

El director de la compañía, Sam Altman, aseguró que el contrato incluye salvaguardas técnicas contra el uso de la tecnología en vigilancia masiva o armas autónomas. Aun así, la decisión generó críticas internas y provocó la renuncia de algunos empleados por razones éticas.

Otras compañías tecnológicas, como Microsoft y xAI —fundada por Elon Musk— también firmaron contratos de defensa o flexibilizaron sus políticas internas para colaborar con el gobierno estadounidense.

La dinámica revela una realidad incómoda: si una empresa decide imponer límites éticos a sus herramientas, sus competidores pueden ocupar rápidamente su lugar en contratos multimillonarios.

La carrera global por la supremacía en inteligencia artificial

Detrás de esta disputa tecnológica late una preocupación geopolítica mayor. Estados Unidos considera que enfrenta una carrera estratégica contra potencias rivales, en particular contra China, por el liderazgo en inteligencia artificial.

Los estrategas militares creen que los futuros conflictos dependerán de la capacidad de observar, analizar y reaccionar más rápido que el adversario.

A diferencia de las empresas estadounidenses, muchas compañías tecnológicas chinas están obligadas por ley a colaborar con el Estado y compartir sus desarrollos. Desde la perspectiva del Pentágono, cualquier restricción ética impuesta por empresas privadas puede traducirse en una desventaja estratégica frente a ese modelo.

Comentarios
0 comentarios