Blog de Marketing Digital

IA en la guerra: ¿Quién debe apretar el gatillo, el algoritmo o el Estado?

Escrito por Leonardo Burgos | 3/4/26 1:00 PM

La reciente ruptura entre Anthropic y la administración de Donald Trump ha marcado un hito histórico en la relación entre Silicon Valley y el Pentágono. Por primera vez, una empresa de inteligencia artificial de primer nivel ha preferido el "exilio" comercial y posibles represalias legales antes que ceder el control total de sus modelos para fines de vigilancia masiva y armamento autónomo.

Este enfrentamiento no es solo una disputa contractual de 200 millones de dólares; es el epicentro de un debate ético que definirá la seguridad global en el siglo XXI.

1. El conflicto

La negativa de Dario Amodei (CEO de Anthropic) a permitir que su modelo Claude se utilice sin restricciones en el campo militar subraya un temor creciente: la IA no es una herramienta convencional. A diferencia de un rifle o un tanque, la IA posee una capacidad de escala y toma de decisiones que, según Anthropic, está "fuera de los límites de lo que la tecnología actual puede hacer de forma segura".

La respuesta del gobierno ha sido tajante, calificando a la empresa como un "riesgo para la cadena de suministro", una etiqueta usualmente reservada para entidades como Huawei o empresas vinculadas a adversarios extranjeros.“Ordeno a TODAS las agencias federales del Gobierno de Estados Unidos que CESE INMEDIATAMENTE todo uso de la tecnología de Anthropic. ¡No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos!”, escribió el mandatario en su red Truth Social.

Trump indicó que agencias como el Departamento de Guerra tendrán un periodo de transición de seis meses para dejar de usar la tecnología de la compañía de IA.

“Más vale que Anthropic colabore durante este periodo de transición o utilizaré todo el poder de la presidencia para obligarlos a cumplir, con las importantes consecuencias civiles y penales que ello conllevaría”, amenazó.

"Estas amenazas no cambian nuestra posición: no podemos, en conciencia, acceder a su solicitud", dijo en un comunicado Dario Amodei, director ejecutivo de Anthropic.

Amodei dijo que los modelos de Anthropic han sido desplegados por el Pentágono y las agencias de inteligencia para defender al país, pero que la compañía traza una línea ética respecto a su uso para la vigilancia masiva de ciudadanos estadounidenses y para armas totalmente autónomas.

"El uso de estos sistemas para la vigilancia doméstica masiva es incompatible con los valores democráticos", afirmó el ejecutivo.

Y añadió que los sistemas de IA de vanguardia aún no son lo bastante fiables como para confiarles el control de armas letales sin que haya un ser humano con el control último.

OpenAI cierra un acuerdo con el Pentágono horas después de que Trump ordenara romper con Anthropic

OpenAI ha sellado un contrato multimillonario con el Departamento de Defensa para integrar su inteligencia artificial en redes militares clasificadas. El anuncio surge apenas horas después de que la administración Trump rompiera lazos con Anthropic, lo que ha provocado un terremoto en el sector tecnológico.

La respuesta de los usuarios no se hizo esperar: bajo la consigna #CancelaChatGPT, miles de personas han dado de baja sus suscripciones premium y eliminado la aplicación.

Este boicot masivo subraya la profunda preocupación ética de la sociedad ante el uso bélico de la IA y el giro de la compañía hacia lucrativos contratos gubernamentales.

 

2. La IA ya está en el campo de batalla

El caso de Anthropic no es un incidente aislado. La integración de la IA en la guerra ha avanzado a pasos agigantados en otros frentes, a menudo con menos resistencia ética:

  • Proyecto Lavender (Israel): Informes recientes han revelado el uso de sistemas de IA por parte de las FDI para identificar a miles de objetivos humanos en Gaza. Este sistema, según investigaciones del medio independiente +972 Magazine y The Guardian, permitía un margen de error y una velocidad de ataque que plantean serias dudas sobre la distinción y proporcionalidad bajo el derecho internacional humanitario.

  • Proyecto Maven (Google/Pentágono): En 2018, miles de empleados de Google protestaron contra este contrato destinado a analizar imágenes de drones. Aunque Google se retiró inicialmente del proyecto, el Pentágono ha continuado expandiendo estas capacidades con otros contratistas como Palantir y Anduril.

  • Drones FPV y Enjambres en Ucrania: La guerra en Ucrania se ha convertido en un laboratorio vivo. Empresas como Skynode están probando sistemas que permiten a los drones fijar objetivos de forma autónoma para evitar la interferencia de señales (jamming), eliminando efectivamente el "humano en el bucle" (human-in-the-loop).

3. Los tres pilares del riesgo ético

Para entender por qué Anthropic se mantiene firme, hay que analizar los riesgos que la comunidad científica ha señalado repetidamente:

4. La postura de Seguridad Nacional

El presidente Trump y el secretario de Defensa, Pete Hegseth, argumentan que las restricciones éticas son una debilidad que China y Rusia no tendrán. En la carrera armamentista de la IA, el Pentágono teme que las "restricciones" de las empresas estadounidenses se conviertan en ventajas para los militares chinos que no tienen reparos en usar IA para la represión o el ataque autónomo.

Sin embargo, la defensa de Anthropic sugiere que la verdadera superioridad democrática reside en el respeto a los valores humanos. Como afirmó Amodei, el uso irresponsable de la IA podría socavar, en lugar de defender, la democracia.

Un precedente peligroso

Si el gobierno de EE. UU. logra castigar penalmente a Anthropic por sus cláusulas de seguridad, se enviará un mensaje claro a Silicon Valley: la ética es subordinada a la política de defensa. Esto podría forzar a las empresas de IA a dividir sus modelos en versiones "civiles" con restricciones y versiones "militares" sin frenos, o bien, empujar a los talentos más brillantes fuera del sector de defensa por conflictos de conciencia.

Fuentes:

https://forbes.com.mx/trump-instruye-a-agencias-federales-a-suspender-de-inmediato-el-uso-de-anthropic/

Desintalaciones Chat Gpt: https://exclusiva.com.ar/ciencia-tecnologia/las-desinstalaciones-de-chatgpt-aumentaron-un-295-tras-el-acuerdo-con-el-departamento-de-defensa-impulsado-por-donald-trump/

https://elpais.com/internacional/2026-02-28/openai-cierra-un-acuerdo-con-el-pentagono-horas-despues-de-que-trump-ordenara-romper-con-anthropic.html

Proyecto Lavender: https://interferencia.cl/articulos/lavender-la-inteligencia-artificial-que-dirige-los-bombardeos-de-israel-en-gaza

 

Para consultas sobre servicios y capacitaciones, completa el formulario a continuación: