La Guerra Algorítmica: Cómo la Inteligencia Artificial y los datos redefinieron el escenario bélico

Por Eduardo Laens, CEO de Varegos y Docente Universitario especializado en IA y autor del libro Humanware.

6

La imagen clásica que tenemos de la guerra (trincheras, soldados con fusiles y generales moviendo fichas en un mapa de papel) quedó obsoleta. Hoy, la guerra se libra en servidores en la nube de algún proveedor de TI, en el espectro electromagnético y a través de algoritmos de IA. Estamos atravesando lo que diplomáticos y analistas ya bautizaron como el «momento Oppenheimer de nuestra generación». Al igual que la bomba atómica reescribió las reglas de la disuasión en el siglo XX, la automatización impulsada por IA, el aprendizaje automático y la hiperconectividad satelital han transformado el campo de batalla en un ecosistema profundamente tecnológico. La guerra se ha vuelto tan críticamente tecnológica que un simple fallo de software, un centro de datos comprometido o un algoritmo sesgado pueden alterar el destino de naciones enteras.

Para entender la magnitud de este impacto, tenemos que diseccionar cada engranaje de esta nueva maquinaria bélica. No se trata solo de que las armas sean «más inteligentes», sino de que la cadena de mando misma se está delegando a sistemas no humanos, abriendo cajas de Pandora éticas, corporativas y de ciberseguridad que nuestras leyes actuales apenas comienzan a comprender.

La Revolución de los Drones, la Vigilancia Satelital y la Carrera Electromagnética

Si hay un elemento que ha democratizado y alterado la asimetría táctica en los conflictos recientes, particularmente en Ucrania y Rusia, es el dron. Estamos viendo cómo la economía de la guerra de desgaste se ha invertido por completo: hoy, un dron de visión en primera persona (FPV) que cuesta unos $400 dólares es capaz de destruir rutinariamente tanques de combate principales valorados en $2 millones de dólares. Y esto no es un caso aislado; en el Mar Rojo, drones comerciales de apenas $2,000 dólares han derribado misiles interceptores multimillonarios, demostrando que el tonelaje de acero ya no garantiza la superioridad. En la actualidad, los drones son responsables de entre el 70% y el 80% de las bajas en el frente de batalla ucraniano, impulsando una carrera armamentista centrada en la autonomía y la supervivencia frente a contramedidas electrónicas.

Pero lanzar un dron al aire es solo una mitad, la otra mitad es mantenerlo conectado. Aquí es donde entra la Guerra Electrónica (EW, por sus siglas en inglés), un frente totalmente invisible pero absolutamente letal. Fuerzas militares como la rusa han desplegado sistemas de interferencia masiva extremadamente sofisticados. Equipos como el Krasukha-4 (diseñado para cegar radares aéreos y satélites de reconocimiento a 300 kilómetros de distancia) y el Borisoglebsk-2 (un sistema automatizado para bloquear señales de radio y navegación) saturan el espectro electromagnético, cortando la conexión entre el piloto del dron y la aeronave. 

A un nivel estratégico superior, la integración de la inteligencia artificial con la vigilancia satelital y los misiles guiados ha borrado el concepto del sigilo. Para el año 2040, se espera que el balance entre los que buscan «esconderse» y los que buscan «encontrar» se incline definitivamente hacia los buscadores, gracias a constelaciones de satélites que proveen vigilancia global persistente. Cuando un objetivo es detectado, la información debe ser procesada en tiempo real. Como se generan exabytes de datos en el llamado «borde táctico», corporaciones de defensa están creando ecosistemas de computación en la nube para procesar estos datos sensoriales, alimentando las coordenadas directamente a los sistemas de misiles guiados de precisión casi sin intervención humana.

El Choque de Silicon Valley y el Pentágono: Anthropic vs. OpenAI

La profunda dependencia de las fuerzas militares hacia la tecnología de IA provocó a principios de 2026 una de las crisis corporativas y políticas más explosivas de nuestra era. Tradicionalmente, las armas las construían empresas de defensa clásicas; hoy, el cerebro de esas armas se diseña en Silicon Valley. El problema surge cuando las directrices éticas de las empresas tecnológicas chocan de frente con las demandas de letalidad y soberanía del Estado.

El drama se desencadenó cuando el Departamento de Defensa de los Estados Unidos (ahora autonombrado Ministerio de Guerra), bajo las directivas del Secretario Pete Hegseth y la administración del Presidente Trump, exigió a sus contratistas de IA adoptar cláusulas que permitieran la utilización de sus modelos para «cualquier uso legal». Dario Amodei, director ejecutivo de Anthropic, se plantó firmemente y se negó a ceder, citando líneas rojas éticas inquebrantables: la tecnología de Anthropic no se usaría para el diseño de armas totalmente autónomas ni para la vigilancia masiva nacional de ciudadanos.

La reacción del gobierno fue furibunda y sin precedentes. Utilizando legislaciones diseñadas para contrarrestar a adversarios extranjeros de espionaje, como el Título 10 U.S.C. § 3252 y la Ley de Seguridad de la Cadena de Suministro (FASCSA), el Secretario Hegseth y el Presidente Trump catalogaron oficialmente a Anthropic como un «Riesgo de Cadena de Suministro para la Seguridad Nacional» y ordenaron a todas las agencias federales detener inmediatamente el uso de su software. Expertos legales catalogaron esta maniobra como ideológica, jurídicamente dudosa y un abuso de poder, ya que la ley estaba destinada a vetar a corporaciones extranjeras amenazantes como Huawei o Kaspersky, no para castigar a una empresa estadounidense por exigir salvaguardas éticas. Sin embargo, la simple amenaza de impedir que grandes proveedores de la nube como Amazon Web Services (AWS) —que también tienen contratos con el Pentágono— alojen los modelos de Anthropic suponía una «pena de muerte» corporativa. Anthropic prometió llevar la designación a los tribunales.

Lo que sucedió a continuación sacudió a la industria tecnológica. Apenas horas después de que Anthropic fuera purgada de los contratos gubernamentales, OpenAI entró en escena y firmó un acuerdo con el Pentágono para ocupar ese lugar, eliminando sus propias restricciones anteriores sobre el uso militar para asegurar el multimillonario contrato. La respuesta de los usuarios fue un castigo masivo e instantáneo. Acusando a la empresa de carecer de ética y de «vender su alma» al complejo militar, se desató un movimiento en redes sociales bajo consignas como #CancelChatGPT.

Los números fueron devastadores: el 28 de febrero de 2026, la tasa de desinstalaciones de la aplicación de ChatGPT se disparó un 295%, pasando de una tasa de abandono habitual del 9% a un éxodo digital masivo. Paradójicamente, la firme postura ética de Anthropic resonó tan bien con el público preocupado por la privacidad y la militarización de la IA que su base de usuarios creció más de un 60%, catapultando a Claude a convertirse en la aplicación gratuita número uno más descargada en la App Store de EE. UU., superando a ChatGPT.

El Frente Cibernético: Ataques a Infraestructura IT, Radares y Redes

Toda esta maquinaria algorítmica y militar depende de un punto débil fundamental: los centros de datos (datacenters) y la infraestructura de telecomunicaciones. Hemos llegado a un punto donde la ciberseguridad ya no es una función de soporte en la retaguardia, sino el dominio principal del conflicto bélico. 

Esta vulnerabilidad quedó expuesta recientemente durante la escalada de tensiones en Medio Oriente entre EE. UU., Israel e Irán. En medio de intercambios de misiles balísticos y drones, la división de nube de Amazon (AWS) sufrió un incendio en un centro de datos en los Emiratos Árabes Unidos después de que las instalaciones fueran «golpeadas por objetos». Acompañando estos ataques cinéticos, facciones de hacktivistas (como el «313 Team») lanzaron ataques distribuidos de denegación de servicio (DDoS) contra docenas de bancos, aerolíneas y ministerios de gobierno en el Golfo e Israel, desconectando efectivamente los servicios bancarios telefónicos y en línea. En Irán, operaciones cibernéticas alineadas con los ataques aéreos desconectaron repetidamente la conectividad nacional a internet y hackearon la popular aplicación religiosa BadeSaba para emitir propaganda urgiendo a las fuerzas armadas a rendirse.

 Deepfakes y la Guerra Psicológica de la Desinformación

Finalmente, debemos abordar la guerra de la información, que ha sido potenciada exponencialmente por los modelos generativos. Ya no se trata solo de escribir noticias falsas; hablamos de la creación de audios y videos hiperrealistas (deepfakes) para realizar operaciones psicológicas a nivel de la población general. Durante la guerra en Ucrania, presenciamos el primer uso en combate de esta tecnología: un video falsificado del Presidente ucraniano Volodymyr Zelensky anunciando la rendición de su país subido a un sitio web de noticias hackeado, mientras que en paralelo circulaban videos falsos de Vladimir Putin declarando la paz.

En Medio Oriente, el impacto fue aún más pernicioso e íntimo. Organizaciones terroristas y actores cibernéticos comenzaron a usar deepfakes para clonar las voces de personas comunes, hackeando cuentas de WhatsApp para enviar notas de voz a grupos familiares donde la supuesta víctima gritaba que estaba siendo secuestrada, generando un pánico psicológico devastador. Al mismo tiempo, en redes sociales circulaban millones de reproducciones de videos generados por IA que simulaban ataques aéreos en Tel Aviv o jets sobre Dubái, saturando el entorno de información de falsedades.

El daño más insidioso de los deepfakes en el conflicto moderno no es necesariamente que la gente crea la mentira (usualmente son desmentidos rápido), sino que crean el llamado «dividendo del mentiroso» (liar’s dividend). Al inundar el internet con falsificaciones, el público y los líderes políticos comienzan a dudar de absolutamente todo. De repente, evidencia en video real e indiscutible sobre crímenes de guerra o atrocidades es desestimada y etiquetada como «generada por IA», ofreciendo a los perpetradores la excusa perfecta para negar su responsabilidad. Actores estatales como Rusia han llevado esto un paso más allá con campañas como «Doppelgänger», explorando el envenenamiento o manipulación de datos de entrenamiento en los Grandes Modelos de Lenguaje (LLM) para que las inteligencias artificiales comerciales que todos usamos diariamente arrojan respuestas sesgadas a favor de su propaganda.

La guerra y la defensa se han vuelto profunda y peligrosamente tecnológicas. La pelea entre gigantes tecnológicos como Anthropic y OpenAI por mantener principios éticos demuestra que la carrera armamentista ya no se libra en fábricas de municiones, sino en salas de servidores, donde la ciberseguridad, los datos y la IA determinan no solo quién gana la guerra, sino cómo se reescribe el valor de la vida humana en el proceso.

Autor