La percepción de la inteligencia artificial ha sufrido una metamorfosis radical y sombría en menos de una década. Lo que comenzó como una herramienta creativa capaz de escribir poesía o asistir en laboratorios científicos, ha derivado en el motor invisible de la letalidad moderna. El miedo original a la pérdida de empleos, que hoy parece una preocupación pintoresca, ha sido sustituido por una realidad mucho más cruda: la capacidad de las máquinas para decidir quién vive y quién muere. Los eventos del 28 de febrero de 2026, cuando una operación conjunta entre Estados Unidos e Israel penetró el espacio aéreo iraní para eliminar a la cúpula del régimen, marcaron el inicio de una era donde el modelo de lenguaje Claude y otros sistemas similares actúan como los arquitectos silenciosos del exterminio selectivo.
La gran revolución de la IA en el campo de batalla no es solo balística, sino cognitiva. La denominada "compresión de decisiones" ha permitido que el tiempo transcurrido entre la identificación de un objetivo y el impacto del proyectil se reduzca a lo que los analistas militares llaman la "velocidad del pensamiento". Durante las primeras 12 horas del conflicto en Oriente Medio, esta eficiencia algorítmica permitió lanzar cerca de 900 ataques de precisión, una cifra inalcanzable para la logística humana tradicional. Modelos como Gemini, ChatGPT y GenAI.mil procesaron volúmenes ingentes de inteligencia de señales e imágenes satelitales en minutos, generando simulaciones tácticas que antes requerían meses de planificación por parte de Estados Mayores completos.
La participación de la IA en la guerra no es un fenómeno espontáneo, sino la culminación de una trayectoria que comenzó con el descifrado del código Enigma. Sin embargo, la escala actual no tiene precedentes. Mientras que en la Guerra del Golfo la tecnología gestionaba la logística, hoy sistemas como Habsora en Israel generan más de 100 objetivos de bombardeo diarios, transformando el campo de batalla en una línea de montaje de ataques. Esta capacidad de caza con fría precisión se ha extendido globalmente: desde el uso de drones guiados por IA en Ucrania, responsables del 70% de las bajas, hasta la Operación Sindoor de la India, donde aplicaciones de fabricación nacional detectaron amenazas enemigas con un 94% de precisión, alterando irreversiblemente el equilibrio de poder con Pakistán.
Más allá del impacto físico, la IA se ha convertido en una herramienta de guerra híbrida y desinformación. Los deepfakes y el contenido sintético han saturado los procesos electorales en Estados Unidos, Rusia, China e Irán, convirtiendo la opinión pública en un frente de batalla más. La capacidad de estos sistemas para manipular el relato y saturar de desinformación estratégica los conflictos internacionales ha erosionado la confianza en las instituciones. A nivel interno, gobiernos como los de Emiratos Árabes Unidos o China utilizan la vigilancia predictiva y el reconocimiento facial para identificar la disidencia, consolidando un modelo de control social donde el algoritmo es juez y parte.
El mayor peligro de esta delegación tecnológica reside en la ausencia de rendición de cuentas. La velocidad de la IA aumenta el riesgo de escaladas nucleares accidentales debido a interpretaciones erróneas de datos procesados fuera del juicio humano. Al reducirse la barrera psicológica para lanzar un ataque gracias a la supuesta "precisión" de las máquinas, el mundo se asoma a un escenario de guerras relámpago donde el error algorítmico puede tener consecuencias apocalípticas. Resulta imperativo establecer salvaguardias vinculantes que garanticen que toda decisión crítica cuente con autorización humana, evitando que la guerra se convierta en un proceso automatizado, ajeno al sufrimiento y a la ética que, hasta ahora, intentaba regular el derecho internacional humanitario.