Cerremos los ojos y “supongamos”. Supongamos que la gran potencia militar mundial enchufa una IA a la cadena de mando con la alegría con que una administración pública española compra licencias de Office. Supongamos que la máquina se equivoca. Supongamos que alguien descubre que las cláusulas éticas de las que esa empresa de IA presumía, quedan en entredicho y se arrastran por el el barro al ser menospreciadas y ninguneadas por el Pentágono.
Supongamos que Dario Amodei, consejero delegado de Anthropic, por miedo a los daños reputacionales, dijo basta.
En realidad no hace falta suponer demasiado: el 27 de febrero de 2026 su empresa explicó públicamente que su choque con el Pentágono llegó por negarse a aceptar dos excepciones para Claude: la vigilancia masiva de estadounidenses y el uso en armas plenamente autónomas. No era pacifismo de salón. Era una objeción mucho más humillante para el poder: que la tecnología todavía no es lo bastante fiable como para decidir sin humanos sobre asuntos que acaban en muertos.
Supongamos que en Washington eso sentó como una blasfemia y un insulto personal al matón de la Casa Blanca. Tampoco aquí hace falta fantasear mucho.
Anthropic denunció que el Secretario de Guerra, Pete Hegseth, ordenó catalogarla como “supply chain risk”, una etiqueta devastadora para cualquier proveedor que quiera seguir respirando en el ecosistema federal. Días después, Amodei escribió que la empresa había vivido una jornada marcada por el anuncio presidencial de su retirada de los sistemas federales, por la amenaza formal del Pentágono y por el anuncio del acuerdo entre el Pentágono y OpenAI. O sea: el palo, la exhibición del palo y el relevo del proveedor. I ahora, finalmente la ostia en todo el cogote.
Supongamos ahora que otro laboratorio vio la oportunidad. OpenAI ya venía construyendo su brazo institucional: lanzó “OpenAI for Government” en junio de 2025, integrando sus trabajos con agencias federales y ofreciendo incluso modelos personalizados para seguridad nacional. A finales de febrero de 2026 anunció además un acuerdo específico con el Pentágono para desplegar sistemas avanzados de IA en entornos clasificados, y poco después llevó una versión de ChatGPT a GenAI.mil, la plataforma segura usada por tres millones de trabajadores civiles y militares. Por cierto, ChatGPT alucina más que Claude de Anthropic.
Supongamos que eso fue una rendición ética. Aquí conviene no confundir la crítica con la falsificación. OpenAI dice que no ha firmado públicamente una “carta blanca”; ha defendido justo lo contrario. Dice que su contrato prohíbe la vigilancia doméstica masiva, impide dirigir armas autónomas, mantiene a personal de OpenAI dentro del circuito y conserva sus guardarraíles técnicos en despliegues solo en la nube. Nadie ha visto el contrato.
Otra cosa es si uno se cree que, en materia militar, las cláusulas aguantan lo mismo que la foto de familia del día de la firma. Pero la diferencia importa: Anthropic se negó a seguir bajo ciertas condiciones; OpenAI sostuvo que sí podía entrar sin reventarlas. I eso se publicó.
Supongamos después que el problema ya no era moral, sino que pasó a comercial. Según Sensor Tower, recogido por TechCrunch, las desinstalaciones de la app móvil de ChatGPT en Estados Unidos se dispararon un 295% interdiario el 28 de febrero, justo tras hacerse público el acuerdo con el Pentágono. En paralelo, Claude ganó tracción: sus descargas en EE. UU. crecieron un 37% el 27 de febrero y un 51% el 28, y la aplicación alcanzó el número uno semanal de la App Store estadounidense. No es un éxodo bíblico demostrado hasta la última persona, pero tampoco es una pataleta anecdótica. Es un voto con el pulgar. A dia de hoy, cinco millones de votos que han cambiado de compañía.
Supongamos entonces que OpenAI necesitaba cambiar la conversación y sobretodo que no se hablase de alucinaciones. La cronología ayuda a la sospecha, aunque no la pruebe. El 3 de marzo lanzó GPT-5.3 Instant; el 5 de marzo presentó GPT-5.4, al que describió como su modelo más capaz, seguro y eficiente para trabajo profesional. Dos movimientos de producto de gran calado en menos de una semana, justo cuando el debate público se había desplazado de la utilidad de la IA a su lugar en la maquinaria de guerra. Es imposible demostrar desde fuera que una cosa causó la otra. Pero sería ingenuo fingir que el calendario no habla.
Y ahora viene el supongamos más grave. Supongamos que una IA alucinó, que señaló un blanco que no era un blanco y que donde el algoritmo vio una amenaza había en realidad un colegio de niñas. No supongamos, porque es cierto, que el Secretario de Guerra, Pete Hegseth, hace meses publicó una directriz a su Departamento, quitando la revisión humana de los objetivos militares a bombardear. Ese salto, hoy por hoy, no puede darse como hecho, pero la retirada el control humano, sí.
Sí sabemos también que hay una investigación sobre el bombardeo de una escuela de niñas en Irán el 28 de febrero y que los indicios van confirmando una acción estadounidense. Sí sabemos también que analistas externos han sugerido que pudo influir el targeting asistido por IA o un fallo al trabajar con cartografía desactualizada. Pero hasta hoy no hay información, ni clara ni espesa, de esa matanza por parte de los demócratas que la perpetraron.
Lo inquietante no es solo lo que sabemos. Lo que ya sabemos es suficiente como para dejar de reírnos de los supongamos. Sabemos que una gran empresa de IA se negó a eliminar dos límites básicos en uso militar, porque ya la habían cagado, y con muertos. Sabemos que el Pentágono reaccionó con una presión descomunal. Sabemos que otra gran empresa sí ocupó el hueco y que sufrió un coste reputacional inmediato entre parte de sus usuarios. Y sabemos, por encima de todo, que la discusión dejó de ser teórica: ya no hablamos de si la IA entrará en la guerra, sino bajo qué condiciones entra, quién pone los límites y cuánto tarda el mercado en olvidar.
Supongamos, por tanto, que el verdadero escándalo no sería descubrir que una IA se equivocó en un bombardeo. El verdadero escándalo sería descubrir que todos sabían que podía equivocarse, que uno quiso poner frenos, que otro aseguró tenerlos bajo control, y que aun así la pregunta decisiva siguió siendo en Washington quién se quedaba con el contrato. Tela.