Tras la tragedia ferroviaria de Adamuz, mientras los servicios de emergencia aún recuperaban cuerpos y las familias buscaban desesperadamente volver a casa o llegar a Córdoba para reconocer a sus seres queridos, ocurrió algo menos visible pero profundamente revelador: los precios de los billetes de avión y autobús se dispararon de forma automática, inmediata e indiscriminada. No fue una decisión humana explícita, sino la fría eficiencia de algoritmos de tarificación dinámica diseñados para maximizar beneficios en situaciones de alta demanda. El resultado fue un fracaso ético de primer orden.
Algoritmos sin moral
La lógica técnica es conocida. Cuando aumenta súbitamente la demanda (más búsquedas, más reservas, menos plazas disponibles) los sistemas elevan precios. El algoritmo no distingue entre turismo, negocios o tragedia. No sabe lo que es un accidente mortal, ni el duelo, ni la urgencia humana. Pero precisamente ahí reside el problema: las empresas sí lo saben, y aun así han delegado decisiones críticas en sistemas que operan al margen de cualquier consideración moral y humana.
En Adamuz, el mercado actuó como si se tratara de un puente festivo o de un gran evento deportivo. La consecuencia fue que familiares de víctimas, trabajadores esenciales, periodistas y voluntarios se encontraron con tarifas multiplicadas por dos, tres o más en cuestión de horas. No fue un error técnico: fue el funcionamiento del sistema.
Ética externalizada a una línea de código
Durante años, las compañías de transporte han defendido que los algoritmos son neutrales, eficientes y necesarios. Pero la neutralidad algorítmica es una ficción cómoda. Los sistemas están programados con objetivos claros (ingresos, ocupación, rentabilidad) y con omisiones igualmente claras: no incluyen variables éticas, contextuales o de emergencia social.
Cuando una empresa permite que un algoritmo encarezca el acceso al transporte en medio de una catástrofe, no está siendo neutral. Está externalizando su responsabilidad moral a una herramienta que carece de conciencia, pero que ejecuta fielmente una prioridad humana: ganar más cuando se puede.
El mercado contra el ser humano
El episodio de Adamuz destapa una tensión más profunda en las economías avanzadas: la colisión entre la lógica del mercado y las necesidades básicas de una ciudadanía en crisis. El transporte no es un bien de lujo en estas circunstancias; es un servicio crítico, comparable a la energía o las comunicaciones.
Sin embargo, ni la aviación comercial ni el transporte por carretera están sujetos a mecanismos automáticos de contención de precios en situaciones de emergencia, como sí ocurre en otros sectores. El resultado es una forma de especulación algorítmica del dolor, legal en muchos casos, pero socialmente despreciable.
Comodidad regulatoria
Que esto haya ocurrido también señala una falla regulatoria evidente. Ni las autoridades de competencia ni los reguladores del transporte han establecido protocolos claros que obliguen a congelar precios o desactivar la tarificación dinámica tras tragedias de gran impacto. La excusa habitual de no interferir en el mercado empieza a sonar hueca cuando el mercado penaliza a quienes menos margen tienen para elegir.
La tecnología avanza más rápido que las normas, pero también más rápido que el debate público. Mientras se discuten los riesgos abstractos de la inteligencia artificial, los algoritmos ya están tomando decisiones con consecuencias humanas inmediatas, sin supervisión ni rendición de cuentas.
Eficiencia convertida en indecencia
El encarecimiento de billetes de avión y autobús y de las tarifas de alquiler de coches tras Adamuz no fue un fallo del sistema: fue su expresión más pura. Un sistema optimizado para reaccionar a señales de escasez, incluso cuando esa escasez está provocada por una tragedia colectiva. En ese sentido, los algoritmos no hicieron nada “mal”. Hicieron exactamente aquello para lo que fueron diseñados.
El problema es que ya se ha normalizado un modelo en el que la eficiencia económica tiene prioridad absoluta sobre la dignidad humana. Si el mercado no sabe detenerse ante la muerte, entonces no es solo el algoritmo el que carece de ética. Es el marco que lo ampara.
Adamuz no solo ha dejado víctimas y duelo. Ha dejado también una advertencia clara: cuando delegamos decisiones esenciales en sistemas sin valores, el resultado no es neutralidad, sino deshumanización. Y ese es un precio que ninguna sociedad debería estar dispuesta a pagar, porque mientras los vecinos y familias de Adamuz lo dejaban y daban todo, incluso lo que no tenían, para salvar vidas o para atender a las víctimas, el algoritmo ya estaba actuando.