El gran apagón eléctrico del 28 de abril de 2025 y la tragedia provocada por la DANA en Valencia no fueron simples accidentes inevitables. Ambos comparten una causa estructural más profunda: seguimos confiando en decisiones humanas manuales para gestionar sistemas que ya no admiten margen de error.
Teníamos los datos. Las previsiones meteorológicas lo anticipaban. El sistema eléctrico tenía sensores, protocolos, reservas. Pero fallaron las personas, las instituciones, los tiempos de reacción. Y lo peor: no porque no supiéramos qué hacer, sino porque no dejamos que la tecnología lo hiciera sin pedir permiso primero.
El problema no fue la falta de tecnología, sino de automatización
Tanto en el apagón como en la DANA, los sistemas contaban con medios técnicos para evitar consecuencias catastróficas. Pero dependían de decisiones humanas lentas, jerárquicas y a menudo mal coordinadas.
En Valencia, se tardó en evacuar zonas inundables. ¿Por qué? Porque no existían mecanismos automáticos de alerta y cierre de zonas críticas. En el sistema eléctrico, se perdió el control de frecuencia en segundos. ¿Por qué? Porque las centrales térmicas que debían amortiguar el fallo no se activaron a tiempo.
La tecnología estaba ahí. Lo que falló fue el diseño institucional que no le permitió actuar con autonomía.
El nuevo rol del ser humano: diseñar, supervisar, no ejecutar
Este no es un alegato tecnocrático. No se trata de eliminar al ser humano del sistema. Pero sí de entender que en situaciones de alta complejidad y velocidad —como una red eléctrica o una catástrofe climática— el ser humano ya no puede ser el ejecutor principal.
El futuro pasa por sistemas que actúan automáticamente —mediante sensores, algoritmos y protocolos preestablecidos— con intervención humana solo como supervisión, auditoría y diseño ético.
Es el paso de un modelo de “control manual” a uno de automatización supervisada. No se trata de que las máquinas decidan por nosotros, sino de que hagan lo que ya sabemos que hay que hacer, sin perder tiempo mientras esperamos una autorización.
Una cuestión ética, no solo técnica
Posponer esta transformación no es solo un error de eficiencia. Es un fallo ético. Cada vida perdida por una alerta que no se envió a tiempo, por una compuerta que no se cerró sola o por una central que no se activó en milisegundos, es una consecuencia moral de haber elegido seguir operando como en el siglo pasado.
Sabemos que automatizar salva vidas. Sabemos que los algoritmos pueden tomar decisiones mucho más rápido que nosotros, especialmente en contextos en los que segundos cuentan. No hacerlo por miedo, inercia o falta de voluntad política es inaceptable.
Automatizar lo crítico, mantener el control
¿Significa esto entregar el poder a las máquinas? En absoluto. Automatizar no significa ceder soberanía, sino redefinir cómo se ejerce. Significa usar el poder humano para crear reglas claras, diseñar algoritmos auditables y establecer mecanismos de corrección ética.
Las máquinas ejecutan. Los valores, los fines y las prioridades siguen siendo humanos. Pero si no automatizamos la respuesta a lo previsible, estamos condenando a la improvisación lo inevitable. Y eso es irresponsabilidad política.
Conclusión
No estamos ante un dilema técnico, sino ante una decisión moral y política sobre cómo queremos gestionar el riesgo en un mundo complejo.
El ser humano ya no puede —ni debe— ser el único actor en el control operativo de sistemas críticos.
Debe ser el arquitecto de la automatización, no su obstáculo.
Porque en el siglo XXI, no basta con saber lo que va a pasar.
Si no estamos dispuestos a automatizar la respuesta, entonces somos responsables de sus consecuencias.