El terremoto de Japón instaló en la agenda pública varios temas sensibles para los chilenos, todos ellos unidos por el factor común de la gestión de riesgos, un tema que afecta por igual al sector público y al privado pero sobre el que existe muy poca de información.
Gestión de riesgos
Toda decisión humana supone un riesgo. No existe la decisión 100% segura. La matriz energética chilena es un buen ejemplo.
Las represas suponen riesgos, las centrales de carbón también generan riesgos, la energía nuclear tiene los propios, las fuentes de energía “limpia” aporta otros, pero no hacer nada se traduciría tarde o temprano en la llegada de los cortes imprevistos o programados de energía, la falta de inversiones, la incapacidad de crecer.
El problema no es cuál energía es más o menos riesgosa, sino cómo se gestionan los riesgos, cuáles costos se asumen para reducirlos, cómo asegurar que la administración de los riesgos resulte eficiente, considerando que todos los desastres conocidos pueden atribuirse a un manejo deficiente, es decir, a errores humanos.
Three Mile Island
La planta nuclear de Three Mile Island (TMI) en Pennsylvania, EUA, derramó material radiactivo en marzo de 1979. La Comisión Kemeny creada por el Presidente James Carter concluyó que el desastre se había producido, pese a que todos los sistemas de control funcionaban adecuadamente y existían extensos manuales de procedimientos, por el deficiente entrenamiento del personal para atender situaciones de emergencias.
La sala de controles de TMI tenía más de doscientas luces de alarmas, sirenas y sistemas de detección de problemas, pero cuando comenzó el incidente la cantidad de señales de peligro encendidas simultáneamente, la desesperación de más de cuarenta expertos que se empujaban en la sala de control y los histéricos pedidos de información de la autoridades de la empresa generaron una confusión absoluta y una incapacidad operativa casi total por más de tres horas.
Según la Comisión Kemeny “la deficiente preparación de los trabajadores respondía a una cultura industrial equivocada: Tratar a las plantas nucleares del mismo modo que otras instalaciones industriales tradicionales, donde hay muy poca organización preventiva, donde se espera que surjan los problemas para después, cuando algo se rompe, limitarse a repararlo.”
Chernobyl
En la noche del 26 de abril de 1986 el reactor 4 de la planta nuclear de Chernobyl produjo el siniestro más serio ocurrido en el mundo en una planta nuclear. Tres millones de tbq de radioactividad fueron liberados en la atmósfera.
Según los informes técnicos posteriores al desastre, un experimento muy mal planeado y dirigido por un ingeniero eléctrico ruso que no estaba familiarizado con el reactor, fue impuesto con amenazas por las autoridades políticas de Moscú, muy interesadas en aumentar la rentabilidad de las operaciones de la central ucraniana.
Para realizar el experimento, los operadores violaron 6 reglas de seguridad esenciales, y se dejaron fuera de funcionamiento los sistemas de cierre automático y de enfriamiento de emergencia. Como este tipo de ensayos sólo puede producirse con los reactores en baja potencia, los operadores creyeron que estaban conduciendo una prueba segura.
Siete años antes del desastre, el 21 de febrero de 1979, en el informe secreto 346-A, el funcionario IU. Andropov había informado al Comité de Seguridad del Estado de la URSS (KGB) en Moscú, sobre graves anomalías verificadas en la construcción de la central de Chernobyl y en la gestión de la seguridad de la planta.
Fukushima
El terremoto afectó al suministro eléctrico externo de la central de Fukushima, paralizando al sistema de refrigeración aunque el reactor ya estaba apagado. En ese caso, tendrían que haber entrado en funcionamiento inmediatamente los generadores diesel de emergencia que tal vez por el terremoto no funcionaron, aunque los que lo hicieron pronto se quedaron sin combustible.
Los analistas especializados relacionan la falla de Fukushima con el hecho de ser la central más antigua del Japón y la que probablemente ya debería haber sido cerrada, porque la vida útil de las plantas no es ilimitada y los primeros reactores fueron diseñados con tecnologías menos sofisticadas que las disponibles actualmente. En España la central de Garoña, similar a la de Fukushima, ya tiene fecha de cierre definitivo.
Percepción de riesgos
La gestión de riesgos no es una ciencia exacta y está sujeta a los caprichos de la percepción humana. Una de las reacciones típicas de desajuste a las condiciones reales del ambiente son las conductas de compensación, comportamientos más agresivos o riesgosos en función de la existencia de una protección que se considera infalible. Podría denominarse a este tipo de conductas como “exceso de confianza” en los controles.
En el Reino Unido el uso obligatorio del cinturón de seguridad delantero, en 1983, salvó muy pocas vidas de conductores, pero aumentó en un 27% las muertes en pasajeros ubicados en los asientos traseros, un 8% de peatones y un 13% de ciclistas.
La respuesta se encontraría, según John Adams* , en que la obligatoriedad del uso de cinturón, sin considerar otras medidas de educación y prevención vial, generó un aumento en la temeridad de los conductores por la sensación de seguridad que provocó el uso del cinturón de seguridad. Eso se conoce técnicamente como desplazamiento del riesgo, solucionando algo visible y de corto plazo pero provocando otro daño menos visible o de largo plazo.
Así como existen las conductas de compensación, también el registro de antecedentes cercanos provoca una mayor sensibilidad al riesgo. El recuerdo fresco del 27F no fue ajeno a las mejoras demostradas en la gestión de riesgos de todos los protagonistas cuando se esperaba en Chile al tsunami provocado en Japón.
Hacia una cultura de gestión de riesgos
Aunque sobre Fukushima aún no hay datos precisos, los casos de Three Mile Island y de Chernobyl indican que los desastres podrían haber sido evitados y no fueron una consecuencia de la naturaleza de la tecnología utilizada.
El National Research Council definió que “la determinación de riesgos depende de un proceso analítico-deliberativo, cuyo éxito se basa en la capacidad de los actores involucrados para participar en las deliberaciones y en la toma de decisiones.”**
En otras palabras, la definición de riesgos no puede ser asumida como un problema técnico y resuelto en ambientes aislados. Requiere un diálogo maduro que aliente el análisis transparente y continuo de todos los involucrados, tanto en roles de diseño como en roles de operación.
En las empresas se gestionan riesgos todo el tiempo. Riesgos de perder un cliente importante por falta de respuesta, riesgo de programar un sistema que nadie usará porque no se considera funcional, riesgo de planificar un cambio que se diluirá en decisiones operativas inadecuadas o tardías, riesgo de capacitar sin asegurar un aprendizaje real.
Aunque en una central nuclear parece más importante, la noción de eficiencia es la misma en todos los casos y el riesgo de extraviarla nunca está en la tecnología sino en las personas, que toman las grandes y las pequeñas decisiones cotidianas.
No debieran preocuparnos las tecnologías: ni la nuclear, ni la biológica, ni la robótica. El problema es asegurar las condiciones adecuadas para que los operadores de la tecnología puedan decidir a cada momento con lucidez y conciencia del riesgo.
Mejor que preocuparse por las tecnologías, es ocuparse de la gente que maneja esas tecnologías. ©
(*) López Cerezo, J.A. y Luján, J.L., Ciencia y política del riesgo. Madrid 2000
(**) Understanding Risk.1996. National Research Council. USA