Archivo de la etiqueta: infraestructura

Terremoto de Abril de 2014 en Chile. Vamos por buen camino. Lecciones aprendidas.

Hector Miguel Opazo Santis

Cuando se me acercó el Disaster Recovery Institute, DRI, a preguntarme sobre la posibilidad de escribir acerca del reciente terremoto del 1 de Abril de 2014 en Chile, no dude en ningún momento de que haría este artículo en los plazos solicitados. La respuesta fue inmediata, no solo en términos de compartir experiencias con la comunidad del DRI, sino porque detrás de este objetivo hay un convencimiento personal acerca de lo que ha estado pasando en mi país respecto al manejo de estas catástrofes, después del terremoto de febrero  de 2010.

Si quisiéramos establecer un comparativo entre ambos terremotos resulta muy difícil de hacer, magnitudes diferentes, zonas geográficas distintas, densidad poblacional inmensamente menor para el caso del terremoto de Abril de 2014, entre otros; sin embargo, resulta necesario trabajar con estos datos para entender básicamente que hay ciertos elementos propios de la Continuidad de Negocio que han influido positivamente en mitigar el impacto.

La siguiente figura refleja algunos números de dominio público que pueden ser discutidos, quizás no, pero que son un comparativo en términos de la información existente y otra estimada dado lo reciente del último desastre.

f1

Si quisiéramos centrarnos en los números, propiamente tal, podríamos establecer algunas conclusiones. Según expertos, el último terremoto de abril de 2014 fue casi 8 veces menor en cuento a la energía liberada y por ende, en la fuerza con que se movió la tierra respecto de 2010. El número de viviendas afectadas en el sismo de 2014, es 20 o 30 veces menor respecto de la experiencia sufrida el año 2010, o tal vez, decir que el tsunami del año 2010 fue muy superior al del 2014 en el tamaño de la ola que llega a las costas chilenas, por ende, capacidad destructiva. En fin, se pueden hacer comparaciones desde diferentes ángulos y con distintos fines, lo que sí es posible concluir, es que el terremoto de abril 2014 fue mucho menor de acuerdo a lo que reflejan todos los indicadores, al de febrero de 2010.

Sin embargo, lo que no debemos dejar de entender, es que este terremoto reciente, es importante en cuanto a magnitud e impacto en la región azotada. El sismo de abril 2014 tuvo una magnitud de 8.2 grados en escala de Richter, lo suficiente como para devastar cualquier región del mundo, ejemplos de comparación sobran, tales como:  Haití en el 2010, con 7.0 grados Richter y más de 200.000 muertos,  Pakistán el 2005 con 86.000 fallecidos y una intensidad de 7.6 grados Richter, el del año 2004 en Indonesia con más de 280.000 víctimas fatales y con una potencia de 8.9 grados Richter, y quizás el más comparable con el terremoto de Chile de febrero de 2010 con una magnitud de 8,8 grados Richter, además del tsunami generado. Estamos en presencia de un terremoto importante, eso sin lugar a dudas.

Ahora bien, independiente de todas las cifras expuestas en este artículo, lo que resulta interesante desde la mirada de la Continuidad de Negocio, es saber que acciones se tomaron en Chile desde el terremoto del año 2010 hasta ahora, y como estas acciones ayudaron profundamente a manejar de mejor manera la emergencia y con esto a el impacto, de caso contrario, se habría tenido que lamentar un escenario bastante peor, quizás no comparable con el terremoto del año 2010, pero sumamente superior al impacto que se conoce hasta el día de hoy.  Estas acciones apuntan precisamente en la dirección correcta en términos de Continuidad de Negocio y son el tema central de este escrito.

 

Lecciones aprendidas a partir del terremoto del año 2010

Con los datos anteriormente señalados, lo que es claro y una realidad empírica, es que hay un notorio avance en el manejo de muchas acciones que mitigaron el impacto del terremoto de abril de 2014 y que pueden ser ubicadas dentro de las 10 prácticas de Continuidad de Negocio del DRI.

1.- Medidas preventivas y control del riesgo

– Evacuación preventiva

El concepto de evacuación preventiva en Chile en el borde costero (lugares colindantes con las playas del país) existe desde hace bastante tiempo. Siempre ha existido una cultura histórica por parte de los habitantes de salir en caso de terremoto, pero sin indicaciones claras de cuándo y cómo hacerlo. En la práctica opera el instinto humano de supervivencia ante una situación de amenaza en vez de otra cosa.

A partir de las graves consecuencias que tuvo el terremoto de febrero de 2010 y el posterior tsunami que azotó las costas chilenas, siendo este último el evento que ocasionó más muertos, durante los años 2010 y el 2014 se implementaron varias mejoras que ayudaron en este sentido.

Se generó el concepto de auto evacuación en función de que si las personas “no logran sostenerse en pie, estando en el borde costero”, deben desalojar la zona. Tenemos que recordar que los tsunamis tardan tiempo en llegar a las costas después que ha sucedido un terremoto. Con esta indicación sencilla la población tiene un primer parámetro para evaluar.

Se reforzó la forma de cómo debe realizarse la evacuación: personas a pie, por cuáles vías se debe evacuar y hacia dónde dirigirse, los llamados “puntos de encuentro”. Todo esto reforzado con señalética instalada en playas del sector costero.

– Entrenamiento y sensibilización

Los programas de entrenamiento y sensibilización a la fecha del terremoto de 2010 no eran muy claros, tanto en términos del entrenamiento como divulgación. Lo real y concreto era la existencia de elementos puntuales que apoyaban esto, tales como: La academia de protección civil, la realización de algunos entrenamientos a colegios  y otras acciones, pero sin un programa formalmente creado. Esto evidentemente da muestras de no dimensionar a priori la importancia del entrenamiento o bien la falta de recursos disponible para hacerlo.

En estos últimos 4 años se avanzó en función de tener un programa real de entrenamiento, que ha sido denominado “Chile preparado”. Este programa contiene planificación formal en términos de ejercicios de simulacros en caso de tsunami, que se han venido realizando durante este último tiempo en el borde costero chileno, y que es de conocimiento público, con participación activa de mucha población, también se ha hecho distribución de material gráfico, videos de sensibilización que se utilizan en recintos de concurrencia masiva, tales como: cines, estadios, conciertos, además de capacitación en colegios, entre otros. Ha sido un avance importante respecto de la situación del terremoto del año 2010.

2.- Alertamiento

– Protocolos de manejo de alerta de la emergencia

Para el año 2010 existía un protocolo de manejo de la emergencia. Estaba publicado dentro de la oficialidad, pero dada la forma de cómo se ejecutó, es posible pensar en algunos vacíos respecto a su implementación, recursos y forma de proceder. En estas acciones lo que destaca es un proceso de toma de decisiones muy centralizado, lo que significa en la  práctica poca autonomía para las regiones en alertamiento preventivo, ya que ante la inexistencia de comunicación con el nivel central,  no fue posible decretar evacuación preventiva en las zonas de desastre.

A partir de la dura experiencia del terremoto de 2010, se rehízo el protocolo nuevamente, se establecieron medidas que permitieron dar autonomía a los Centros de  Alerta Regionales, para establecer evacuaciones preventivas para la población. Adicionalmente, se rediseñó la estructura del Centro de Operaciones de Emergencia Nacional y  los Centros de Operación de Emergencia Regionales (COE Regionales), esto a la par de simulaciones que les permitieron a sus integrantes prepararse para enfrentar emergencias como la vivida en el terremoto reciente de abril de 2014. Todo lo anterior, acompañado de dotar a los COE, de espacios que no se encuentren en zona de inundación y que les permitan reunirse en cualquier momento para realizar evaluaciones y tomar el mando de la coordinación de la respuesta.

– Mecanismos de alertamiento

El manejo de las alertas en modalidad 24 x 7 solo estaba implementado en el Servicio Hidrográfico Oceanográfico de la Armada (SHOA) para el año 2010, sin embargo, el Servicio Sismológico Nacional (SSN), institución que debe entregar al SHOA los parámetros sísmicos que le permiten determinar el riesgo de ocurrencia de un Tsunami, no poseían un modelo 24 x 7 para manejar los sistemas de alerta; adicionalmente con una red sismológica preparada sólo para investigación científica, con la que no se podía obtener información en menos de 10 minutos.  Todo esto, agravado por la débil red de telecomunicaciones que existía en ese momento, lo que mantuvo a las autoridades y organismos técnicos incomunicados con las regiones afectadas por bastante tiempo, y llevó a que realizaran anuncios de ausencia de tsumani, mientras ya había arribo de las primeras olas en algunos sectores.

En estos últimos 4 años se ha avanzado. Hoy se cuenta con sistemas 24 x 7 de alertamiento en la Oficina Nacional de Emergencia (ONEMI), SHOA y el SSN, con sistemas de telecomunicaciones que funcionan en escala dependiendo de su disponibilidad en el momento de emergencia, y donde las tres instituciones se coordinan de acuerdo a protocolos claros que se han ido simulando permanentemente, donde están definidos mensajes precisos que no permiten la interpretación de quienes los reciben. Todo esto quedó demostrado con el poco tiempo que demoró ONEMI en establecer evacuación preventiva y posteriormente el SSN y el SHOA en publicar magnitud del sismo y alarma de tsunami.

3.- Respuesta

– Coordinación del Centro de Operaciones de Emergencia                              (COE)

Sin duda alguna que hubo un gran avance en relación al manejo de la emergencia por parte del gobierno central durante el terremoto del 2014 respecto del anterior. El funcionamiento del centro de operaciones y emergencia nacional (COE) para el año 2010 aparentemente no estaba muy claro, su constitución, roles y funcionamiento que se evidenció, generó la impresión de no tener una coordinación pre diseñada.

Los COE a nivel regional a pesar de estar establecidos no se constituyeron (o al menos no en las instancias formales), quedando aislados del nivel central. Pudo haber existido poca instrucción y entrenamiento al respecto, tanto en el COE nacional como en los regionales.

A partir de la experiencia del año 2010, se volvieron a definir los roles, se reformuló el decreto nacional que los convoca, así como los mecanismos de activación, escalamientos y lugares de convocatoria (el COE nacional tiene definido lugar primario y secundario). También se realizaron ejercicios a nivel del COE  nacional y regionales, así como la entrega de instructivos.

Todas estas mejoras quedaron de manifiesto respecto de cómo la autoridad procedió en este terremoto del 2014, cómo fue administrada la emergencia y cómo cada responsable estuvo en el rol correspondiente. Ha sido un buen avance el que se ha generado en esta materia.

– Estado de catástrofe

El estado de catástrofe, quizás el control más efectivo en temas de resguardo social, ha sido un tema controversial respecto a la oportunidad en cuanto ha sido decretado e implementado. En un concepto simple, el estado de catástrofe consiste básicamente en entregar el control a las fuerzas armadas y de orden en las zonas de desastre.

Durante el terremoto del año 2010, el estado de catástrofe fue declarado en forma efectiva después de 36 horas después de haberse producido el terremoto. Esto trajo como consecuencia una serie de saqueos en la región de Bío Bío, problemas de seguridad ciudadana, descontrol  e indefensión por parte de la población.

Aquí hay una gran lección aprendida. A pesar de las diferencias técnicas explicadas en la primera parte del presente artículo, el año 2014 este estado de catástrofe fue declarado solo a las 2 horas de haber sucedido el terremoto, situación que ayudó a controlar cualquier intento de vandalismo en la zona del norte del país.

– Manejo comunicacional de la emergencia

En todo lo referente con las comunicaciones y vocería durante el reciente terremoto de abril de 2014, se ha evidenciado importantes cambios.

Todos los comunicados hacia la prensa los ha encabezado quien por protocolo ha sido nombrado para aquello, en este caso, el ministro del interior, quién además preside el COE nacional. En su defecto, su remplazo natural en la vocería fue el director de la ONEMI. Siempre fueron ellos quienes llevaron las comunicaciones de carácter técnico.

En tanto,  el rol de la presidencia en materia comunicacional, ha sido generar tranquilidad en la población y entregar mensajes con información resumida. Todo esto producto de una estrategia diseñada por la Secretaría de Comunicaciones entre los años 2010 a 2014.

Para el terremoto del año 2010, esta vocería fue asumida en la práctica por la presidencia de la nación, poniendo de manifiesto alguna confusión en el manejo de los roles al interior de la emergencia.

Todas estas acciones descritas, que han sido tomadas a partir de la última experiencia traumática, como lo fue el terremoto de febrero de 2010, han repercutido de una u otra forma de manera positiva en el manejo de la emergencia ocurrida en abril de 2014, que además si se examinan en detalle, van muy alineadas con las 10 prácticas profesionales del DRI en gestión de Continuidad de Negocio. Se debe solo ubicarlas en las prácticas ya conocidas por todos.

 

El futuro cercano y posibilidades de mejora

Ahora quizás viene la etapa más difícil, que tiene que ver con la reconstrucción y vuelta a la normalidad. Esta es una parte del plan que ha sido poco desarrollado, pero que es tan o más importante como el manejo propio de la emergencia. Poner los acentos correctos con el fin de volver cuanto antes a una situación de normalidad es lo que cualquier organización desea. Sin embargo, los efectos de un terremoto de las magnitudes a las cuales nos hemos referido, siempre son cuantiosas y el proceso como tal suele ser demasiado largo, producto del colapso de muchas estructuras privadas y públicas, vidas, servicios y muchos otros.

Los desafíos en el futuro cercano son muchos y variados. A partir de esto se establecen algunas mejoras.

– Reforzar a la población sobre conceptos de evacuación, lugares habilitados, ejercicios permanentes y otros

Siempre será importante seguir trabajando en la prevención, entrenamiento y en la sensibilización. Hay zonas más al sur del país donde no se han tenido eventos de magnitud hace muchos años y donde se tiene que trabajar con mayor dedicación en esta línea. Se demostró que es altamente efectiva y bien coordinada y entrenada puede marcar diferencias importantes.

– Revisar estructura del COE dependiendo de la emergencia y flexibilidad

La estructura que se ha formado para el COE nacional es siempre la misma. Tenemos diferentes tipos de desastre y por ende distintos planes de recuperación. Los equipos de emergencia y operaciones deberían conformarse en función de la emergencia y no de manera tan estricta.

Acá existen muchas opciones de mejoras en términos de entrenamiento y funcionamiento de los actores del COE y los roles que ocupan.

– Continuar con medidas de alertamiento como la instalación de sismógrafos

Todo lo que sea inversión en controles preventivos y efectivos siempre es deseado. Para el caso de las costas chilenas es necesario seguir invirtiendo en sismógrafos y su instalación. Se debe tener una red más completa en función del riesgo permanente que tienen estas costas.

– Posibles albergues para funciones básicas. Proceso de recuperación de las funciones esenciales

Este es un tema muy importante para seguir desarrollando. ¿Qué pasa si la contingencia se alarga y requerimos mantener evacuada o en albergues a la población por tiempos más prolongados? Frente a lo anterior, se debe trabajar en generar una estructura que permita mantener a la población afectada por mucho tiempo en lugares temporales, antes de la recuperación al menos parcial.

– Instalaciones en zonas críticas

Aún existen en algunas zonas críticas instalaciones de organismos técnicos e instituciones públicas que pueden ser alcanzadas por los efectos de algún tsunami como resultado de un terremoto. Estos actores son parte del manejo de la emergencia y en algunos casos participan de los COE regionales (Intendencias, Hospitales, Aeropuertos, Instituciones de las Fuerzas Armadas y otros). Por lo tanto, debe existir un plan para sacar a todos los organismos técnicos y públicos que participen de las emergencias de las zonas potenciales afectadas.

– Regulación y estándares

Chile tiene altos estándares respecto a la construcción. Somos un país de constante actividad telúrica, lo que en la práctica implica seguir construyendo con estándares sísmicos. Se debe continuar avanzando en esa regulación, inspección e ir vislumbrando nuevas técnicas de construcción.

– Recuperación y restauración

Es quizás el mayor desafío que se tiene de ahora en adelante. Los acentos tienen que estar puestos en tomar acciones en el proceso de recuperación y restauración. Hay muy poco desarrollado y mucho por hacer. Hay que analizar experiencias internacionales para procesos de reconstrucción y generar marcos de trabajo para actuar con planes de restauración en el corto, mediano y largo plazo entre otras iniciativas.

 

Conclusiones

Chile es un país que ha estado, está y seguirá constantemente expuesto a tener terremotos y tsunamis. Muchos de ellos de gran magnitud. El terremoto más fuerte registrado en la historia de la humanidad ocurrió en Chile el año 1960. Esa amenaza siempre existirá y tenemos que convivir con ella.

La implementación de un Plan de Continuidad de Gobierno, es una urgencia, y Planes de Continuidad de Negocio son muy necesarios. Se está avanzando, vamos por buen camino, pero todavía es insuficiente, recién estamos viendo la punta del iceberg y nos queda mucho camino por recorrer. Estas últimas experiencias nos han puesto a prueba como país, pero también nos han entregado lecciones aprendidas. La inversión que se ha realizado durante estos años en planes de manejo de emergencia, controles y entrenamiento ha sido justificada por los resultados obtenidos. Es cierto que no es factible comparar el terremoto del año 2010 con el reciente de abril de 2014, sin embargo, muchas de las cosas que sucedieron el 2010 pudieron haberse mitigado o simplemente evitado con una mejor planificación de la administración del desastre.

El camino a seguir es claro, el problema es que no sabemos cuándo el siguiente terremoto nos volverá a golpear, en 1 mes, 1 año o en una década, por ende, nos queda recoger las experiencias de lo sucedido ahora, ajustar lo que haya que corregir y apretar el acelerador, hay muchas tareas por hacer y no podemos perder ni un solo minuto.

Héctor Miguel Opazo Santis, es ingeniero civil industrial en Chile, ingeniero en informática, con estudios de Magister Business Engineering, post títulos en evaluación de proyectos y gestión de sistemas de Información. Es certificado CBCP del DRI International. Con casi 20 años de experiencia en el mundo tecnológico a nivel de consultoría y desarrollo tecnológico aplicado. Ha sido consultor en Latinoamérica y Estados Unidos. Se ha desempeñado en cargos gerenciales en diferentes industrias, tales como: consultoría, banca, comercio entre otros. Se ha especializado en dirección de proyectos, negocios electrónicos, continuidad tecnológica y evaluación de proyectos de tecnología. Consultor asociado de Resilience Chile. Profesor titular de la cátedra de e-business en la universidad Andrés Bello donde evalúa proyectos de innovación tecnológica. Opazo puede ser contactado en hmopazo@resilchile.cl.

Modelos de ingeniería para estimación de pérdidas por fenómenos naturales

Eduardo Reinoso

En este artículo se presentan los avances en la modelación para la estimación de pérdidas en la infraestructura sujeta a la acción de fenómenos naturales. La modelación del riesgo de pérdida es una herramienta importante y poderosa cuyos resultados ayudan a diseñar e implementar estrategias y programas de reducción de la vulnerabilidad, planeación territorial, planes de respuesta y preparación en caso de emergencias o programas de reconstrucción.

Los catastróficos impactos socioeconómicos sufridos durante las últimas décadas a raíz de desastres por fenómenos naturales, no solo en México sino alrededor del mundo, indican la alta vulnerabilidad que presentan los asentamientos humanos (rurales y urbanos), y la deficiencia en los niveles de protección financiera y social que se implementan para solventar el costo de las pérdidas económicas y humanas asociadas.

Un elemento clave para el desarrollo sustentable de cualquier región es el conocimiento del riesgo existente y las causas que lo generan, de tal forma que se puedan desarrollar diferentes planes y estrategias encaminadas a la prevención y mitigación de los daños ocasionados por fenómenos naturales. Para ello, es importante conocer con el mayor detalle posible, los tres componentes que lo definen: amenaza, exposición y vulnerabilidad.

Los modelos desarrollados sirven para definir, de manera georreferenciada, no solo la intensidad de los diferentes eventos producidos por fenómenos naturales como sismos, huracanes, inundaciones o deslizamientos de laderas, sino también, para caracterizar el comportamiento de la diferente infraestructura que se puede localizar en una región de estudio y estimar, en términos probabilistas, el riesgo generado. Estos modelos se han implementado en herramientas que ya se encuentran en operación como el R-FONDEN (Banco Mundial), herramienta que emplea la Secretaría de Hacienda y Crédito Público (SHCP) para llevar a cabo la transferencia del riesgo de la infraestructura pública, o la plataforma CAPRA, iniciativa impulsada por el Banco Mundial para la estimación del riesgo a través de metodologías estandarizadas que ayuden en la toma de decisiones sobre gestión del riesgo en diferentes países alrededor del mundo.

La modelación del riesgo es una herramienta importante y poderosa cuyos resultados sirven como base para diseñar e implementar estrategias que ayuden a los países, estados o municipios a llevar a cabo programas de reducción de la vulnerabilidad, planeación territorial, planes de respuesta y preparación para el caso de emergencias o programas de reconstrucción, de tal forma que sus capacidades de respuesta ante la ocurrencia de un fenómeno natural no se vean excedidas.

Modelo probabilista del riesgo

 En la actualidad se cuenta con una limitada cantidad de datos e información histórica acerca de eventos catastróficos, debido en algunos casos a la ocurrencia de desastres de baja frecuencia de repetición, y en otros, a desastres con una ventana temporal de atención reciente y corta. Considerando la posibilidad de presentarse eventos futuros altamente destructivos, la estimación del riesgo debe enfocarse en modelos probabilistas, que permitan emplear la escasa información disponible para predecir posibles escenarios catastróficos en los cuales se considere la alta incertidumbre involucrada en el análisis.

Considerando las grandes incertidumbres asociadas a la estimación de la severidad y frecuencia de recurrencia de desastres naturales, la evaluación del riesgo se basa en formulaciones probabilísticas que incorporan la incertidumbre en la estimación del riesgo.

Estimar el riesgo de desastres significa estimar el daño en las diferentes poblaciones y activos expuestos en lugares de interés calculando su vulnerabilidad ante fenómenos (naturales o antropogénicos) específicos y obteniendo la probabilidad y la intensidad con que uno de estos fenómenos llegue a ocurrir. A través de la combinación de estos parámetros, es posible obtener un valor cuantitativo de los activos en riesgo para un peligro o amenaza esperada. La estimación cuantitativa del riesgo se expresa en términos económicos o número de muertos o heridos. Para ello, se requieren datos de entrada confiable, definidos también en términos cuantitativos. Los principales datos de entrada para la estimación del riesgo son: peligro, exposición y vulnerabilidad (Véase figura 1).

Group 1

Como resultado del análisis de riesgo, en la figura 2 se presenta de manera resumida el procedimiento para la estimación probabilista del riesgo y sus diferentes medidas.

Group 2

Modelación de la amenaza

La amenaza asociada con un fenómeno natural se mide mediante la frecuencia de ocurrencia y la severidad medida mediante algún parámetro de intensidad del peligro determinado en una ubicación geográfica específica. El análisis de amenaza está basado en la frecuencia histórica de eventos y en la severidad de cada uno de ellos. Una vez que se definen los parámetros de amenaza, es necesario generar un conjunto de eventos estocásticos que definen la frecuencia y severidad de miles de eventos, representando así los parámetros principales de la amenaza en la región. El análisis de amenaza genera valores de los parámetros de intensidad definidos para cada una de las amenazas estudiadas y para cada uno de los eventos estocásticos planteados, mediante la modelación analítica de cada uno de los fenómenos.

Para lograr lo anterior, se han desarrollado una serie de modelos analíticos probabilistas para los principales fenómenos naturales tales como sismos, huracanes, lluvias intensas, inundaciones, deslizamientos y erupciones volcánicas. Como se muestra en la tabla I, cada uno de estos fenómenos de la naturaleza produce diferentes tipos de peligros, se deben considerar específicamente los eventos que pueden desencadenar situaciones de desastre.

Group T

El objetivo principal del análisis probabilista de amenazas es proporcionar la información necesaria de amenazas con el fin de calcular en forma confiable los diferentes parámetros probabilistas relacionados con las pérdidas y efectos de los diferentes fenómenos naturales, para diferentes periodos de retorno en el rango entre 10 y 1000 años siempre que sea posible, aunque pueden usarse periodos mayores en ciertos casos específicos como el de erupciones volcánicas.

Para cada uno de los peligros se construye un conjunto de escenarios estocásticos cada uno de ellos calificado con su frecuencia y severidad con base en la mejor información disponible al igual que en la opinión general de expertos en los diferentes campos.

El resultado de la evaluación de la amenaza es una base de datos para cada uno de los peligros estudiados que contiene un conjunto de eventos estocásticos, característicos de la amenaza total, mutuamente excluyentes y colectivamente exhaustivos, que corresponden a todos los posibles escenarios de amenaza que pueden presentarse en la región. Cada uno de los análisis de amenaza arroja una distribución geográfica en un área de influencia determinada de valores de intensidad particulares.

Otra forma de representar la amenaza es a través de curvas que representan, para un sitio en específico, la intensidad esperada de un evento dado (aceleración máxima del suelo, velocidad de viento, tirante de agua, etc.) asociado a un periodo de retorno o a su inverso, una tasa de excedencia.

 

Amenaza sísmica

Se propone la siguiente metodología para la definición del peligro sísmico:

  1. Definición y caracterización de las fuentes sismogénicas principales a partir de la información geológica y geotectónica.
  2. Definición de parámetros de sismicidad a las diferentes fuentes sísmicas. Estos parámetros, diferentes para cada fuente, definen la tasa de excedencia de cada una de las fuentes sísmicas, y se estiman por medio de procedimientos estadísticos que incluyen información sobre regiones tectónicamente similares a las del país (a través de información validada por expertos), especialmente sobre el valor de la magnitud más grande que una fuente puede generar.
  3. Generación de un conjunto de eventos estocásticos compatible con la distribución de ubicación, profundidad, frecuencias y magnitudes. Para cada fuente definida se generan una serie de escenarios de diversas magnitudes, cuyas probabilidades de ocurrir se calculan a partir la curva de recurrencia de magnitudes específica de esa fuente.
  4. Atenuación de parámetros de movimiento del terreno con base en leyes de atenuación que mejor representen las condiciones del movimiento entre las fuentes y los sitios donde se calcula la amenaza, ya sean leyes existentes en la literatura o creadas con información de datos locales.
  5. Generación de mapas de amenaza de eventos representativos con una distribución espacial de intensidad sísmica para cada evento. En la figura 3 se presentan de manera ilustrativa las aceleraciones máximas del suelo (PGA, Peak Ground Acceleration) para dos eventos sísmicos simulados, la figura 3a corresponde a las PGA de un sismo de subducción en la costa de Guerrero con una magnitud igual a 8.2 y la figura 3b corresponde a las PGA de un sismo simulado de magnitud 7.2 en la región noroeste del país debido a la falla de San Andrés.
  6. Modificación de parámetros de amenaza por efectos de sitio ya que la respuesta dinámica de depósitos de suelo modifica las características del movimiento en amplitud, contenido de frecuencias y duración ocasionando efectos de amplificación y deamplificación de la intensidad. Con la información obtenida se modifican directamente los mapas calculados en el paso (5).
  7. Aplicación del modelo probabilístico de amenaza sísmica para la obtención de mapas de amenaza sísmica para diferentes periodos de retorno. En la figura 4 se presentan mapas de amenaza sísmica para diferentes periodos de retorno obtenidos al aplicar la metodología mencionada anteriormente.

Group 3Group 4

Amenaza de viento

En las últimas décadas, en las regiones que se ven afectadas por la influencia de ciclones tropicales, se han invertido muchos esfuerzos por encontrar algún modelo numérico que permita determinar las condiciones costeras debidas a la presencia de huracanes, siendo los del tipo paramétrico los que más éxito han tenido.

Los modelos paramétricos de presión y viento dependen de la información siguiente: posición del ojo del huracán, presión central, velocidad máxima de viento sostenida en el ojo del huracán y radio ciclostrófico, conocido también como radio de máximo gradiente.

Además de lo anterior, para calcular las velocidades de viento para una ubicación en tierra se emplea la expresión propuesta en el manual de obras civiles. En la figura 5 se muestran un mapa con valores esperados de velocidades máximas de viento para un huracán similar al huracán Emily, ocurrido en el 2005.

Group 5

Amenaza de inundación

La metodología propuesta para la estimación de manchas de inundación debido a precipitaciones intensas se resume en los siguientes pasos

  1. Estimación de escenarios de precipitación a partir de registros históricos: se obtienen mallas regulares de precipitación (modelos digitales en formato grd) a partir de un campo inicial el cual se modifica sucesivamente mediante una función que pondera la información disponible en las estaciones climatológicas cercanas al sitio de estudio dentro de un radio de influencia especificado. Inicialmente se utilizará como campo inicial el conjunto de datos asimilados conocido como los Reanálisis Regionales de Norteamérica, NARR por sus siglas en inglés.
  2. Estimación de la probabilidad de ocurrencia de los escenarios históricos: A partir de mapas digitales de isoyetas del país asociadas a diferentes periodos de retorno para una duración de 24hr se realiza un proceso de interpolación en donde pixel por pixel se determina el periodo de retorno de cada una de las precipitaciones consideradas de tal manera que al final se conozca el periodo de retorno al que se encuentra asociada la malla de precipitación evaluada.
  3. Cálculo de la precipitación media por escenario para cada una de las cuencas: Para las subcuencas en estudio se determina la precipitación media asociada a cada escenario de precipitación mediante el uso de herramientas y programas que faciliten la manipulación de Sistemas de Información Geográfica. El procedimiento consiste en determinar cuál es el promedio de precipitación que se encuentra dentro de la subcuenca en estudio.
  4. Cálculo de volúmenes de escurrimiento asociados a escenarios de precipitación para las cuencas analizadas: Mediante el uso del método racional americano, se determinan los volúmenes de escurrimiento para cada una de las subcuencas analizadas. Para esto se utiliza información sobre las propiedades de las subcuencas (parteaguas, área, cauces principales, pendiente, tiempo de concentración, etc.).
  5. Estimación de las manchas de inundación para cada escenario de precipitación: Para estimar las manchas de inundación correspondientes a los distintos escenarios de precipitación se elaboraron curvas de Volumen-Elevación para cada una de las subcuencas en las que se dividen las zonas de estudio. Para conocer el tirante de agua en una ubicación dada, únicamente se obtiene la diferencia entre la cota de inundación y la elevación natural del terreno en el punto deseado. Este procedimiento acumula el volumen de agua desde las zonas más bajas hasta las más altas de las cuencas analizadas.

Para llevar a cabo el último paso, se recurre a tecnología LIDAR, la cual permite hacer mediciones con láser de la topografía de un lugar desde una aeronave, proporcionando información tridimensional acerca de la forma de la superficie terrestre. La definición que se alcanza mediante está tecnología permite obtener detalles sobre los árboles, arbustos, edificaciones, entre otros.

Una vez conocida la relación existente entre la elevación y el volumen de inundación para cada subcuenca se utilizan los volúmenes de escurrimiento estimados para cada uno de los escenarios propuestos y se extrae la elevación de la superficie de agua asociada.

Caracterización de la exposición

 La exposición se refiere principalmente a los componentes de infraestructura o a la población expuesta que puede verse afectada por un evento determinado. Para realizar la caracterización de la exposición es necesario identificar los diferentes componentes individuales incluyendo su ubicación geográfica, sus características geométricas, físicas e ingenieriles principales, su vulnerabilidad ante el evento amenazante, su valoración económica y el nivel de ocupación humana que puede llegar a tener en un escenario de análisis determinado.

Los valores de exposición de bienes en riesgo se estiman a partir de fuentes de información secundaria como bases de datos existentes, o pueden ser derivados por medio de procedimientos simplificados basados en información social y macro económica general, como densidad poblacional, estadísticas de construcción o información particular más específica. Con base en la información disponible, se crea una base de datos de exposición, construida de manera geo-referenciada, donde se incluye toda la  información específica requerida para el análisis.

Por otro lado pueden utilizarse una serie de herramientas útiles para levantar información a partir de imágenes satelitales, fotografías aéreas o directamente mediante visitas de campo. Estas herramientas permiten conformar bases de datos georreferenciadas con algunas características básicas tales como tipo constructivos, área y número de pisos, lo cual puede luego complementarse con estadísticas de la zona, con zonificaciones previas de los tipos constructivos en la ciudad o mediante observaciones directas de campo.

El análisis debe en general incluir todos los activos físicos sujetos a riesgo por cuenta de cualquiera de las amenazas mencionadas. Dentro de los activos se incluyen las obras de infraestructura principales: edificios, casas, instalaciones industriales, caminos y carreteras, puentes, sistema eléctrico incluyendo generación, subestaciones y transmisión, sistemas de comunicaciones, sistemas de tuberías (agua potable, alcantarillado, oleoductos, gasoductos, etc.), túneles, presas, plantas nucleares

Costo de reconstrucción

El costo de reconstrucción es un insumo de gran importancia para la definición de los estimadores puntuales del riesgo. La valoración incluye tanto el valor del bien como tal (elementos estructurales y no estructurales principales) como la valoración de contenidos susceptibles al daño. Por ejemplo para el caso de inundaciones normalmente los daños están asociados a los contenidos y a una porción de la estructura que requiere reparación y mantenimiento después de ocurrido el desastre.

Modelación de la vulnerabilidad

La caracterización de la vulnerabilidad se realiza mediante la generación de funciones que relacionan el nivel de daño de cada componente con la intensidad del fenómeno de amenaza. La función de vulnerabilidad debe estimarse para cada uno de los tipos constructivos característicos, de manera que puedan asignarse a cada uno de los componentes de la base de datos de exposición. Mediante las funciones de vulnerabilidad asignadas es posible cuantificar el daño o afectación producida en cada uno de los activos ante la acción de un evento determinado, caracterizado por alguno de los parámetros de intensidad. Cada función de vulnerabilidad está caracterizada por un valor medio y una varianza con lo cual es posible estimar su función de probabilidad respectiva.

En general las funciones de vulnerabilidad se definen utilizando uno o varios de los siguientes tipos de información: modelos analíticos, ensayos de laboratorio, datos estadísticos y opinión de expertos.

A continuación, se presenta una descripción sobre la obtención de funciones de vulnerabilidad para la amenaza sísmica.

 

Vulnerabilidad sísmica

Daño esperado

En el desarrollo metodológico que se presenta a continuación, la intensidad sísmica se mide principalmente a través de la aceleración espectral y el comportamiento de la estructura está definido en términos de la distorsión máxima de entrepiso, por considerarse como el parámetro que mejor refleja el daño que la estructura podría sufrir ante tal intensidad.

Considerando que el daño está expresado en general en términos de la distorsión máxima de entrepiso, es necesario transformar las funciones de vulnerabilidad para que queden expresadas en términos del parámetro requerido por la amenaza. Además, para su estimación debe considerarse el comportamiento inelástico de la estructura para lo cual debe recurrirse a algún método aproximado de cálculo inelástico de respuesta sísmica estructural.

Así como se han presentado las bases para la estimación de la vulnerabilidad estructural ante acciones sísmicas, el Instituto de Ingeniería ha desarrollado diferentes metodologías para la estimación de la vulnerabilidad estructural y humana ante la acción de otros fenómenos naturales como viento, inundación, deslizamiento de laderas, licuación de arenas, tsunami y marea de tormenta, entre otros.

 

Estimación del riesgo

Con base en los modelos probabilistas de amenaza propuestos y en el inventario y valoración de activos expuestos con sus funciones de vulnerabilidad correspondientes, se ha desarrollado un modelo de análisis de riesgo probabilista o modelación de pérdidas probabilística para el país o zona de análisis.

Para ello, es necesario plantear entonces la metodología específica de cálculo de las frecuencias de ocurrencia de niveles específicos de pérdidas asociados a los activos expuestos en lapsos determinados y ante la ocurrencia de amenazas naturales.

El riesgo por amenazas naturales es comúnmente descrito mediante la llamada curva de excedencia de pérdidas (loss curve) que especifica las frecuencias, usualmente anuales, con que ocurrirán eventos en que se exceda un valor especificado de pérdidas. Esta frecuencia anual de excedencia se conoce también como tasa de excedencia, y puede calcularse una de las múltiples formas que adopta el teorema de la probabilidad total.

El análisis probabilista de riesgo se realiza normalmente para un conjunto completo de escenarios especificados en las diferentes amenazas. Sin embargo, si así se desea, el análisis puede realizarse para un solo escenario.

Estimadores del riesgo

Pérdida Anual Esperada: la PAE se calcula como la suma del producto entre las pérdidas esperadas para determinado evento, y la probabilidad de ocurrencia de dicho evento en un periodo de un año, para todos los eventos estocásticos considerados. En términos probabilistas, la PAE es la esperanza matemática de la pérdida anual.

Prima Pura de Riesgo: la PPR corresponde al valor de la PAE dividido por el valor de reposición del activo. Indica el costo que debe ser pagado anualmente para cubrir las pérdidas esperadas en un evento futuro. Se expresa en porcentaje o milésimas del valor de reposición.

Curva de Excedencia de Pérdida: la CEP representa la frecuencia anual promedio con que determinada pérdida económica se verá excedida. Es la medida más importante en el manejo del riesgo, dado que brinda información básica para la planeación y destinación de recursos necesarios para cumplir con los objetivos de gestión particulares. La CEP se puede calcular a partir del mayor evento probable en un año, o de manera uniforme para todos los eventos posibles, en función de su periodo de retorno. Generalmente se prefiere el segundo enfoque, dado que permite considerar más de un evento catastrófico al año.

Pérdida Máxima Probable (Probable Maximum Loss): la PML representa el valor de pérdida global en el portafolio para una tasa de excedencia dada. Dependiendo de la capacidad de la entidad para manejar el riesgo, se puede optar por gestionar pérdidas hasta determinado periodo de retorno.

Implementación de la modelación

R-FONDEN

Desde el 2007, el Comité Técnico del Fondo de Desastres Naturales (FONDEN) ha llevado a cabo varios estudios para estimar, de una mejor manera, el riesgo por desastres naturales en México. El proyecto “Integración, análisis y medición de riesgo de sismo, inundación y ciclón tropical en México para establecer los mecanismos financieros eficientes de protección al patrimonio del fideicomiso FONDEN del Banco Nacional de Obras y Servicios Públicos (BANOBRAS)”, desarrollado por el Instituto de Ingeniería de la UNAM, está enfocado en identificar los activos expuestos a desastres naturales como: carreteras, puentes, hospitales, escuelas, infraestructura hidráulica y viviendas en pobreza patrimonial, emplea los diferente modelos mencionados anteriormente y los conjuga en una herramienta computacional llamada R-FONDEN.

El sistema R-Fonden se ha usado para mejorar las pólizas individuales de seguros de las diferentes dependencias federales, por ejemplo, permitió diseñar un esquema de aseguramiento para la Secretaría de Comunicaciones y Transportes a cargo de las carreteras y puentes federales, situación que anteriormente era imposible debido a la carencia de información. Además, este programa se empleó para diseñar el esquema de aseguramiento de la Secretaría de Educación Pública.

CAPRA

A partir del 2009, el Banco Mundial ha implementado una iniciativa en Centro y Sudamérica que consiste en crear grupos especializados para la gestión del riesgo conformados por académicos de diferentes universidades, servidores públicos de los diferentes gobiernos e ingenieros expertos de la práctica. El objetivo de esta iniciativa es desarrollar herramientas de evaluación y comunicación de riesgo con el fin de sensibilizar a tomadores de decisiones acerca del potencial de desastres de origen natural, formular estrategias de gestión de riesgos a nivel subnacional, nacional e regional, desarrollar una metodología común para evaluar y cuantificar el riesgo de desastres.

Para ello, se ha desarrollado una plataforma para la modelación probabilista del riesgo compuesta por diferentes elementos que permiten estimar diferentes amenazas como: sismo, lluvia, inundación, deslizamiento, y para la definición de la vulnerabilidad. Tolo lo anterior se conjuga en una herramienta denominada CAPRA-SIG.

Conclusiones

Con base en los modelos de amenaza probabilistas mencionados y en el inventario y valoración de activos expuestos con sus funciones de vulnerabilidad correspondientes, es posible llevar a cabo el análisis de riesgo probabilista o modelación de pérdidas probabilística para un país o zona de análisis.

El conocimiento de las condiciones regionales de ocurrencia de eventos peligrosos, así como las características reportadas sobre eventos históricos importantes, proveen una primera idea del potencial destructivo de los fenómenos que amenazan la región, y permite conocer anticipadamente, de manera aproximada, los periodos de retorno de los eventos más importantes.

Los avances actuales en el desarrollo y presentación de la información geográfica y georreferenciada, permiten adelantos importantes en los análisis de amenaza de eventos recurrentes. La distribución espacial de intensidades asociadas a fenómenos naturales adversos, es un insumo fundamental para la posterior evaluación del riesgo. El manejo de este tipo de información por medio de capas en sistemas de información geográfica, permite la automatización de los procesos de cálculo de riesgo, así como una comunicación simple y ágil de resultados.

La estimación de la vulnerabilidad estructural ante diversos fenómenos naturales a través de métodos cuantitativos hace posible expresar el riesgo a través de diferentes indicadores puntuales necesarios para la gestión integral del riesgo.

Con este tipo de herramientas e iniciativas, hoy en día es posible generar información para llevar a cabo una gestión integral del riesgo, desde su transferencia hasta su prevención y mitigación a través de planes e iniciativas que ayuden en la toma de decisiones, logrando con esto, una mejor calidad de vida para la sociedad.

Reconocimientos

Los resultados y metodologías presentados en este trabajo han sido producto de varios años de investigación desarrollada por los autores en el Instituto de Ingeniería de la UNAM (Universidad Nacional Autónoma de México) y en ERN (Evaluación de Riesgos Naturales y Antropogénicos) con la colaboración de Carlos Avelar, Marco Torres, Octavio Hinojosa.

Desde 1985, Eduardo Reinoso ha desarrollado investigaciones y productos para conocer y mitigar el riesgo sísmico. Recientemente ha extendido estas investigaciones a otras amenazas naturales como tsunami, huracán, inundación, erupción volcánica, granizo, entre otros. ERN es una empresa dedicada a ofrecer productos y servicios para la estimación de los riesgos naturales y poder así tomar medidas tanto financieras cómo físicas para protegerse y mitigarlos. direccion@ern.com.mx

Con más de 30 años de experiencia en el análisis y modelación de riesgos naturales, en particular el riesgo sísmico, Mario Ordaz es creador del software CRISIS que es usado en varias partes del mundo para generar mapas de amenaza sísmica. Recientemente ha desarrollado algoritmos para la modelación de la trayectoria de huracanes, y es el coordinador general de proyectos tan relevantes como el CAPRA y el R-FONDEN. Comuníquese con él en mordaz@ii.unam.mx.

Dr. Miguel Jaimes ha realizado proyectos para el sector asegurador y del gobierno, los cuales consisten desde la estimación de pérdidas por sismo en edificios, en la red de agua potable y alcantarillado, en caminos y carreteras hasta del número esperado de víctimas a nivel ciudad y país. Además ha colaborado en el desarrollo de proyectos como es el caso del  R-FONDEN que permite la estimación probabilista de riesgos en la infraestructura, el primero para el fondo de desastres naturales en México para el gobierno federal. Comuníquese con él en mjaimest@ii.unam.mx.

Trabajando en ERN como coordinador experto, Mauro Niño, ha llevado a cabo varios proyectos de investigación sobre análisis de peligro debido a deslizamientos de laderas por el efecto de sismos y lluvias, así como el análisis del daño en puentes por socavación. Además, ha participado en la estimación del peligro por licuefacción de arenas y ha coordinado la gestión y creación de bases de datos de activos expuestos del patrimonio público federal del proyecto mexicano R-FONDEN. Comuníquese con él en mauro_nino@ern.com.mx.

Benjamín Huerta ha colaborado en la realización de sistemas de cómputo para la estimación de riesgos naturales dirigidos al sector asegurador y a los gobiernos, ha contribuido con la adaptación de modelos de peligro y vulnerabilidad ante las amenazas de sismo, tsunami e inundación desde 2001. También ha brindado servicios de asesoría para la estimación de pérdidas y mitigación de riesgo natural de conjuntos de inmuebles y de estructuras no convencionales y ha organizado e impartido cursos de temas relacionados con los fenómenos naturales en varios países latinoamericanos. Comuníquese con él en benjamin_huerta@ern.com.mx.