Simulación con modelos climáticos en infraestructuras de computación distribuida

  1. Fernández Quiruelas, Valvanuz
Dirigida por:
  1. Antonio Santiago Cofiño González Director/a
  2. Jesús Fernández Fernández Director/a

Universidad de defensa: Universidad de Cantabria

Fecha de defensa: 13 de julio de 2017

Tribunal:
  1. José Manuel Gutiérrez Llorente Presidente/a
  2. Etienne Tourigny Secretario/a
  3. Juan Carlos Pérez Darias Vocal

Tipo: Tesis

Teseo: 486294 DIALNET lock_openUCrea editor

Resumen

La predicción del tiempo y el estudio del clima son disciplinas que requieren la utilización de modelos numéricos complejos que, tradicionalmente, sólo se podían ejecutar en grandes supercomputadores al alcance de pocas instituciones. A día de hoy, gracias a los avances producidos en computación durante las 2 últimas décadas, la comunidad científica dispone de múltiples recursos computacionales con características y políticas de uso muy diferentes como workstations personales, clusters, supercomputadores o infraestructuras Cloud y Grid. La utilización conjunta de todos estos recursos disponibles es posible a través del paradigma de computación Grid, el cual permite resolver retos científicos difícilmente realizables con la aproximación tradicional de usar sólo un supercomputador. En campos como las altas energías o biología computacional, la adopción de la tecnología Grid existente ha demostrado ser muy beneficiosa. Sin embargo, en el campo de la simulación climática esta adopción ha sido muy limitada debido a la complejidad de los modelos climáticos, que no permite aprovechar eficientemente los recursos disponibles. La tecnología Grid actual no está preparada para llevar a cabo, de forma eficiente, una gestión y monitorización de simulaciones correspondientes a experimentos climáticos. Esta gestión de recursos computacionales distribuidos es ineficiente debido a los requerimientos de procesamiento y almacenamiento que las simulaciones climáticas exigen a las infraestructuras de tipo Grid. Es importante destacar que estos experimentos están compuestos por flujos de trabajo complejos que manejan grandes cantidades de datos, y cuya ejecución puede extenderse durante semanas o incluso meses.