domingo, 20 de diciembre de 2015

Cambio Climático: el polémico asunto de la medición de la temperatura global de la superficie de la Tierra.
Iosu Marruedo. Biólogo


¿Como se determina la Temperatura superficial  media anual en el planeta? 
La obtención de un único número que caracterice la temperatura media superficial (anual) es una operación compleja y de significado desconcertante para el ciudadano, pues puede ocurrir que no corresponda con su "experiencia vital local".
Pensemos que la variabilidad de temperatura para un mismo día, en un mismo lugar, puede oscilar fácilmente entre 2º C y 16º C (por ej. un día normal de otoño en Pamplona, Navarra). También durante un mismo día en diferentes lugares de la Tierra; así, por ej.,  el 10 de agosto de 2010 en la Antártida se registró una temperatura de - 93.2ºC cuando en Trinidad (Bolivia) era de  + 28ºC.
La temperatura superficial terrestre es una magnitud extremadamente variable: varía en un mismo día, varía de un lugar a otro y de un año a otro.
Su valor medio, es útil solo cuando se contempla por "el retrovisor", cuando pasados un buen número de años podemos mirar hacia atrás y observar la tendencia o comportamiento medio global durante esos años (nunca menos de 25-30 años).
Obtener un único valor de temperatura representativo de toda la superficie del planeta requiere el manejo de cientos de miles de datos, procedentes de todos los puntos de la Tierra, correspondientes a los 365 días de cada año, durante una larga serie de años.

Para conseguirlo, son dos los elementos necesarios:
1) Un instrumento de medición de la temperatura. En la actualidad, se utilizan principalmente dos tipos de instrumentos de medida: los instalados en estaciones meteorológicas terrestres continentales (termómetros)  y a bordo de barcos (para datos de la superficie oceánica), y los instalados en satélites que orbitan alrededor de la Tierra. Estos últimos llevan a bordo termómetros de precisión (resistencia redundante de platino) calibrados en el laboratorio antes de su lanzamiento.
2) Una metodología para el tratamiento estadístico de los cientos de miles de datos recogidos. Esta es quizás la parte más polémica o más frágil del complicado proceso de obtención de la Temperatura superficial global anual.
Dicho de otra manera: es posible que de un mismo conjunto de datos, dependiendo del tratamiento estadístico aplicado (decisión que adopta en cada caso el equipo de trabajo correspondiente) se obtengan resultados diferentes. Es por esto que suele ser frecuente el fuego cruzado de críticas y acusaciones de manipulación de datos entre los diferentes equipos (diferentes metodologías) que ofrecen información de la Temperatura Global..

Existen cinco registros o bases de datos oficiales para la medición de la Temperatura global de la superficial terrestre.
Tres de estas bases de datos se nutren de mediciones por instrumentos situados en la superficie de la Tierra (estaciones meteorológicas y barcos). Hay registros directos (termométricos) fiables desde 1850. Esta tres Bases de Datos son:

a) Base de datos del Instituto Goddard de Estudios Espaciales , NASA,  con datos procedentes de 6300 estaciones meteorológicas (GISTEMP  NASA).
b) Base de Datos de la Unidad de Investigación del Clima de la Universidad de East Anglia, corazón del IPCC  de la ONU (las últimas versiones de estas bases de datos son HadCRUT3 y HadCRUT4).
c) Base de Datos de la Administración Oceánica y Atmosférica de EEUU, ( GHCN  NOAA).

Suele haber diferencias entre el resultado presentado por estas tres bases de datos, debido fundamentalmente a que emplean diferente número de estaciones meteorológicas, con diferente localización y también emplean diferente metodología para la interpolación de los datos.

La imagen siguientes muestran un ejemplo de estas diferencias; vemos el resultado del GISS-NASA en rojo comparado con el del equipo del Hadley Centre (HadCRUT) en azul y con la versión del NOAA en verde. Se compara además con la versión de la Agencia Meteorológica del Japón, línea en morado.
La línea horizontal de referencia 0.0 corresponde al valor medio de temperatura durante el periodo 1951-1980.


Figura 1.
Las otras dos bases de datos registran mediciones realizadas por instrumentos situados en satélites; existe registro satelital continuo desde 1978:
d) Base de datos Sistemas de Teledetección RSS MSU , en California.
e) Base de Datos del Clima en la Universidad de Alabama en Huntsville, (UAH).

También existen diferencias entre los resultados presentados por RSS MSU y UAH, procedentes fundamentalmente de los diferentes algoritmos y procesos de conversión de la lectura del sensor instalado en el satélite en temperatura del aire (en realidad, lo que el satélite mide es la emisión de microondas de las moléculas de oxígeno de la atmósfera, que es función de la temperatura del aire; este valor de emisión del oxígeno debe convertirse en temperatura del aire).
En las imágenes siguientes (Figura 2. y 3.) podemos ver la versión del equipo UAH (Roy Spencer y John Christy) y la de RSS MSU (Mears) de California:
Figura2. 


Figura 3.

Pero cuando constatamos que las diferencias son mayores es cuando comparamos el resultado de las mediciones instrumentales (termométricas) con el de las satelitales (RSS MSU y UAH)..

¿Cuales son estas diferencias y qué importancia tienen?
1.- Las mediciones satelitales registran casi siempre temperaturas menores que las mediciones basadas en interpolación de los datos de estaciones meteorológicas en superficie.
2.- Entre las dos mediciones satelitales, la base UAH presenta menor tendencia global que la base RSS MSU.
3.- También muestran un área de enfriamiento para altas latitudes en el Hemisferio sur; muestran que el calentamiento no es homogéneo.
4.- Hay discrepancias entre UAH y RSS para ciertas áreas sobre el ecuador y Australia, en las que UAH registra enfriamiento y RSS calentamiento.
5.-  Las mediciones satelitales muestran una etapa de fuerte calentamiento entre los años 1993-1998 y una etapa de estabilización hasta 2014. Según UAH  y RSS, el calentamiento no es global y no es continuo.
Para los instrumentos situados en satélites, el año más caliente fue 1998; desde entonces la temperatura se ha estabilizado, desapareciendo el calentamiento hasta la primavera de 2015, cuando el intenso episodio de "El Niño" que todavía está activo provoca una nueva subida de temperatura.
6.- Para la UAH, 2015 es solo el tercer año más caliente, después de 1998 y 2010. Sin embargo para la NASA y para Hadley Centre, 2015 ha sido el año más caliente.
7.- Para el registro por satélite, durante el período comprendido entre octubre 1996 octubre 2014 la tendencia de variabilidad ha sido cero. Es lo que se ha denominado "la pausa" (18 años de pausa en el calentamiento), que podemos ver en la imagen siguiente.
Figura 4.
El IPCC (panel de expertos de la ONU) no acepta los resultados basado en mediciones satelitales; pese a que estos ofrecen mayor cobertura global (desde 1979) cubriendo una mayor superficie de la Tierra (continentes y océanos) y registran series continuas de datos también en vertical (baja troposfera, media y alta troposfera).

Críticas hacia las mediciones satelitales:
Proceden fundamentalmente de los promotores y defensores de la Teoría del Cambio Climático.
Aducen que los algoritmos empleados en la conversión de datos y su interpolación son erróneos y que, sobre todo, el efecto de las masas de nubes distorsiona el valor real de temperatura en superficie, haciendo que estas aparezcan con valores menores que los registrados en estaciones meteorológicas.
Algunas de las personas que trabajan en esos equipos son tachadas de "negacionistas" con intereses espúreos.

Críticas hacia las mediciones con instrumentos de superficie (termométricas):
Proceden de los sectores de Ciencia escéptica con la Teoría del Cambio Climático.
Argumentan, por ejemplo, que en esas Bases de Datos existen amplias regiones de la superficie del planeta poco o nada representadas (especialmente la superficie oceánica) cuando otras, en cambio, lo están en exceso.
Se les atribuye una selección sesgada o intencionada de las estaciones meteorológicas utilizadas para el suministro de los datos, abundando las cercanas a grandes núcleos de población, donde por efecto de la "isla urbana de calor" (calor emitido por la propia ciudad) los registros siempre tienden a indicar calentamiento.

Así mismo, expresan desconfianza hacia los métodos de interpolación de datos empleados, con acusaciones de "cocinado" de datos (ver imagen de la izquierda), es decir, manipulación del tratamiento estadístico hasta lograr el resultado previamente esperado (hasta demostrar que existe una etapa de calentamiento global sostenido).

Esta última acusación se ha revitalizado como consecuencia de la modificación de la Base de Datos HardCRUT3 de la Universidad de East Anglia (el IPCC de la ONU) para dar lugar a la versión HardCRUT4.
Me explicaré:
Los 18 años de no calentamiento (octubre1996-0ctubre2014) conocidos como "la pausa" (Figura 4.) desconcertaron enormemente a los miembros del IPCC y comunidad de partidarios de la Teoría del Calentamiento Global. Nadie lo esperaba.
En la revista Investigación y Ciencia de junio de 2014, se publica una entrevista anterior con uno de los representantes más destacados del IPCC, Michael E. Mann, quien reconocía la existencia de un parón en el calentamiento; atribuía ese fenómeno (que no fueron capaces de predecir en el informe del IPCC de 2001) a un comportamiento inesperado del Sol y sobre todo, a la erupción del volcán islandés Eyjafjallajökull en 2010.
A continuación afirmaba: .. "pero el calentamiento regresará"...

La dichosa "pausa" era una molesta espina clavada en el corazón del IPCC. Sus modelos de proyección del futuro climático del planeta contenidos en el informe del año 2001 habían fallado estrepitosamente; ya que no habían sabido ver lo que sucedería en los próximos 13 años, todas las proyecciones a más largo plazo quedaban invalidadas. La valía de su modelo informático de proyección  quedaba muy dañada.
Pero todo se arregló en marzo de 2012; el director del Cru, Phil Jones, explicó que ... " HadCRUT se basa en observaciones y nos hemos dado cuenta que en años anteriores (anteriores a 2010) los datos del Ártico no se han capturado de manera integral debido a los pocos datos que se tienen de esa zona. Hemos realizado una nueva versión de la base de datos , HardCRUT4, en la que se han incluido más de 400 estaciones a lo largo del Ártico, Rusia y Canadá"...

Es decir, si se aumenta la representación o peso de las estaciones de lugares fríos para recalcular la temperatura de los primeros años del s. XXI, , la línea horizontal que indica tendencia cero desciende por el extremo izquierdo y aparece nuevamente como una pendiente ascendente hacia la derecha.
Y ya está ....  todo arreglado!; la pausa no existía, era un artefacto, una interferencia provocada por un error de captura e interpolación de datos. Nosotros, los del IPCC, teníamos razón y el calentamiento sigue siendo una realidad, tal y como nuestro modelo de proyección viene asegurando. Y todos contentos en el IPCC, la Teoría del Calentamiento Global sigue viva.

Pero claro está, en otros sectores de la ciencia del Clima, en otros equipos que trabajan con las otras bases de datos el asunto no ha pasado desapercibido y ha crecido el recelo y la desconfianza hacia HadCRUT.

Mientras tanto, esta es la evolución de la concentración de CO2 en la atmósfera comparada con la variación de temperatura global según la base de datos UAH y datos reconstruidos anteriores a 1979
(el valor 0.0 en el eje vertical izquierdo expresa la temperatura media en el período 1981-2010):
Figura 5.
Se pueden distinguir tres etapas:
Una primera parte entre 1960-1979 de escasa correlación temperatura-CO2.
Una segunda, 1980-2002 con buena correlación entre temperatura y CO2, y
Una tercera parte 2003-2014 de escasa correlación.

El núcleo central de la Teoría del Cambio Climático contiene dos enunciados:
1.- Desde la década de los 70 del pasado siglo, el planeta está inmerso en una etapa de calentamiento global rápido y sostenido.
2.- La causa de este calentamiento es el incremento de las emisiones de CO2 (y otros gases de efecto invernadero) procedentes de la actividad humana.

La medición y determinación de la temperatura global, contenido de esta entrada, afecta al primero de los dos enunciados. Aceptando la evidencia del calentamiento, vemos que hay diferentes estimaciones según la base de datos y metodología de trabajo utilizados para interpolación: ¿es global o no?, ¿es continuo o no? ¿cual es el ritmo de variación por década? ¿es un problema grave o leve? o ¿ni tan siquiera es problema?.

La causa del calentamiento para el IPCC de la ONU ha estado clara desde el principio: es el incremento de CO2 atmosférico. Siempre han afirmado que no puede ser ninguna otra cosa; por lo tanto, nunca han buscado "otra cosa", se han limitado a trabajar para reforzar todo aquello que señale la culpabilidad del CO2. Y cuando aparece alguna evidencia incómoda, se silencia, se suprime o se retoca.

Cuanto del calentamiento es debido a la variabilidad natural del clima y cuanto al CO2 emitido por la actividad humana es una pregunta tabú para el IPCC. Quien la haga será inmediatamente tachado de negacionista.
Afortunadamente, son numerosos los científicos (escépticos por ser científicos) que investigan la probable interacción de otras causas: así por ej.
a) el equipo de Roy Spencer  lleva años trabajando sobre la influencia en la variabilidad climática de la oscilación ENSO-El Niño y sobre los patrones de condensación nubosa,
b) los grupos de trabajo que estudian la oscilación de la actividad solar y las variaciones de su campo magnétcio
c) los investigadores en paleoclima que intentan mejorar el conocimiento del Clima en el pasado, y que así, actuando por homología, quizás podamos mejorar la comprensión del Clima presente y futuro  .....

¿Quien tiene razón?¿Cual es la medición correcta?
Difícil es saberlo, pero si atendemos a la opinión pública, he de reconocer que la Teoría del Calentamiento Global ha tenido un éxito insuperable (es la versión del IPCC, con la base de datos HadCRUT4) y se presenta como verdad indiscutible con amplio consenso a su favor:" el calentamiento global es una evidencia incuestionable, el planeta está afectado por una etapa de rápido y sostenido aumento de la temperatura provocado por las actividades humanas".  
Las demás versiones, matices .....  no aparecen en los medios de comunicación.

Pero si tenemos en cuenta que la opinión pública suele ser igual a la opinión publicada, el famoso consenso que respalda la versión HadCRUT4 y que patrocina el IPCC de la ONU, aparece como algo mucho más frágil. Los consensos científicos se establecen sobre el debate entre argumentos diferentes; y aquí no hay debate, solo verdad única (la del IPCC)  y mucha ideología.

Así no se construyen los consensos, así se construyen los dogmas.






No hay comentarios:

Publicar un comentario

  Cambio Climático: reflexiones para una ética posible. Iosu Marruedo. Biólogo La Conferencia Científica de las Naciones Unidas (también con...