El falso escándalo del Climategate ha despertado entre un sector muy significado de la blogosfera negacionista la idea de que los mensajes cruzados del CRU indican que sus datos están corruptos y manipulados y por ende el resto de datos de otras unidades de investigación también. Parece que si unos climatólogos como los del CRU con una responsabilidad tan importante indican en sus mails “que prefieren quemar los datos a dárselos a McIntyre” o que “buscan el truco para esconder que las temperaturas han declinado desde 1960 en adelante”, no sólo los datos del CRU sinó el resto están viciados.
La falacia que se han ocultado datos.
Vayamos al quid del asunto. Ya expliqué porqué los datos en los que se basa la reconstrucción de temperaturas del CRU no son públicos en internet o al público en general, a excepción de los investigadores que acreditan un interés legítimo. Es que esos datos no son propiedad del CRU ya que los solicita a más de 180 institutos metereológicos que comercializan esos datos y los prestan al CRU estríctamente para el uso de sus investigadores o de aquellos que acrediten necesitarlos para elaborar un Paper que será presentado en un congreso o en una revista indexada. Por ello las solicitudes de McIntyre utilizando una figura legal “Freedom Of Information Act” que recoge el sistema británico siempre son respondidas con un NO, si McIntyre indicara que va a utilizarlas para publicar un artículo (serio, no las salvajadas que perpetra en su blog) los podría conseguir, pero como los pide porqué simplemente creen que han de estar a disposición del público, pues simplemente el CRU no puede responder favorablemente a su solicitud. McIntyre debería hacer la solicitud a los servicios metereológicos que los suministran bajo ese sentido restrictivo, o bien hacer como su ex-socio McKritick que los solicitó para un artículo de investigación que saldrá este próximo 2010 sobre islas de calor.
La falacia sobre que se han manipulado datos.
En los mails se puede encontrar la siguiente frase “I’ve just completed Mike’s Nature trick of adding in the real temps to each series for the last 20 years (ie from 1981 onwards) and from 1961 for Keith’s to hide the decline.” Esta frase parece indicar que en el Paper de Mann de 1998, inspirador del hockey stick, se esconden y manipulan datos para hacer ver que ha habido un calentamiento global reciente. Una vez metido en contexto las series a las que se refiere el mail son a las utilizadas por Keith Briffa en sus reconstrucciones paleoclimáticas. El “truco” consiste en utilizar la serie real de datos en la temperatura para reconstruir la serie completa, en lugar de los datos proxy que proporcionan los anillos de los árboles. Esta cuestión la expone Briffa en sus papers y se conoce como el problema de la divergencia entre los anillos de los árboles y la temperatura. No es una cosa secreta ya que aparece en Papers de Nature, Science o Geophysical Research Letters al referir a los datos de Keith Briffa. La cuestión de fondo radica en que los datos proxy de los anillos de los árboles no son proporcionales a la temperatura local (y por tanto la reconstrucción de la temperatura global no es útil) a partir de 1960 aproximadamente cuando comienzan a diverger.
El problema no lo tienen los datos de temperatura medidos directamente, sinó los anillos de los árboles. El problema de la divergencia de los anillos de los árboles se basa que el número de puntos donde se toman estos proxy a partir de 1960 aproximadamente que sufren los efectos de la contaminación son tan significativos que afectan a los datos que se obtienen. Y digo contaminados literalmente, los datos de esos árboles están contaminados porqué el entorno donde crecen se ha ido contaminando y la atmósfera acumula contaminantes suficientes como para que un mayor crecimiento debido a mejores condiciones térmicas y una vez descartado factores limitantes del medio (por ejemplo falta de agua o nutrientes o invasión de parásitos) quede apantallado por la contaminación del entorno. Los árboles de los puntos donde se han ido tomando los datos poco a poco y más claramente a partir de 1960 sufren estress ambiental debido a la actividad del hombre (que no tiene que ver sólo con el calentamiento global) y el crecimiento anual es inferior al que tendrían si “todo siguiera igual y sólo aumentara la temperatura”. El problema de la divergencia pone en cuestión los datos paleoclimáticos de los árboles a partir de 1960, no las temperaturas reales tomadas por las estaciones metereológicas. Este problema también se dá pero a la inversa en otros datos proxy, por ejemplo los glaciares continentales y marinos están retrocediendo más rápido de lo que aumenta la temperatura: debido a que no sólo actúa el calentamiento global sinó a la fragilidad del sistema de glaciares y a las partículas de hollín y contaminación que se posan en la superficie y hacen que pueda absorver mejor el calor y a que las temperaturas en las zonas frontera están aumentando algo más que en el conjunto del planeta. Esta “manipulación de datos” no es más que asumir que los datos dendroclimatológicos no son fiables para reconstruir las temperaturas del globo cuando la contaminación ambiental que daña el crecimiento de los árboles afecta de forma generalizada a los puntos donde se ha ido reconstruyendo el clima, que es más o menos a partir de 1960. Esto podría, en el mejor de los casos cuestionar los datos dendroclimatológicos, no todas las series de datos climatológicos con las que se trabaja.
Si los datos dendroclimatológicos de 1960 en adelante no son del todo fiables y se acostumbran a sustituir por otros proxy o bien por los datos tomados directamente por las estaciones metereológicas o los datos de los satélites, ¿porqué tendrían que ser fiables anteriormente a 1960?. Estamos hablando de paleoclimatología y datos proxy, estos siempre se tienen en consideración con más datos proxy en su conjunto. No sólo se fían de los testigos dendroclimatológicos, sinó los del hielo y los glaciares, los de la sedimentación en lagos, la presencia de determinadas especies vegetales en cotas o latitudes concretas, etc… En su conjunto dan una respuesta relativamente robusta, pero además los datos dendroclimatológicos comienzan a adquirir importancia realmente cuando otros más sólidos (como los de los glaciares o los boreholes) no aparecen por estar investigando demasiado hacia el pasado. Los efectos de contaminación humana de los puntos donde se han investigado son mucho menores y aproximadamente negligibles (en el siglo XV no emitíamos tantas toneladas de azufre a la atmósfera que provoca lluvias ácidas, por poner un ejemplo) y por tanto los propios datos proxy son más fiables. Además entre 1850 y 1960 los datos dendroclimatológicos siguen siendo bastante coherentes con las temperaturas medidas, lo cuál indica que la divergencia a partir de 1960 se debe a factores que han ido implantándose con más relevancia a partir de esa fecha (por ejemplo las zonas de siberia donde se toman muestras han tenido una muy tardía industrialización y no alojaron industrias hasta la IIWW cuando Stalin trasladó la producción Ucraniana a Siberia para salvarla del avance del ejército alemán, la contaminación de esas industrias se ha acumulado a partir de 1942 en adelante y han tenido un efecto más visible a partir de las décadas del 50 y 60) , además de que los datos dendroclimatológicos nos dicen cosas parecidas al resto de datos paleoclimatológicos.
No hay trampa, no hay manipulación de datos, y además la alerta sobre la poca fiabilidad de los datos dendroclimatológicos de 1960 en adelante es algo que ha sido publicado varias veces en Nature y en el GRL. No hay secretas manipulaciones de datos ni trucos como hacen creer las lecturas sesgadas de los negacionistas.
Publicidad de los datos.
Un aspecto que se acusa al CRU y del cuál ya hablé, es que el CRU no hace públicos sus datos con los que construye la temperatura media global. Algo que tiene su explicación: el CRU utiliza datos cedidos por más de 180 agencias metereológicas que se lo cede sólo para investigar no para que los publique o publicite, estos datos sólo están al alcance de los investigadores del CRU o de cualquier científico que los solicite para realizar un trabajo de investigación, por eso ni yo, ni McIntyre, ni nadie los puede conseguir si no lo justifica en una actividad científica (en cambio el científico crítico con el IPCC McKritick o Spencer acceden a esos datos cuando los han solicitado bajo el paraguas de un artículo científico). Pero entendiendo esto, los datos de reconstrucciones de temperaturas que más conocido del CRU (la serie HadCRU) no son los únicos datos de temperaturas a los que se puede acceder. Algunos como el GISS de la NASA son accesibles directamente todas las series y estaciones porqué sólo utiliza datos públicos. Pero sie s por el tema de datos, si realmente McIntyre o cualquier otro está interesado en revisar los cálculos o realizar investigaciones puede acceder a la siguientes base de datos (recopiladas por la gente de RealClimate):
Climate data (raw)
- GHCN v.2 (Global Historical Climate Network: weather station records from around the world, temperature and precipitation)
- USHCN US. Historical Climate Network (v.1 and v.2)
- Antarctic weather stations
- European weather stations (ECA)
- Satellite feeds (AMSU, SORCE (Solar irradiance), NASA A-train)
- Tide Gauges (Proudman Oceanographic Lab)
- World Glacier Monitoring Service
- Argo float data
Climate data (processed)
- Surface temperature anomalies (GISTEMP, HadCRU, NOAA NCDC)
- Satellite temperatures (MSU) (UAH, RSS)
- Sea surface temperatures (Reynolds et al, OI)
- Stratospheric temperature
- Sea ice (Cryosphere Today, NSIDC, JAXA, Bremen, Arctic-Roos, DMI)
- Radiosondes (RAOBCORE, HadAT, U. Wyoming, RATPAC, IUK, Sterin (CDIAC), Angell (CDIAC) )
- Cloud and radiation products (ISCCP, CERES-ERBE)
- Sea level (U. Colorado)
- Aerosols (AEROCOM, GACP)
- Greenhouse Gases (AGGI at NOAA, CO2 Mauna Loa, World Data Center for Greenhouse Gases)
- AHVRR data as used in Steig et al (2009)
- Snow Cover (Rutgers)
- GLIMS glacier database
- Ocean Heat Content(NODC)
Paleo-data
- NOAA Paleoclimate
- Pangaea
- GRIP/NGRIP Ice cores (Denmark)
- GISP2 (note that the age model has been updated)
- National Geophysical Data Center (NGDC)
Paleo Reconstructions (including code)
- Reconstructions index and data (NOAA)
- Mann et al (2008) (also here, Mann et al (2009))
- Kaufmann et al (2009)
- Wahl and Ammann (2006)
- Mann et al (1998/1999)
Large-scale model (Reanalysis) output
These are weather models which have the real world observations assimilated into the solution to provide a ‘best guess’ of the evolution of weather over time (although pre-satellite era estimates (before 1979) are less accurate).
- ERA40 (1957-2001, from ECMWF)
- ERA-Interim (1989 – present, ECMWF’s latest project)
- NCEP (1948-present, NOAA), NCEP-2
- MERRA NASA GSFC
- JRA-25 (1979-2004, Japanese Met. Agency)
- North American Regional Reanalysis (NARR)
Large-scale model (GCM) output
These is output from the large scale global models used to assess climate change in the past, and make projections for the future. Some of this output is also available via the Data Visualisation tools linked below.
- CMIP3 output (~20 models, as used by IPCC AR4) at PCMDI
- GISS ModelE output (includes AR4 output as well as more specific experiments)
- GFDL Model output
Model codes (GCMs)
Downloadable codes for some of the GCMs.
- GISS ModelE (AR4 version, current snapshot)
- NCAR CCSM(Version 3.0, CCM3 (older vintage))
- EdGCM Windows based version of an older GISS model.
- Uni. Hamburg (SAM, PUMA and PLASIM)
- NEMO Ocean Model
- GFDL Models
- MIT GCM
Model codes (other)
This category include links to analysis tools, simpler models or models focussed on more specific issues.
- Rahmstorf (2007) Sea Level Rise Code
- ModTran (atmospheric radiation calculations and visualisations)
- Various climate-related online models (David Archer)
- CliMT a Python-based software component toolkit
- Pyclimate Python tools for climate analysis
- CDAT Tools for analysing climate data in netcdf format (PCMDI)
- RegEM (Tapio Schneider)
- Time series analysis (MTM-SVD, SSA-MTM toolkit, Mann and Lees (1996))
Data Visualisation and Analysis
These sites include some of the above data (as well as other sources) in an easier to handle form.
- ClimateExplorer (KNMI)
- Dapper (PMEL, NOAA)
- Ingrid (IRI/LDEO Climate data library)
- Giovanni (GSFC)
- Wood for Trees: Interactive graphics (temperatures)
- IPCC Data Visualisations
Master Repositories of Climate Data
Much bigger indexes of data sources:
- Global Change Master Directory (GSFC)
- PAGES data portal
- NCDC (National Climate Data Center)
- IPCC Data
- Carbon Dioxide Information Analysis Center, Oak Ridge National Lab: Atmospheric trace gas concentrations, historial carbon emissions, and more
- CRU Data holdings
- Hadley Centre Observational holdings
Suficiente volumen de datos como para que cualquier investigador pueda analizarla por sí misma. Curiosamente los datos del GISS, las series de los satélites o cualquier otra reconstrucción basada en datos medidos directamente bajo diversos métodos son bastante coincidentes con los del HadCRU, por cierto. Imaginándonos que la gente del CRU son realmente unos malvados que han manipulado todos los datos, las tesis del IPCC del calentamiento global están bien sostenidas por toneladas de OTROS datos que no han pasado por las manos de la gente del CRU.
La actitud de desconfiar de los datos climatológicos es la que más interesa a los que financian los lobbyes negacionistas. Ya no se atreven a cuestionar la ciencia en bloque y como con todo lo que han movilizado durante años no pueden cuestionar las tesis del calentamiento global antropogénico de forma directa, lo que hacen es tender una trampa “no lo sabemos y hay que mejorar el sistema de revisión científica de artículos ya que los datos están en tela de duda”. Una cosa es asumir que la ciencia tiene sus márgenes de errores y que siempre todo está en duda (metódica y que forma parte del propio método científico) y otra es que el estado del conocimiento en una disciplina está tan en cuestión que es mejor ignorarlo. Eso no es ser escéptico sinó un magufo de tomo y lomo.
Nota al pié: Curiosamente, esta semana ha saltado a la palestra como un lobbye negacionista, la muy pomposa New Zealand Climate Science Coalition (sin ningún científico climatólogo en activo entre sus filas) había manipulado los datos de sus informes de forma flagrante. La manipulación esta sí que era real: habían utilizado datos seleccionados para cada punto de su gráfica de la estación metereológica que mejor les venía. No era una media de todas ellas, o tan sólo una media de algunas que fueran coherentes en el tiempo, sinó que por ejemplo, para el mes de marzo del 2008 utilizo el dato de la estación metereológica X que mejor me viene para que la temperatura salga inferior a la del mes de marzo del 2007 en la estación Y que es la que utilizo para ese mes pero superior a la del mes de marzo del 2009 en la estación Z que es la que utilizo para ese mes. Ese que sí es un claro caso de manipulación de datos por parte de un centro de estudios negacionista (sin científicos y que no publica ni un sólo artículo científico, curioso centro de estudios científico) que no sale publicado ni en los blogs negacionistas, ni en los medios de comunicación afines (léase libertad digital).
Eso: Hide the decline
Muy acojonante.
Empecemos por tu respuesta (falaz) a Gerardo. Con “hide the decline” lo que se está ocultando es la disparidad entre anillos y temperaturas después de 1960. O sea, dando la falsa impresión de una correspondencia excelente entre las herramientas paleoclimáticas y las temperaturas reales. Pero si fallan entre 1.960 y 2.000, o sea tienes 60 años “buenos” y 40 “malos”, ¿como diablos sabes cuales eran los años “buenos” y los años “malos” del pasado sin registro? Muy simple: no lo sabes. Lo que coincide con lo que dicen muchos fisiólogos botánicos. Que no puedes usar los árboles para saber la temperatura. Curioso, la herramienta favorita de los paleoclimatólogos alarmistas es una filfa, y con “hide the decline” se oculta este aspecto tan preocupante. ¿Lo pillas ahora?
Los datos. HadCru-Temp es el registro favorito del IPCC. No es de extrañar, es el que más calentamiento marca. Pero no hay forma de saber las correcciones que tiene, porque faltan los datos sin corregir.
Lo de que no pueden dar los datos porque pertenecen a otros organismos es algo que en efecto, ha alegado Phil Jones. Pero también ha alegado (después) que se borraron en los años 80. Y no, no se los ha entregado (como dices) ni a McItrick ni a Pielke Jr. , con esa disculpa de que fueron borrados.
Son dos versiones un poco incompatiblos, ¿no? Una es mentira. O no los puede entregar, o no los tiene; pero no puede no tenerlos y no poderlos entregar. ¿Hace falta mentir para hacer ciencia? A ti no te importa, y al que le importa es “negacionista”, según tú. Pues según yo, eso te define a ti.
Y supongo que no te harás otras preguntas inconvenientes (no lo sé, no he leído días anteriores -he llegado de chamba). Como ¿que pasa con el indecente sesgo del sistema “peer-review” que muestran los emails? ¿O el del IPCC? ¿Esa es tu idea de la forma de hacer ciencia? ¡Pues bravo! No parece que sea una idea que la UEA comparta, y por si acaso han apartado provisionalmente a Phil Jones. Según tú, exactamente por nada.
Supongo que se entiende que es: y 40 años en los que los árboles marcan lo contrario que las temperaturas del registro termométrico (pero lo ocultan con “hide the decline”),
Ciertamente no lo esperaba. A pesar de estar acostumbrado al juego sucio desde el campo alarmista. Pero tan a las claras … ¡que pasote!
A ver si nos vamos enterando que sí hay datos que dicen “perdidos”. Los datos puros.
http://rogerpielkejr.blogspot.com/2009/08/we-lost-original-data.html
Since the 1980s, we have merged the data we have received into existing series or begun new ones, so it is impossible to say if all stations within a particular country or if all of an individual record should be freely available. Data storage availability in the 1980s meant that we were not able to keep the multiple sources for some sites, only the station series after adjustment for homogeneity issues. We, therefore, do not hold the original raw data but only the value-added (i.e. quality controlled and homogenized) data.
¿Se te ocurre mayor escándalo científico que ese? Bueno, no, seguro que te parece un método normal. Seguro que lo publicó Science en su día, y ese es todo el control científico que necesitamos. ¿Esa es la idea?
Oh, sin duda que estoy en tu casa, y que no queda otra que tus reglas. Solo señalo tus reglas respecto a la limpieza del juego. Sí, ya sé que es el método (su)RealClimate. Pues eso.
No; te puedo indicar como se comunican los revisores con los autores, para que les den argumentos. Te puedo indicar como son un grupito actuando en conjunto, que van cambiando los papeles. Ahora reviso yo tu paper, ahora es al contrario, y todos tan amigos. Te puedo indicar como han establecido estrategias comunes para que los “escépticos” puedan publicar en “peer-reviewed”. Y como cuando no lo han conseguido han hablado del sistema de desprestigiar y hundir a la revista que ha osado cometer tal pecado. Y te puedo hablar de como han especulado con cambiar la consideración del IPCC hacia una revista (cambiar la consideración de ·”peer-reviewd”. ¿Eso no es sesgar el sistema? ¡Anda ya!
Claro, claro, a un director del CRU le apartan temporalmente y le investigan porque no está pasando nada digno de mención. Lo entiende cualquiera.
Claro. Y no uno, sino varios. Así de memoria creo que Zorita ha citado recientemente como se negaban a incluir evidencia “peer-reviewed” en contra del “palo de hockey” en el AR4.
McIntyre también ha citado casos. De hecho el autor principal selecciona entre lo que le proponen. Y ya hemos visto el ambiente de selección entre los miembros de “el equipo”. Por eso son importantes los emails (entre otras cosas). Porque se ve el “ambiente”.
Mira, Von Storch y Zorita no son “escépticos”, ni lo han sido nunca. Y mira lo que están diciendo a cuenta de los emails. ¿A tí no te convence? ¡Muy bien! No importa a quien le convence qué, sino los argumentos esgrimidos para ello.