Changements Climatiques

Les changements du monde par le climat

Posts Tagged ‘étude

« Diagnostic pour Copenhague » : piqure de rappel scientifique

with one comment

Un document de synthèse sur les avancées en termes de connaissance vient d’être publié : il est glaçant tant la situation est plus grave qu’anticipée. Cela est particulièrement visible concernant les effets observés (augmentation du niveau de la mer de 80% supérieur à celui anticipé par le GIEC par exemple) ; mais à la veille de Copenhague, on s’intéresse à la partie relatives aux politiques d’atténuation.

Ce rapport intitulé « Copenhagen diagnosis » est une publication type « peer-review » (revue par les pairs), exactement comme les publications du GIEC : il ne s’agit pas de nouvelles données, mais d’un résumé cohérent et transversal des connaissances. L’objectif des auteurs est de produire un document d’étape depuis la dernière publication du GIEC (2007) et avant la prochaine (qui aura lieu en 2013 au plus tôt). Résumé en français ici.

+7°C en 2100 ?

Les dernières estimations donnent un réchauffement moyen en 2100 supérieur aux précédentes estimations en cas de « business as usual » (on continue sans rien faire) : en 2100 la température moyenne du globe serait de 4 à 7°C à celle de l’ère pré-industrielle.

Les auteurs rappellent deux éléments bien connus :

– l’augmentation de température ne sera pas régulière (à cause de cycles de durée plus courte, 11 ans pour le soleils, irruptions volcaniques…).

– le pic de température ne sera probablement pas atteint avant des siècles après le pic des émissions, du fait de l’inertie du système Terre (principalement due aux océans).

L’urgence de l’action

La température d’équilibre dépend en premier lieu de la quantité totale de CO2 injectée dans le système, puisque c’est un gaz à effet de serre à longue durée de vie.

Quelles seraient des trajectoires compatibles avec l’objectif +2°C en 2100 ?

Si nous émettons un total de 1000 Gt de CO2 entre 2000 et 2050, la probabilité d’atteindre cet objectif est de 75%.

Or, nous avons déjà émis 350 Gt de CO2 ; il ne reste donc plus que 650 Gt de CO2 à consommer et à se partager.

Voici différentes trajectoires compatibles avec un scénario d’émissions de 750 Gt CO2, (67% de chances de ne pas dépasser le +2°C) :

Ces trajectoires seront extrêmement difficiles à suivre, tant les réductions sont importantes et urgentes.

La courbe verte impliquerait un pic en 2011 et des émissions de 4 Gt de CO2 en 2050, soit moins de 0,5 tCO2 par an et par personne (avec 9 milliards d’humains), ce qui est extrêmement faible (rappelons qu’actuellement les émissions d’un américain ou canadien ou australien sont de l’ordre de 20 tCO2/an/pers ; celles d’un européen de 11 tCO2/an/pers ; celles d’un Chinois de 5 tCO2/an/pers ; celles d’un Indien de 1,5 tCO2/an/pers.).

Les deux autres courbes, plus réalistes en termes de pic des émissions mondiales, impliquent d’atteindre un bilan carbone neutre entre 2040 et 2050.

Rappelons que les objectifs politiques affichés (officiellement par l’UE notamment) sont de réduire les émissions mondiales « d’au moins 50% en 2050 » (par rapport à 1990). Cet objectif impliquerait un très fort dépassement du budget 1000 Gt de CO2 et réduirait d’autant les chances d’atteindre le 2°C max en 2100. Et pourtant les promesses actuelles des pays développés ne permettraient même pas de réaliser l’effort nécessaire qui leur incombe pour atteindre une (petite) réduction de 50% à l’échelle mondiale.

Pessimisme

En somme, on peut actuellement dire qu’il est presque impossible d’atteindre l’objectif de 2°C. C’est difficile de se l’avouer, mais en réalité on le savait déjà quelques temps. Espérons que cela donnera un coup de fouet aux pays à Copenhague. On peut toujours rêver.

(Si j’ai un peu de temps, je reviendrai sur les autres parties de cette étude relatives aux effets des changements).

Publicités

Etude de WWF et Allianz sur les conséquences du franchissement de quatre effet de seuil

leave a comment »

Il est toujours intéressant de regarder ce que couvrent les assureurs. Par exemple, il est courant que dans un contrat d’assurance de carte bancaire de bas, il soit fait explicitement mention d’une catastrophe nucléaire (parfois exprimée en des termes cachés tels « rayonnement ionisants ») civile ou militaire est une close suspensive de toute garantie. Si, si, regardez votre contrat ! De manière similaire, il est symptomatique que les assureurs refusent d’apporter des garanties à l’utilisation de produits OGMs. Dans les deux cas, le risque est tel qu’il n’est pas quantifiable et ne peut donc pas faire l’objet d’une couverture assurancielle.

Ce que publient WWF et Allianz aujourd’hui (voir ici le rapport complet) est donc particulièrement intéressant. Les auteurs s’attachent à quantifier les conséquences du franchissement de seuils critiques lors du réchauffement climatique. Ils prennent quatre exemples (montée du niveau de la mer avec anomalie sur la côte est nord-américaine, modifications du régime de mousson indienne, dépérissement et inondations en Amazonie, aridité dans le sud-ouest de l’Amérique du nord) et analysent les conséquences économiques du franchissement d’un « seuil de basculement ».

Très brièvement (faute de temps), un résultat : la modification de la mousson indienne pourrait conduire à une augmentation des sécheresses, pour un coût par décade de 42 milliards de $ aux alentours de 2050 (en dollars d’aujourd’hui). Cette somme n’est pas négligeable. Et les assureurs le savent bien.

Le point sur les promesses d’atténuation des émissions de gaz à effet de serre dans le cadre des négociations sur le climat

with 4 comments

Une étude de Le Quéré et al. vient de paraître dans Nature Geoscience, indiquant que les émissions de CO2 d’origine énergétique ont augmenté de 48% entre 1990 et 2008. Mais surtout, l’étude indique, malgré une forte incertitude, une réduction des puits naturels de carbone (océan, biosphère), puisque le carbone émis restant dans l’atmosphère chaque année serait passé de 40% à 45% entre 1959 et 2008 (voir le résumé sur le blog Libé Sciences). Cette étude renforce les craintes de l’activation de « rétroactions positives », qui accentueraient/accélèreraient le changement climatique.

Toujours est-il que les petites négociations des petits humains continuent, afin de pouvoir ralentir et atténuer la catastrophe en cours. Il est peut-être nécessaire de faire le point sur l’état des engagements des pays développés (dits de « l’Annexe I »), élément clé de la négociation en cours.

Le GIEC a établi un scénario qui permettrait de limiter le « réchauffement à 2°C en 2100 », objectif politique maintenant largement repris (même si certains y renoncent), voir le post ici). En fait, pour être précis, le scénario du GIEC vise à limiter le réchauffement entre 2,1 et 2,4°C à long terme. Ce scénario oblige une déviation substantielle des pays émergents de leur scénario « business as usual » et une réduction de 25 à 40% des émissions des pays développés en 2020 par rapport à 1990. Sachant que même en respectant ce scénario, d’après plusieurs études, il y a environ une chance sur deux de dépasser l’objectif du 2°C en 2100. Il faudrait donc viser le haut de la fourchette.

L’insuffisance incontestable des engagements des pays industrialisés

Lors de la dernière séance de négociations, plusieurs chiffres ont circulé, relativement semblables et indiquant l’insuffisance des efforts des pays développés. Mais reprenons les plus officiels : ceux compilés par le secrétariat de la convention des Nations unies contre les changements climatiques (UNFCCC).

En agrégeant tous les engagements des pays développés (y compris les Etats-Unis), la réduction de leurs émissions n’atteindrait que 11 à 14% en 2020 par rapport à 1990. Ce qui serait très insuffisant en comparaison avec le scénario du GIEC (motif de blocage des négociations).

Une autre source est cet intéressant document du WRI, qui propose d’effectuer une comparaison en termes de réduction absolues, par tête et en intensité énergétique. Le premier indicateur permet de juger de l’efficacité environnementale des objectifs ; le second permet de juger de la tendance en termes d’équité ; le troisième permet de mesurer l’effort imposé à l’économie.

Ce qui est intéressant avec cette analyse est que concernant les Etats-Unis, elle ne considère pas uniquement les engagements obtenus par le système du cap and trade inclus dans la législation en cours de discussion devant le Congrès (ACESA ou CEJAPA, suivant quelle version considérée), mais également les réductions qui pourraient avoir lieu par ailleurs dans d’autres mesures (standards d’efficacité…) et par de la compensation (voir le détail de l’étude du WRI sur les Etats-Unis ici). Concernant la compensation, l’étude considère que celle-ci est bien effective et additionnelle aux réductions effectuées par les pays en développement.

L’étude prend pour chaque pays les engagements faibles et les engagements forts annoncés, ce qui permet d’établir des fourchettes.

Concernant les réductions absolues, les conclusions du WRI sont très similaires à celles du secrétariat, indiquant qu’elles n’atteindraient que 10% par rapport à 1990 (dans le cas des engagements faibles) et 24% (dans le cas d’engagements forts et d’inclusion du changement d’usage des sols). Dans le meilleur des cas, les pays développés n’atteignent pas même le minimum de la fourchette identifiée par le GIEC ; on est loin des 40% de réduction demandés par les pays pauvres afin de minimiser d’autant les risques d’un dépassement du 2°C.

Le choix de l’année de référence

Le choix de l’année de référence est source d’intenses négociations, certains pays voulant abandonner 1990 pour 2000 ou 2005. Cette bataille s’explique parce que la répartition des émissions de GES a évalué en 15 ans : la chute de l’URSS et l’administration Bush sont passées par là. L’ex URSS a intérêt à garder 1990 comme année de référence car cela permet une augmentation des émissions par rapport à aujourd’hui, tout en affichant une réduction par rapport à 1990 (les émissions s’étant effondrées entre temps). Inversement, les USA ont intérêt à ce que l’année de référence soit la plus tardive possible : leurs émissions ayant augmenté, le même objectif en valeur absolue se traduit par une plus forte réduction en pourcentage avec 2005 comme année de référence qu’avec 1990. Voir la comparaison ci-dessous (avec 2005 en année de référence, les Etats-Unis sont bien plus ambitieux en termes de réductions relatives que l’UE !).

Mais soyons honnête : il serait plus logique de garder 1990. D’abord parce que c’est l’année de référence du protocole de Kyoto, ensuite parce que le scénario du GIEC repose sur 1990 (il faudrait donc tout actualiser), enfin parce que -si on ne regarde que les réductions en %- il est logique de récompensé ceux qui n’ont pas attendu pour agir (l’UE en particulier).

Emissions par têtes

L’idée est qu’à long terme, les émissions par tête devraient tendre à s’égaliser, sur la base d’un principe simple : tous les humains ont droit de jouir à égalité de la ressource « atmosphère ».

Le tableau ci-dessous regroupe les émissions par têtes.

On remarque l’évolution des émissions par tête de la Russie, avec une forte augmentation par rapport à 2005… Clairement, l’engagement de la Russie n’est pas équitable.

Intensité carbone de l’économie

Afin de pouvoir comparer les économies, cet indicateur fait le ratio des émissions par la création de richesse.

Intensité carbone de l’économie (en GgCO2 équiv./million § de 1990)

On remarque la très faible intensité actuelle et future de la Norvège ; les Etats-Unis se rapprocheraient de l’intensité de l’UE ; la Russie verrait son intensité carbone diminuer significativement malgré un niveau encore élevé.

En conclusion

JL Borloo a raison de dire qu’on a un problème avec les Etats-Unis, si on considère uniquement les réductions domestiques par cap and trade, ce qu’on fait généralement. L’étude du WRI donne un peu d’espoir, en indiquant qu’en utilisant des mécanismes de flexibilité, les Etats-Unis peuvent aller plus loin, et presque rejoindre l’UE en termes de réductions par rapport à 1990. Mais dans ce cas, on peut considérer c’est l’UE qui ne va pas assez loin, puisque cette dernière n’a pas le retard accumulé par les Etats-Unis sous l’administration Bush.

Oui, les Etats-Unis n’ont pas annoncé d’objectifs chiffrés pour l’instant ; mais comme l’a souligné Yvo de Boer lors de la conclusion des discussions de Barcelone, ils pourraient venir avec un chiffre à Copenhague, il faut qu’ils le fassent. Et dans ce cas, l’UE ne sera plus forcément à son avantage avec son petit 30% de réductions…

Désolé pour la mauvaise qualité des tableaux et diagramme ci-dessus… vous pouvez les retrouver dans le document original.

Evénements extrêmes : une nouvelle étude montre le lien entre réchauffements climatiques et ouragans

leave a comment »

Une nouvelle étude, parue dans Nature le 12 août, renforce la thèse selon laquelle le réchauffement climatique accentuerait l’activité des ouragans en Atlantique nord. Voir l’article de Nature News.

La question de savoir si les ouragans seront plus nombreux à cause du réchauffement climatique est complexe et largement débattue. Il existe des études pour essayer d’établir un lien entre certains facteurs locaux (force du vent, température de surface des mers -SST-…), d’autres ont tenté de replacer les ouragans récents dans un contexte de long terme. Mais les résultats ont toujours été discutés : soit les interprétations font l’objets de discussions, soit le mode de comptabilité des ouragans passés est contesté (il se pourrait que les ouragans passés aient été plus nombreux que ce qui a été compté jusqu’à présent).

Cette étude est la première à essayer d’intégrer sur le long terme les facteurs majeurs connus comme influant les événéments extrêmes (SST des régions principales de développement, El Nino et Oscillation Sude (ENSO), Oscillation Atlantique Nord), au travers d’un modèle. Elle a fait parallèlement une analyse empirique des ouragans, en les recensant par une ananlyse des sédiments déposés sur terre, sur 8 sites différents. Les deux analyses, indépendantes, se sont révélées statistiquement cohérentes. Ce travail d’approche globale a été salué par Urs Neu, chercheur Forum for Climate and Global Change à l’Académie des Sciences Suisse de Bern, comme « une importante étape en avant ».

Les résultats sont les suivants :

– un pic d’activité (des ouragans) a été constaté entre 900 et 1100 après JC. D’après le modèle, ce pic a été rendu possible par une conjonction coordonnéees de facteurs favorables au développement des ouragans. Depuis 1200 ap. JC, ces conditions particulières n’ont pas été réunies, ce qui a conduit à une réduction de l’intensité des ouragans en Atlantique nord… jusqu’à aujourd’hui.

-il existe quelques incohérences entre le modèle et les connaissances historiques d’une part, et les données sédimentaires d’autre part. Les auteurs de l’étude propose différentes explications.

– cette étude montre que les ouragans sont effectivement plus nombreux que la moyenne de long terme depuis les années 1970 (il n’y aurait pas de problème de comptabilité majeur).

– mais surtout, elle montre le lien robuste qui existe entre les eaux de surface (SST) et l’activité cyclonique… et donne du crédit aux prédictions pessimistes selon lesquelles les ouragans devraient s’intensifier avec le réchauffement climatique.

Etude ouragans atlantique nord Nature, Mann, 06.09Modern Atlantic tropical cyclone counts (red) compared both with statistical model estimates of tropical cyclone activity based on modern instrumental (ad 1851–2006; black) and proxy-reconstructed (ad 500–1850; blue) climate indices and an estimate of basin-wide landfalling Atlantic hurricane activity (ad 500–1991) derived from regional composites of overwash sediments (green). All series were smoothed30 at multidecadal (>40-year) timescales. The sediment composite record was standardized to have the same mean and multidecadal variance as the statistical model estimates. Uncertainties for the statistical model estimates (grey shading, indicating 95% confidence intervals) take into account the uncertainty in the statistical model itself (grey shading), and—in the case of the proxy-reconstructed indices (grey shading), the additional uncertainty due to the uncertainties in the proxy-reconstructed climate indices. Uncertainties for the sediment composite record (thin dashed black curves indicating upper and lower limits of the 95% confidence interval) are derived from jackknifing of the full composite with respect to each of the five contributing regional estimates, as discussed in the text.

(extrait de l’article en ligne)

En somme, si les débats sont encore loin d’être conclus sur le sujet, cette étude renforce les inquiétudes concernant l’accroissement des évènements extrêmes induits par le réchauffement climatique.

Les références de l’étude citée :

Atlantic hurricanes and climate over the past 1,500 years

Michael E. Mann, Jonathan D. Woodruff, Jeffrey P. Donnelly & Zhihua Zhang

Nature 460, 880-883(13 August 2009)

doi:10.1038/nature08219