Overblog Suivre ce blog
Administration Créer mon blog
20 janvier 2010 3 20 /01 /janvier /2010 19:57
Malaspina Glacier from spaceDans une étude qui vient de paraître dans Nature geoscience (disponible ici), une équipe franco-canadienne montre que la vitesse de fonte des glaciers entre 1962 et 1996, et leur contribution à la hausse du niveau des mers, a été légèrement surestimée.

On mesure la vitesse de fonte des glaciers en observant l'évolution de l'altitude de leur surface. Jusqu'à récemment, les mesures étaient faites par un laser aéro-porté au centre de quelques glaciers. Les variations étant plus rapides au centre, la vitesse de fonte était automatiquement surestimée. Dans cette nouvelle étude, la variation d'altitude a été mesurée de manière globale en utilisant des données satellitaires (satellites SPOT 5 et ASTER). Résultat, la contribution à la hausse du niveau des mers de la fonte des glaciers d'Alaska entre 1962 et 1996 a été en réalité de 0.12 mm par an en moyenne, contre 0.17 mm par an d'après les études précédentes. Les données recueillies montrent également que la vitesse de fonte des glaciers est très hétérogène d'un point de vue géographique, ce qui explique également la faible fiabilité des études précédentes qui ne prenaient en compte qu'un nombre limité de points.

Ceci étant dit, les auteurs concluent en insistant sur le fait que l'accélération très rapide de la fonte observée depuis le début des années 1990 est bien réelle, avec une contribution à la hausse du niveau des mers de 0.25 mm par an, soit plus de deux fois plus qu'au cours de la période 1962-1996.


articles liés :
- En Alaska, conférence des peuples indigènes sur les changements climatiques
- Les températures de l'Arctique sont les plus chaudes depuis 2000 ans



retour au sommaire thématique
Repost 0
14 janvier 2010 4 14 /01 /janvier /2010 21:21
couverture climate cover-upFiche de lecture d'un livre de James Hoggan et Richard Littlemore sorti en fin d'année dernière, et qui traite des méthodes et de l'influence de ceux que les auteurs appellent "Deniers" (que l'on pourrait traduire par "négateurs") du réchauffement climatique et de son origine humaine (ISBN-13: 978-1553654858, une dizaine d'euros chez les libraires en ligne, pas la peine de cliquer sur l'image, c'est une capture écran de la couverture chez amazon...).

Il ne s'agit pas ici d'un livre scientifique, mais d'un livre sur les médias. Les auteurs (l'un est président d'une entreprise de relations publiques et l'autre journaliste et rédacteur de discours pour des hommes politiques)  y montrent le fonctionnement d'une véritable campagne médiatique visant à fausser la perception du public du discours scientifique, en présentant les résultats scientifiques comme biaisés, truqués ou peu fiables.

Parmi les stratégies décrites, on peut noter la création de fausses fondations, ou la présentation comme experts du climat de personne n'ayant pas de compétences particulières dans le domaine, avec ensuite une utilisation des médias, et notamment les blogs et forums, comme caisse de résonnance à leurs discours (on peut notamment penser à Claude Allègre et Vincent Courtillot, pour le cas de la France) avec une technique de victimisation et un argumentaire de type "théorie du complot".

Dans ce livre, les auteurs montrent la richesse de la stratégie des "deniers" et l'aspect international de leur communication. Ils mettent également en lumière les difficultés de communication des scientifiques.

Une lecture intéressante quand les forums et les blogs regorgent d'adeptes de cette théorie du complot selon laquelle le changement climatique et l'effet des émissions de gaz à effet de serre seraient un hoax. Qui fait regretter la faiblesse de la culture scientifique chez la plupart des journalistes français...



retour au sommaire thématique


Repost 0
12 janvier 2010 2 12 /01 /janvier /2010 21:44
ventes voitures FranceCocorico, les ventes de voitures neuves en France ont progressé de plus de 10% en 2009 par rapport à 2010. Mieux, elles n'ont jamais été aussi élevées depuis 1990 ! Tous nos gouvernants et les médias reprennent donc en coeur cette information, c'est la fête ma p'tite dame.

Petite remarque avant d'aborder le fond de mon sujet, s'il suffit d'une augmentation de 10% de 2008 à 2009 pour que 2009 soit la meilleure année depuis 20 ans, c'est peut-être que la crise du secteur automobile est à rechercher ailleurs que dans la crise économique et une prétendue baisse des ventes : si l'on entre dans les détails, les ventes de 2008 étaient parfaitement dans la moyenne des 5 ou 6 années précédentes (voir graphique à droite, nouvelles immatriculations en France ces dernières années).


Grosso modo, la France se situe dans la moyenne européenne en terme de taux d'équipement, avec environ 600 voitures ou véhicules utilitaires pour 1000 habitants, ce qui représente un peu plus de 30 millions de véhicules individuels. Sachant que la durée de vie moyenne d'un véhicule particulier en France est d'environ 14 ans, les voitures vendues en 2009 resteront donc en moyenne sur les routes jusqu'en 2013. Avec une distance moyenne annuelle parcourue entre 12 000 et 12 500 km par voiture.

Le point où je souhaite en venir, c'est qu'il est assez paradoxal de parler d'émissions de gaz à effet de serre à combattre, de l'échec de Copenhague, et de tous se réjouir en coeur des ventes de voitures neuves en France qui battent des records. Au-delà même des aspects environnementaux, plus personne ne conteste le fait que les prix du pétrole, et donc des carburants automobiles, vont nécessairement croître fortement dans un proche avenir du fait de l'épuisement des ressources pétrolières (pic pétrolier). Sachant qu'un véhicule vendu aujourd'hui restera plus de 10 ans sur les routes, on voit tout de suite que l'adaptation de notre société à un monde pauvre en pétrole va subir une très forte inertie. Cela devrait rendre d'autant plus urgent la préparation de cette adaptation, plutôt que de se réjouir du maintien d'un système qu'on sait ne plus être durable.



retour au sommaire thématique
Repost 0
Published by D. - dans économie
commenter cet article
7 janvier 2010 4 07 /01 /janvier /2010 21:13
cours bourse carbon 07012010Depuis quelques années, les entreprises européennes dont les émissions direct de CO2 sont les plus importantes sont soumises à un système de quota, qu'elles peuvent échanger sur le marché européen d'échange des crédits d'émission  (dont j'ai déjà parlé dans un article dans lequel je soulignais ses grosses imperfections). Jusqu'à présent, l'allocation de ces quotas était gratuite et effectuée par chaque état membre (ce qui était en grande partie à l'origine des imperfections dont j'ai parlé, avec des allocations extrêmement généreuses de la part de chaque état pour ne pas pénaliser sa propre industrie). A tite indicatif, le cours de clôture de la tonne de CO2 ce soir s'établissait autour de 12€ (voir graphique).

L'un des biais de cette allocation gratuite, c'est que les entreprises se sont mis à intégrer dans le prix de leurs produits un coût correspondant à leurs émissions de CO2 ... qui ne leur avaient en réalité rien coûté, d'où des profits inespérés et assez immoraux (les secteurs les plus polluants sont ceux qui se sont vus attribuer le plus de quotas).

Une des manières de corriger ce biais aurait été de cesser les allocations gratuites, ce qui devait en principe se faire à partir de 2013 avec la mise en place un système d'enchères (les quotas actuels avaient été attribués plus ou moins dans le cadre des engagements pris pour respecter le protocole de Kyoto, qui s'achève en 2013, d'où le renouvellement).

Malheureusement (enfin, pas pour l'industrie), la commission a décidé de revenir sur ce changement. A partir de 2013, une partie des quotas sera donc bien attribée par un mécanisme d'enchère, mais plus de 160 secteurs industriels (parmis lesquelles les très polluantes industries métallurgiques ou cimentière) continueront à bénéficier de quotas gratuits du fait de risques de délocalisations. On pourrait même parler de subventions puisque ces quotas, bien que gratuits, pourront être échangés avec une valeur définie par le cours du marché européen d'échange des crédits d'émission. Les secteurs concernés correspondent à environ 50% du total des émissions soumises au marché des quotas.

Cette annonce de la commission européenne, qui marque si besoin était l'échec cuisant de ce système d'échange de quotas, commence tout de même à provoquer quelques remous au sein de certains états membres, qui verraient d'un meilleur oeil la suppression des quotas gratuits pour tous les secteurs industriels, assortie de la mise en place d'une "taxe carbone" au frontière (les entreprises situées hors du sol européen devraient payer des droits pour les émissions de CO2  liées aux produits qu'elles souhaitent vendre correspondant au prix de la tonne sur le marché d'échange européen).

Les semaines ou mois qui viennent seront décisifs dans le choix du mécanisme retenu, choix qui bien que d'apparence assez technique, influera fortement sur l'avenir de la lutte contre les émissions de CO2 en Europe, voire à l'échelle mondiale avec un éventuel effet boule de neige.



retour au sommaire thématique
Repost 0
Published by D. - dans économie
commenter cet article
5 janvier 2010 2 05 /01 /janvier /2010 08:03
Premiers arbitrages et "fuites" sur ce que deviendrait la prochaine mouture de la taxe carbone après que la première a été retoquée par le conseil constitutionnel.

Christine Lagarde a annoncé ce matin que si les entreprises seraient donc bien soumises à cette nouvelle taxe (c'est l'une des raisons pour lesquelles le premier texte, qui ne prévoyait pas cette disposition, a été retoqué), cette taxe serait fixée au cas par cas pour les 1000 entreprises les plus émettrices de gaz à effet de serre, en fonction de la concurrence internationale.

Après les grands discours de Copenhague, il semble donc que le "réalisme économique" reprenne le dessus sur les grandes ambitions... On peut regretter que plutôt que cette solution, Christine Lagarde ne cherche pas plutôt à pousser vers une taxe carbone européenne pour les entreprises (plus de question alors de concurrence, plus de 80% du commerce européen se fait dans les frontières de l'UE) ou vers une taxe aux frontières de l'Europe en fonction du contenu carbone des produits importés...


retour au sommaire thématique
Repost 0
Published by D. - dans actualité
commenter cet article
29 décembre 2009 2 29 /12 /décembre /2009 22:22
Mal née, la taxe carbone était bien partie pour n'être qu'une mesure cosmétique sans aucun effet notable, du fait à la fois de son faible montant et des multiples exemptions. Finalement, elle ne sera même pas ça, puisque la loi qui la mettait en place à partir du 1er janvier, soit vendredi, a été invalidée en totalité par le conseil constitutionnel aujourd'hui.

François Fillon a annoncé qu'un nouveau texte serait proposé en 2010, mais à quelques semaines des élections régionales, il y a peu à espérer....


retour au sommaire thématique
Repost 0
Published by D. - dans actualité
commenter cet article
24 décembre 2009 4 24 /12 /décembre /2009 17:59

Article court pour expliquer en quelques mots la notion de rétroaction et les conséquences de cette notion sur la difficulté de modéliser le climat futur de manière simple, et qui explique en partie le pourquoi de la limite de 2°C d'augmentation que l'on espère ne pas dépasser du fait du réchauffement climatique.

Michael Maier Atalanta Fugiens Emblem 14

Commençons de manière simple.

Lorsque nous brûlons de combustibles fossiles, nous émettons du CO2, le principal gaz à effet de serre, ce qui induit une hausse de la concentration atmosphérique de ce gaz, une augmentation de l'effet de serre, et une hausse des températures. Mon raisonnement est ici linéaire, je suis partie de la combustion des combustibles fossiles, je suis arrivé à la hausse des températures. Tout serait très simple si l'on s'arrêtait à ce stade.

Ajoutons maintenant les rétroactions. On a une rétroaction lorsque l'état final de notre système (nous considérons ici la température), donc l'effet, a lui-même une influence sur l'une de ses causes (boucle de rétroaction) ou sur un autre paramètre qui joue dans son évolution. Le problème de la modélisation du climat, c'est que nous sommes en présence de nombreuses rétroactions qui influent sur l'état d'équilibre final du système. Petit liste non exhaustive :

-  la hausse de la concentration de CO2 dans l'atmosphère induit une croissance plus rapide et importante de la végétation, croissance qui tend à piéger une partie du CO2 atmosphérique.
-  la hausse des températures induit une évaporation plus importante des masses d'eau terrestre. Les nuages formés empêchent une partie des rayonnements solaires d'arriver à la surface de la terre, mais parallèlement la concentration d'eau dans l'atmosphère augmente, l'eau étant elle-même un puissant gaz à effet de serre
-  la hausse des températures des océans diminue leur capacité à piéger le CO2 (la solubilité de ce gaz dans l'eau diminue avec la température), la hausse de la température des océans les conduit donc à relâcher du CO2 ce qui augmente de nouveau l'effet de serre (...)
-  la diminution de la surface des calottes polaires réduit la part des rayonnements solaires réfléchis par la glace, ce qui conduit alors à une hausse de la température de l'eau et à une fonte plus importante de la glace (...)

Globalement, toutes les rétroactions applicables au système "climat" correspondent à une part très importante de la hausse des températures prédites. Il est donc nécessaire pour modéliser le climat de maitriser parfaitement la physique ou la chimie de ces rétroactions, ce qui induit des difficultés supplémentaires à la modélisation.

Cette notion de rétroaction permet, enfin, de comprendre pourquoi la limite de 2°C d'augmentation de la moyenne des températures terrestres a été conseillée. Nous avons vu dans ma liste d'exemples de rétroactions qu'il existe des rétroactions positives, c'est à dire des rétroactions qui tendent à amplifier le phénomène réchauffement climatique. C'est le cas de toutes celles pour lesquelles, de manière caricaturale, la hausse des températures influe sur un paramètre qui a sont tour contribue à amplifier la hausse des températures. Dans un cas extrême, l'état du système peut diverger : il n'y a plus d'état stable, et la hausse s'amplifie continuellement jusqu'à changer profondément la nature du système "terre". Pour faire une comparaison simple, c'est ce qui se passe avec un compte bancaire rémunéré à un certain pourcentage et pour lequel aucun retrait d'argent n'est jamais effectué : les intérêts se cumulent au capital, génèrent également des intérêts, et ainsi de suite, si bien que le montant déposé sur le compte croît exponentiellement.

C'est cette divergence (peu probable si nous limitons effectivement la hausse des températures, loin d'être impossible si nous les "laissons filer") qu'il convient à tout prix d'éviter. Et nous sommes quasiment certains, au vu des modélisations actuelles, qu'une divergence du système est extrêmement peu probable avec une hausse de 2°C. Nous en sommes moins certains avec une hausse plus importante.


retour au sommaire thématique

Repost 0
Published by D. - dans général
commenter cet article
18 décembre 2009 5 18 /12 /décembre /2009 08:22
Comme on pouvait plus ou moins s'y attendre au vue de signes avant-coureurs (voir 1 2 3 4 5), la conférence de Copenhague s'achemine doucement mais sûrement vers un échec, qui devrait être entériné d'ici à la fin de la journée.

Mais pas d'inquiétude, nos dirigeants sauront présenter cet échec comme une grande réussite en le cachant sous le tapis de leurs bonnes intentions : il y aura bien un accord signé, réaffirmant la nécessité de lutter contre le réchauffement climatique et de diminuer les émissions de gaz à effet de serre mondiales de 50% d'ici à 2050 par rapport à leur niveau de 1990. Mais cet accord sera juste un accord politique "d'intentions", sans aucune valeur juridique, ni pouvoir contraignant, ni objectifs intermédiaires chiffrées pays par pays. Ces points, les seuls qui importent réellement (les promesses politiques n'engagent que ceux qui les écoutent), seront reportés à des sommets, conférences et traités ultérieurs. Mais pendant ce temps les émissions mondiales de gaz à effet de serre continuent de croitre, d'environ 3% par an en moyenne. Plus nous tarderons à leur faire prendre le chemin inverse, plus l'effort à accomplir sera rude, voire inaccessible.

Une chose est sure, cette conférence met en lumière une nouvelle fois l'inexistence d'une gouvernance à l'échelle mondiale, l'échec des négociations étant principalement dû aux intérêts contradictoires des pays représentés, entre les exigences de développement des moins industrialisés, et l'absence de volonté des plus industrialisés, sur lesquels repose la responsabilité de la majeure partie des émissions passées, de financer le développement propre des premiers, et de lutter avec suffisamment d'ambition contre leurs propres émissions (l'exemple des USA est parlant). On peut également regretter le rejet total de la société civile de ces négociations, la plupart des ONG ayant été mises dehors manu militari.

Elle met également en lumière l'incompatibilité entre l'échelle de temps des effets du réchauffement climatique et de la lutte à mener contre les émissions de gaz à effet de serre (de l'ordre de la génération humaine) et l'échelle de temps des priorités politiques (qui se calcule en durée de mandat, soit 2 à 5 ans)... Hors de question pour un dirigeant politique dont le principal objectif est d'être réélu, ou d'assurer au moins la prédominance de son partie, d'engager des mesures potentiellement impopulaires donc ceux qui tireront les bénéfices ne sont peut-être même pas encore nés...

Article pas très optimiste aujourd'hui, dû sans doute à une déception proportionnelle aux attentes qu'avait occasionnées cette conférence, et les gesticulations de notre Naboléon assurant que lui vivant un accord ambitieux serait signé, et qu'on allait voir ce qu'on allait voir...



 retour au sommaire thématique
Repost 0
Published by D. - dans actualité
commenter cet article
15 décembre 2009 2 15 /12 /décembre /2009 21:14
BMW CleanEnergy car - VerkehrszentrumUn peu de science aujourd'hui suite à la lecture d'un article de chimie récent...

La plupart des patrons des grandes entreprises automobiles "vendent" régulièrement l'hydrogène comme le carburant du futur (ce qui me fait penser qu'il faudrait que j'écrive une série d'article sur ce sujet sur lequel je donne quand même un cours...).

L'un des problèmes majeurs qui fait que nous n'avons pas encore tous des voitures à hydrogène dans nos garages (il y en a d'autre) est constitué par la production de ce gaz. En effet l'hydrogène, ou plutôt le dihydrogène H2 pour être rigoureux, n'existe quasiment pas sur terre, et il doit être fabriqué, les deux sources possibles les plus abondantes étant les hydrocarbures et l'eau.

A l'heure actuelle, la majeure partie de la production mondiale d'hydrogène se fait à partir d'hydrocarbures, ce qui outre le fait de nécessité une quantité d'énergie importante, produit des quantités non moins importantes de CO2 ce qui limite fortement le potentiel de cette technologie dans la lutte contre les émissions de gaz à effet de serre et le réchauffement climatique. Mais alors, pourquoi ne pas le produire à partir d'eau ? oui, pourquoi ?

Et bien la réponse est à la fois technologique et économique. Pour produire du dihydrogène à partir d'eau, il faut effectuer une électrolyse (pour les non-chimistes, il faut casser la molécule d'eau en la soumettant à une tension électrique). Mais cette électrolyse de l'eau a le mauvais goût de devoir être catalysée par le platine (grosso modo pour les non-chimistes, ça signifie que pas de platine = pas d'électrolyse, ou alors très très (mais alors très) lente). Et le platine a le mauvais goût à son tour d'être horriblement cher (1 200 € l'once de 28g à l'heure où j'écris cet article) et plutôt rare, avec une production mondiale de 150 à 200 tonnes pas an... Donc on oublie les voitures à hydrogène tant qu'une autre solution n'a pas été trouvée.

Et hop, voilà toute trouvée ma transition vers ce dont je voulais parler : dans un article récent paru dans Science (résumé), une équipe de chercheurs français du CEA et de l'Université de Grenoble annonce qu'ils ont mis au point un catalyseur à base de nickel (à la fois beaucoup plus abondant et moins cher que le platine) pour l'électrolyse de l'eau. Ce catalyseur, la nickel bidiphosphine, imite une enzyme naturelle. Une fois déposé sur des nanotubes de carbone, il permet d'obtenir une électrolyse de l'eau... sans platine. Certes le rendement annoncé par les auteurs est à peu près 100 fois plus faible que ce qui se fait habituellement avec du platine. Mais c'est la première fois qu'un catalyseur sans platine est mis au point et qui fonctionne dans des conditions réelles d'utilisation. A priori une avancée majeure dans le domaine, qui pourrait contribuer à lever l'un des verrous à l'avènement de cette technologie.


retour au sommaire thématique
Repost 0
Published by D. - dans solutions
commenter cet article
13 décembre 2009 7 13 /12 /décembre /2009 19:30
Schumacher (Ferrari) in practice at USGP 2005Une bonne nouvelle la semaine dernière.

Il y a quelques mois, j'avais parlé du projet du département des Yvelines d'accueillir le futur Grand Prix de France de F1, au coeur d'une zone réservée au départ pour de l'agriculture biologique.

Je ne sais pas si les pétitions s'opposant au projet, l'atmosphère de Copenhague, ou simplement les sondages donnant Valérie Pécresse perdante contre Cécile Duflot (porte parole des Verts) aux élections régionales ont joué, toujours est-il que le projet a été abandonné !

Pour l'instant ça ne signifie pas qu'il n'y aura pas de grand prix de France, deux candidats restant sur les rangs (Nevers et Marne-la-Vallée), mais il s'agit tout de même d'une très bonne nouvelle. Peut-être que les responsables politiques vont commencer à comprendre que la formule 1 n'est pas le meilleur investissement pour l'avenir...



retour au sommaire thématique
Repost 0
Published by D. - dans actualité
commenter cet article