avec Philippe de Larminat
Intéressé depuis longtemps par les questions climatiques, Philippe de Larminat a pressenti que son expérience en théorie des systèmes pouvait y apporter une contribution originale. Lui-même professeur (classe exceptionnelle) à l'École Centrale, et conseiller scientifique (EDF, Renault, Alstom, Thalès...), il s'est étonné que cette technique n'ait pas encore été exploitée sérieusement par les climatologues. Ses travaux, engagés il y a maintenant trois ans, ont abouti a des résultats exposés dans un ouvrage paru aux éditions scientifiques ISTE (Londres) Changement climatique : identification et projections. Il est loin de partager le catastrophisme climatique de rigueur et nous explique pourquoi.
Monde et Vie : Philippe de Larminat, peut-on dire que vous êtes un militant « anti-réchaufïste » ou « climat-sceptique » ?
Philippe de Larminat : Je ne me reconnais pas dans ces appellations malsonnantes. Tout d'abord, le réchauffement climatique intervenu au cours du siècle dernier est un fait, que personne n’a idée de nier. Mettre en question la cause humaine de ce réchauffement est autre chose, qui relève d'un scepticisme d'ailleurs parfaitement légitime, et qu'il ne convient pas d'amalgamer à un quelconque négationnisme. Mais il ne s'agit pas ici de compiler les divers arguments - pas toujours pertinents - avancés avant moi par des climat-sceptiques plus ou moins illustres. Mon travail conduit effectivement à mettre en doute les conclusions du GIEC (Groupe d'experts Intergouvernemental sur l'Évolution du Climat, émanation de l'ONU), mais ce n'est là qu'un aspect collatéral. J'ai cherché à dégager des certitudes, ce qui est le contraire du scepticisme.
Pour y parvenir, je traite mathématiquement des données climatiques homologuées par les rapports d'évaluation du GIEC, en particulier le cinquième rapport, paru en septembre 2013 (1500 pages, 9000 références scientifiques).
De quelles certitudes s'agit-il ?
Selon le GIEC, le réchauffement climatique est potentiellement catastrophique, et la cause humaine est extrêmement probable. À l'inverse, je montre que les causes naturelles sont prépondérantes, et que la contribution de l'activité humaine est très incertaine, éventuellement insignifiante.
Cette conclusion présente des implications politiques majeures et, en tant que citoyen, j'ai évidemment quelque opinion à ce sujet. Néanmoins, je tiens à limiter cet entretien aux aspects exclusivement scientifiques, éloigné de tout militantisme. Lorsque j'ai engagé mes recherches, je ne savais pas exactement ou elles allaient conduire, et certains résultats ont été pour moi quelque peu inattendus.
J'ai cherché à dégager des certitudes. Je ne suis pas un climat-sceptique
Vous nous avez parlé d'une approche par identification. Pouvez-vous expliquer simplement aux lecteurs de MondeetVie de quoi il s'agit ?
Identifier un système consiste à en déterminer un modèle mathématique, sur la base des causes et des effets observés sur une période de temps convenable. À l'inverse, les modèles sur lesquels le GIEC fonde ses simulations et ses prévisions sont basés sur la connaissance a priori des lois de la physique climatique.
Ainsi, lorsque vous chauffez une pièce avec un convecteur, et que vous voulez prévoir la température en fonction de la puissance appliquée, deux voies se présentent. La première consiste à calculer à l'aveugle, selon les lois de la physique, comment la puissance va se transmettre par conduction, convection et rayonnement, s'accumuler dans les inerties thermiques constituées par les murs, le mobilier; calculer les pertes en fonction de l'isolation et des conditions météorologiques ultérieures. Plus on entre dans les détails, plus cela devient effroyablement - et inutilement - compliqué. En l’absence de données extrêmement précises, le modèle de chances de reproduire le comportement thermique réel qu'en aurait eu la sonde Rosetta de rejoindre sa cible sans réajustement de trajectoire.
La seconde voie consiste à ouvrir les yeux, à observer et enregistrer le comportement de la température intérieure au cours d'une période où les causes (puissance de chauffe et conditions extérieures) auront présenté des variations significatives. On conçoit qu'un modèle mathématique simple (quelques coefficients de proportionnalité et quelques retards de réaction) suffise à rendre compte de la sortie observée (la température de la pièce) en fonction des variations des entrées causales. Pour « identifier » ces coefficients, on pourra tout simplement simuler le modèle à partir des entrées enregistrées, et ajuster les paramètres en sorte de minimiser l'écart entre la sortie simulée et la sortie enregistrée. Le modèle ainsi obtenu sera à la fois simple et abstrait, sans relation explicite avec la physique, mais parfaitement exploitable pour prévoir le comportement futur de la sortie (l'effet) en fonction des divers scénarios imaginables concernant les entrées causales.
Mais le climat planétaire est un processus autrement plus complexe qu'un simple chauffage domestique !
Dans le détail, très certainement, mais si l'on s'en tient au climat global, c'est à peine plus compliqué. La variable universellement considérée comme représentative du changement climatique est la moyenne annuelle, relevée sur l'ensemble de la surface du globe. Les causes répertoriées, susceptibles de la faire varier, sont au minimum au nombre de trois : activité humaine, représentée par la concentration de C02 atmosphérique, l'activité solaire, mesurée par l'irradiance totale, et l'activité volcanique, évaluée à travers les variations de transparence atmosphérique induites par les aérosols éruptifs.
S'il s'avère que l'on peut identifier un modèle capable d'expliquer la température globale en fonction des trois entrées explicatives, on aura franchi une étape essentielle, non pas dans la compréhension intime du climat, mais dans notre capacité à effectuer des projections dans le futur.
Seuls, les modèles climatiques détaillés du GIEC sont potentiellement capables de décrire les modalités régionales et les événements climatiques qui accompagneront le réchauffement futur. Ceci sous réserve évidemment que celui-ci soit globalement conformé à la réalité. Dans le cas contraire, les simulations numériques les plus sophistiquées s'apparentent au filtrage de la mouche pour faire avaler le chameau (Mt. 23,24).
Avant d'évoquer ces conclusions, pouvez-vous préciser vôtre démarche ?
Jusqu'ici, personne n'avait tenté (ou du moins n'était parvenu) à appliquer les techniques de l'identification dans toute leur rigueur au système climatique. L'identification relève pourtant de la théorie des systèmes, enseignée dès la seconde ou troisième année des cursus scientifiques universitaires. En l'espèce, son application n’est pas vraiment triviale. Tout d'abord, les événements climatiques se déroulent selon des échelles de temps diverses, aussi bien les années, les dizaines d'années, les siècles, ou même les millénaires. C'est donc sur des durées de cet ordre qu'il faut observer les signaux climatiques. Or les mesures instrumentées ne concernent que le passé récent Pour les climatologues, « l'histoire » commence en 1850, et les périodes antérieures relèvent d'une « paléoclimatologie », qui fait appel à des mesures de substitution, telles que les cernes de croissance des arbres, la composition isotopique de l'atmosphère archivée dans les calottes glaciaires, et bien d'autres. Les reconstitutions de température ou d’irradiance solaire ainsi obtenues sont parfois discordantes, et la tentation peut être grande de pratiquer ce que les anglo-saxons dénomment le cherry picking : picorage de données en fonction de ce que l'on voudrait démontrer. Pour ma part, j'ai travaillé sur un ensemble de données représentatif de la variété de celles qui sont mises à la disposition des scientifiques par des organismes tels que la NASA, ou les offices météo anglais (le MET) et américains (la NOAA).
Par ailleurs, même sur des durées de l'ordre du millénaire, les grands événements climatiques sont rares (période chaude médiévale, petit âge glaciaire, réchauffement moderne). Compte tenu de ce fait, le degré de complexité du modèle est un point sensible : trop simple, il est incapable de la réalité, trop richement paramétré, il permet de faire coïncider n'importe quoi avec n'importe quoi. En fin de compte, l'identification demande de faire appel aux ressources de la statistique et des tests d'hypothèses pour discriminer entre la thèse de là prépondérance de l'activité humaine ou celle de l'activité solaire dans le réchauffement moderne.
« La contribution de l'activité humaine apparaît très incertaine, mais de toute façon non majoritaire »
Finalement, quelle est la différence entre vos modélisations et celles du GlEC ?
Lors de son assemblée plénière du 26 septembre 2013 à Stockholm, le GIEC a proclamé que le réchauffement moderne était dû à l'activité humaine avec une probabilité de plus de 95 %. La détermination d'une probabilité par consensus entre des délégations gouvernementales est une révolution épistémologique majeure, dont l'humanité restera éternellement redevable au GIEC.
Plus sérieusement, les modèles identifiés diffèrent selon les données climatiques retenues. Très schématiquement, selon les modèles identifiés, il apparaît que 30 à 60 % du réchauffement moderne est imputable à l'activité solaire, 30 à 60 % à la variabilité naturelle du climat… et le complément à l'activité humaine. Complément qui pourrait donc atteindre le niveau préoccupant de 40%, mais pourrait aussi bien être négatif (-20 %), lorsque la somme des deux premiers atteint 120 %. En d'autres termes, la contribution de l'activité humaine apparaît très incertaine, mais de toute façon non majoritaire. Les résultats les phis proches de ceux du GIEC sont d'ailleurs issus de données climatiques contestables., les fameuses courbes de température en « crosse de hockey », qui effacent en quasi-totalité les événements climatiques avérés que sont la période chaude médiévale et le petit âge glaciaire (respectivement vers les dixième et dix-septième siècles de notre ère).
Mais pourquoi sériez-vous plus crédible que le GIEC en corps constitué ?
D'abord parce que mes modèles sont basés sur les observations. Depuis que la science existe, ce sont elles qui doivent avoir le dernier mot, et mon approche consiste à laisser parler librement les observations, à travers une identification effectuée sans la moindre contrainte, issue de quelque connaissance a priori que ce soit.
Ensuite parce que les modèles identifiés conduisent à des prédictions conformes à la réalité. Évidemment, on parle ici de prédictions a posteriori, (hindcast, comme disent les Anglo-saxons). Typiquement on se place dans la situation de l'an 2000, où l'on ignorait la « pause climatique » qui allait suivre le réchauffement global semble effectivement bloqué depuis cette date. Étonnamment, les modèles identifiés à partir des données réduites au millénaire antérieur à 1999 reproduisent tous de façon très nette la pause qui a suivi, alors qu'aucun des modèles du GIEC ne montre la moindre réduction ultérieure de la tendance au réchauffement Et le GIEC en est réduit à expliquer ce défaut par la contribution d'une variation naturelle imprévisible, à laquelle il s'était bien gardé de faire appel pour expliquer la vigueur du réchauffement antérieur.
Votre conclusion ?
Selon certains tenants d'une décroissance mondiale impérieuse, l'humanité court à sa perte, et pouline quantité de raisons, la pollution, la démographie, le gaspillage des ressources naturelles, et surtout le péril climatique. À la limite, si ce dernier n'existait pas, il faudrait l'inventer pour susciter le sursaut salvateur.
Un prochain retournement de la tendance climatique n'étant pas à exclure, il faut de toute urgence faire le forcing pour des accords contraignants de réduction delà consommation des ressources naturelles, et tout particulièrement celle des énergies fossiles. Dans ce contexte, à l'approche du sommet climatique de décembre 2015, le souci de là vérité scientifique ne va certainement pas peser lourd.
Propos recueillis par l'abbé G. de Tanoüarn
Mondeetvie 3 décembre 2014 n°900
Aucun commentaire:
Enregistrer un commentaire