Canalblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Publicité
Modélisation du réchauffement climatique
17 juin 2019

Défauts majeurs des Modèles Actuels de Changement Climatique.

cm

(Figure empruntée à Florent BRIENT issue de https://climate-dynamics.org/reducing-uncertainties-in-climate-projections-with-emergent-constraints-part-1-concept/)

Ce que nous appelons ici "Modèles actuels de changement climatique" (MACC), ce sont les modèles très lourds mis au point par des équipes de climatologues du monde entier et repris par le GIEC. Le graphique ci-dessus présente les évolutions de température pour 29 d'entre eux, tous placés dans le mêmes conditions de forcage radiatif provoqué par les GES. 

Nous voyons au moins trois types de défauts majeurs propres à ces MACC:

 1) Défauts liés au fait que ce sont des "Modèles par les observations":

«Il y a un problème de crédibilité des modèles de changements climatiques et des prédictions qui en sont déduites. Ces modèles concernent en effet un domaine - le climat - où le nombre de données disponibles est petit par rapport au nombre de variables qui sont prises en compte dans leur construction, sans parler des variables encore inconnues. Cela implique qu'il existe un grand nombre de bons modèles, capables de rendre compte des observations disponibles, alors même qu'ils reposent sur des hypothèses explicatives différentes et conduisent aussi à des prédictions différentes, voire opposées. Il s'agit là d'une situation dite "des modèles par les observations", cas particulier de "sous-détermination des théories par les faits", bien connue des chercheurs engagés dans la construction de modèles de systèmes complexes naturels, où le nombre de données ne peut pas être multiplié à l'envi par des expérimentations répétées et reproductibles. Conséquence : les modèles sur les changements climatiques ne peuvent être que des hypothèses, mises en formes informatiques très sophistiquées mais pleines d'incertitudes quant à leur relation à la réalité ; et il en va de même des prédictions qui en sont déduites.» (d'après Henri ATLAN, dans https://www.lemonde.fr/idees/article/2010/03/27/la-religion-de-la-catastrophe-par-henri-atlan_1325086_3232.html).

Autrement-dit, pour ce scientifique et philosophe, ces modèles sont un peu obtenus de la même manière qu'on compléterait un système d'équations algébriques à 100 équations et 100 inconnues à partir de la seule connaissance de 10 équations d'entre elles, cela dans le but d'obtenir les valeurs de ces 100 inconnues: il y aurait une infinité de possibilités pour compléter le système, donc aussi une infinité de valeurs possibles pour ces inconnues.

Henri ATLAN parle en connaissance de cause car lui-même au cours de sa carrière scientifique a dû mettre au points des "modèles par observation des faits" dans son domaine de la recherche médicale et a pu mesurer pleinement les limites de la méthode.

Sa position est précisée plus en détail dans cette vidéo:

 https://medias.ircam.fr/xea4b43_chapitre-4-sous-determination-de-la-theor

 Et cette position est confirmée par ce qu'en disent ceux qui connaissent les "secrets de fabrication" de ces MACC:

Des modèles de circulation générale représentent les différents compartiments par un maillage tri-dimensionnel.
C'est l'augmentation de la capacité de calculs des ordinateurs qui a permis les progrès dans la modélisation de plus en plus fine du système climatique par l'intermédiaire d'un découpage en latitude, longitude et altitude des compartiments en un réseau de mailles. Chaque maille du réseau peut donc être considérée comme une "boîte" à l'intérieur de laquelle s'effectue le traitement des équations prenant en compte des phénomènes à grandes et petites échelles (exemple des couplages entre différentes enveloppes, des nuages...). Selon la résolution spatiale du maillage et les choix d'approximation des phénomènes complexes, différents modèles sont proposés par plusieurs laboratoires (environ une quinzaine actuellement). ( dans http://acces.ens-lyon.fr/acces/thematiques/paleo/modeles/edgcm-outil-de-modelisation-climatique/comprendre-la-modelisation-du-climat)

2) Défauts liés aux limites des performances de la technologie utilisée:

Par leurs effets de serre ou au contraire refroidissant, les nuages ont une influence énorme sur la température.

Leurs échelles dynamiques (de l'ordre de quelques dizaines de mètres) étant beaucoup plus petites que celles des maillages des grilles des MCAM (au minimum 25km), les modélisateurs doivent donc intégrer à l'échelle de la grille de ces modèles des paramétrisations de la température, de l'humidité, de l'effet albédo, etc..., permettant de tenir compte de la dynamique de ces nuages, insoluble à petite échelle. Cela est difficile à faire et crée beaucoup d'incertitudes. 

Pour avoir plus de précisions sur ce problème et les solutions que les climatologues tentent de mettre au point, voir par exemple cet article du climatologue Florent BRIENT, d'où d'ailleurs provient le graphique mis en tête:

https://climate-dynamics.org/reducing-uncertainties-in-climate-projections-with-emergent-constraints-part-1-concept/

C'est bien là que se trouve en grande partie l'explication de la grande dispersion finale des températures données à terme par les MACC, telle qu'on la voit très clairement sur ce graphique. 

 Et ce problème majeur ne pourra que perdurer encore très longtemps car même si les performances des hyper-calculateurs utilisés continuaient à progresser de manière exponentielle (et ce n'est plus le cas), il faudrait au moins une cinquantaine d'années pour qu'ils soient capables de travailler avec une finesse de maillage suffisante pour gérer directement et explicitement les effets de ces nuages. Et dans 50 ans, cela ne servira plus à grand-chose puisque nous vivrons déjà les réponses aux questions actuelles liées au réchauffement climatique.

3) Défauts liés au fait que le système dynamique en jeu est fortement non linéaire: 

 Nous en sommes très loin comme nous venons de le voir, mais supposons qu'un MACC soit entièrement réaliste: les conditions initiales y sont correctement et complétement rentrées, les équations et relations modélisant l'évolution du système dynamique à partir du temps t=0 sont valides, réalistes et complètes, et la technologie est assez avancée pour pouvoir prendre en compte même les échelles les plus fines sur lesquels il y a des effets sur le climat.

Dans ces conditions optimales, serions-nous pour autant  assurés que les prédictions à long terme de ce modèle soient exactes?

La réponse semble a priori négative car le système dynamique en jeu est non linéaire et donc certainement chaotique: de très lègères variations par rapport aux conditions initiales réelles, par exemple les simples arrondis qui sont obligatoires aussi précis que soit le modèle, peuvent amener à long terme de grosses variations. Donc conduire à des erreurs ou incertitudes importantes sur les prédictions données par le modèle sur le long terme. 

Car maints phénomènes climatiques en jeu sont rendus par des équations aux dérivées partielles non linéaires, et l'on sait que cela débouche sur des effets chaotiques, donc ne permettant pas des résultats à long terme solides et fiables. C'est le fameux "effet papillon" introduit par le climatologue Edward Lorenz  en 1972: les erreurs s'amplifient exponentiellement en fonction du temps.

Cela dit, et comme l'explique très bien le physicien Raoul ROBERT dans l'article https://interstices.info/leffet-papillon-nexiste-plus/ , le fait qu'il y ait justement un grand nombre de variables en jeu dans les MACC, et non pas seulement quelques unités comme dans le modèle historique utilisé par Lorenz, pourrait avoir un effet régularisateur qui linéariserait le plus souvent l'effet de ces erreurs: c'est à dire, quand le temps double, l'erreur se contenterait de doubler  et ne croitrait pas exponentiellement comme Lorenz le prévoyait.

Un peu comme en physique statistique pour les molécules qui ont des mouvements aléatoires, et dont on est incapable de prévoir leur mouvement particulier, erratique et chaotique. Mais précisément parce qu'elles ont ce comportement chaotique, prises en grand nombre elles se distribuent de façon assez homogène dans l'espace ce qui permet de prévoir avec fiabilité des grandeurs macroscopiques comme la pression, la densité ou la température.

Mais nous objectons à cela que les variables en jeu dans les MACC sont de quelques milliers, c'est-à-dire certes bien plus que les quelques variables du modèle de Lorenz, mais bien moins que les millions de molécules présentes dans un récipient quelconque. Donc l'effet statistique joue certainement mais pas de façon aussi radicale que pour les molécules où "l'effet papillon" disparaît complétement au niveau macroscopique.

D'ailleurs, si c'était le cas, pourquoi quand il s'agit de faire des prévisions saisonnières, les météorologues ne sont-ils capables que de prévoir une tendance, mais rien de précis? Pourtant ils utilisent le même type d'outils et de modèles  que ceux utilisés par les climatologues travaillant pour le GIEC.

Et puis même si les erreurs augmentaient avec le temps de manière linéaire et non exponentielle, sur des durées de 50 ou 100 ans elles deviendraient tout de même importantes puisque fondées sur des données prises sur des périodes beaucoup plus courtes, la plupart de l'ordre de la journée, de la semaine ou de l'année.

CONCLUSION: Si on veut que l'humanité ne se lance pas à l'aventure à partir d'une mauvaise analyse des problèmes, il faut absolument et rapidement mettre au point un modèle n'ayant aucun, ou le moins possible, de ces défauts majeurs. C'est l'objet du travail dont nous rendons compte étape après étape sur ce blog.

 

Publicité
Publicité
Commentaires
Modélisation du réchauffement climatique
  • L'auteur de ce blog propose une modélisation du réchauffement climatique qui se veut à la fois simple et fiable. Le blog a pour objectif essentiel de présenter ce modèle, d'en discuter et éventuellement de l'améliorer.
  • Accueil du blog
  • Créer un blog avec CanalBlog
Publicité
Archives
Publicité