Canalblog
Suivre ce blog Administration + Créer mon blog

Modélisation du réchauffement climatique

10 juillet 2023

Origines de la "nervosité climatique actuelle" et de son accentuation actuelle.

La suite de mon article de 2021 (https://journals.openedition.org/physio-geo/12176) vient d'être mise en ligne:

https://www.innovationforever.com/article.jmge20230056

Comme vous le verrez (si vous allez dessus!) je donne une autre explication climatologique du phénomène probabiliste identifié dans mon article précédent et propose un modèle qui la valide dans une certaine mesure.

Bonne lecture et d'avance merci pour vos réactions et critiques.

Eric ZELTZ

Publicité
Publicité
6 juillet 2019

Nature mathématique des distributions des températures: stable, gaussienne, autre?

 

mandelbrot

Le mathématicien Benoit Mandelbrot (1924-2010) a montré que les cours boursiers avaient un comportement chaotique et que leurs courbes d’évolutions  étaient d’allure fractale : si on prend l’allure générale d’une courbe boursière sur un an, il est possible de retrouver un motif similaire à des échelles de plus en plus petites, de l’ordre d’un mois, d’une semaine ou d’une journée. Cela montre donc en bourse que le comportement du marché passé a une influence sur celui à venir.

Il a établi que la dépendance reliant le prix au temps est caractérisée par la dimension fractale : plus elle est proche de 1, plus il est possible de faire une prévision à long terme. Plus cette dimension tend vers 2, moins les prévisions faites grâce aux fractales sont exactes.

Cela permet de générer des courbes boursières plausibles, en réitérant avec des échelles de plus en plus petites le même motif.

Voilà un exemple: 

fract

Voilà ce qu'écrivait Mandelbrot là-dessus: 

"Sur le plan pratique, cette constatation laisse imaginer qu'on pourrait utiliser un générateur de fractales à partir des données historiques des marchés financiers. Le modèle utilisé ne se contente pas simplement d'inspecter ce que le marché a fait hier ou la semaine dernière. Il est une représentation plus réaliste des fluctuations du marché, appelé mouvement brownien fractionné en temps multifractales de négociation. Les graphiques ,créés à partir des générateurs et de l'historique des cours, produisent des modèles permettant de simuler des scénarios alternatifs basés sur l'activité antérieur du marché.
Ces techniques ne donnent pas la prévision d'une baisse des prix ou d'une hausse pour un jour donné. Mais ils fournissent des estimations de la probabilité de ce que le marché pourrait faire et permettent de se préparer aux changements inévitables. Les nouvelles techniques de modélisation sont conçus pour nous éclairer sur les marchés financiers. Ils reconnaissent aussi l'avertissement du navigateur: même sur une mer calme, un coup de vent peut-être à l'horizon." (voir https://www.next-finance.net/Une-approche-fractale-des-marches)

Une question interessante et même capitale par rapport à notre projet de construire un modèle du réchauffement climatique en découle:

Est-ce que les fluctuations des températures sont d’allure fractales et ont une distribution "stable" (par opposition à gaussienne) comme les cours de la bourse, ou est-ce qu’elles suivent une distribution gaussienne, comme pour le mouvement brownien? Ou ni l'une ni l'autre?

La question nous paraît d'importance, et à notre connaissance, elle n'a jamais été posée.

Pour avoir une première approche de la réponse, partons de ce graphique qui représente l’évolution des températures de surface marines (SST) publiée par la NOAA :

sst

La courbe en rouge donne les températures toutes les semaines. La courbe en jaune celle des températures moyennes tous les 6 mois. 

Voilà ce que nous obtenons en itérant 3 fois la fractale à partir de 4 valeurs de la courbe rouge répartie sur une période de 6 mois

frr

Nous constatons que les oscillations réelles sont nettement plus marquées encore que ce que donne la fractale pour un pas d'une semaine. Donc au moins sur cet exemple il semble que l'aspect chaotique soit encore plus marqué que dans le cas boursier, où la fractalisation donne des évolutions des cours boursiers  tout-à-fait réalistes pour des échelles de temps plus petites.

Or c'est pour cela que Mandelbrot a contesté fortement que les distributions des cours de bourse soient gaussiennes, comme les théories classiques le préconisent (par exemple celles qui ont établi la formule de Black-Scholes). Ces théories classiques ne peuvent anticiper les krachs boursiers car pour elles, ils sont trop improbables. Et la réalité historique a montré exactement le contraire.

Et comme nous venons de le remarquer sur l'exemple des SST, il semble que ce ne soit pas suffisant pour les températures: Les oscillations très fortes semblent encore plus fréquentes et importantes, donc les événements qui auraient été négligés par une distribution gaussienne sont encore plus fréquents que le prévoirait même une distribution "stable", pourtant adaptée au chaotique et débouchant sur du fractal.

A creuser et à vérifier.

27 juin 2019

Justification des choix faits pour établir notre modèle.

terre

Le modèle de Lorenz est evidemment très insuffisant pour permettre de prévoir la température moyenne du globe.

Mais son étude va nous aider à justifier notre approche.

Dans ce qui donne la température moyenne au sol de la planète, il y a des paramètres qui sont indépendants du réchauffement climatique, d'autres qui en dépendent.

Parmi ceux du premier type, il y a les chaotiques et les  non chaotiques.

1- Pour les paramètres chaotiques, nous pouvons estimer que ça se passe comme pour le flot de Lorenz et que donc sur une période de 50 ans, le "mélange" a largement pu se faire et que donc leur moyennisation donne des constantes qu'il n'y a pas de raison de ne pas retrouver dans toute période de même longueur. Expliquons sur un exemple: si l'on met une goutte d'encre dans un verre d'eau, au bout de quelques secondes, l'eau prend une couleur homogène. A la fin de la minute la couleur obtenue est stable et demeurera dans la ou les minutes suivantes: les particules colorées continuent à bouger chaotiquement de la même manière qu'au départ, mais l'homogénéisation étant faite, la couleur moyenne ne s'éclaircit pas ni ne s'assombrit durant la deuxième, troisième, etc..., n-ième minute.

2- Pour les paramètres non chaotiques, si la période est assez longue pour qu'ils puissent prendre au moins une fois toutes les valeurs possibles par rapport aux cycles qui sont en jeu, il en sera de même que pour les paramètres chaotiques: leur moyennisation sur toute la période longue donne des constantes qu'on doit retrouver sur toute période similaire.

Or la longueur de 50 ans (1970-2019) nous semble largement suffisante pour intégrer les cycles les plus déterminants à moyen terme, notamment solaires et marins.

Venons en maintenant aux paramètres du second type, c'est-à-dire à ceux qui sont impactés par le réchauffement et pouvant avoir des effets rétroactifs sur la température. Quels sont-ils?

Nous en voyons principalement trois:

1- L'évaporation supplémentaire qui entraine l'augmentation des nuages et des précipitations. Il est géré par notre modèle (voir le paragraphe III de http://modeleclimatique.canalblog.com/archives/2019/06/12/37424134.html)

2- Les modifications d'albédo (= réverbération des rayons solaires) notamment provoqués par les fontes de glace ou au contraire les phénomènes de "givrage" qui peuvent se faire à grande échelle, comme lorsqu'un réfrigérateur est mal isolé (c'est ainsi que nous expliquons l'extension de la zone glacée constatée au Pole Sud). Nous l'avons pour l'instant négligé car nous pensons que les deux aspects (fonte et givrage) se neutralisent grosso-modo. Mais par la suite nous vérifierons certainement ce point de manière plus approfondie.

3- L'évolution de la végétation: Il y aura certainement des phénomènes de sahélisation voire de désertification dans certaines régions du globe, ce qui a un effet rétroactif positif sur la température. Mais dans d'autres régions, il y aura aussi une augmentation de la végétation comme cela se voit déjà dans l'hemisphère Nord (cf http://modeleclimatique.canalblog.com/archives/2019/06/12/37424198.html). Cela a certainement des effets rétroactifs cette fois négatifs sur la température. Donc comme pour les modifications d'albédo, nous pensons que le bilan des modifications de la végétation est à peu près neutre, c'est pourquoi notre modèle néglige cet aspect. Mais nous ne nous interdisons pas d'en faire aussi une vérification plus approfondie par la suite.

 En définitive, voilà l'essentiel de ce qui justifie que notre modèle se construise à partir des seuls résultats connus et moyennisés des cinquante dernières années et ne fasse ensuite intervenir comme élément nouveau que les évolutions d'émissions de GES et l'effet "prédateurs-proies" des nuages bas sur la température.

26 juin 2019

Réactions de "TreizeVents" à propos de mon modèle.

treize vents

J'imagine qu'intellectuellement parlant la démarche intéressante au moins à titre personnel. Néanmoins, ce qui me paraît extrêmement illusoire, c'est de penser qu'on peut arriver à un résultat plus fiable en partant d'un modèle simplifié. Le principe même d'une simplification, c'est de réaliser une estimation / simulation moins complexe (et quelque part atteignable), en acceptant l'idée que cela engendre nécessairement une perte de fiabilité - le tout étant que la marge d'erreur soit considérée comme acceptable au regard de ce qu'on veut en faire. Si on pouvait parvenir à un résultat plus fiable en ignorant ou en moyennant / diluant un certain nombre de paramètres au motif que cela devient trop compliqué, on ne se serait jamais cassé les c... à complexifier les modèles climatiques et/ou météorologiques. C'est vrai tant pour le climat (prévisions de l'état global de l'atmosphère en 2060) que pour la météorologie (combien il fera à Cosne sur Loire en Tn après-demain). Personnellement, je n'ai jamais vu nulle part que moyenner entre elles des incertitudes indépendantes permettait in fine de les réduire. L'idée de faire un "mini-modèle" n'est certainement pas une mauvaise chose (je m'y suis essayé il y a des années sur un truc ridiculement simple, Météor aussi sur quelque chose de plus élaboré que moi), mais ça me gène profondément de croire qu'on peut arriver avec ça à quelque chose de plus fiable au final que des modèles patiemment développés années après années par des physiciens et des chercheurs. Cela ne sous entend pas que les modèles du GIEC sont complets et parfaits, loin s'en faut, mais c'est pas en réinventant la trottinette électrique qu'on va révolutionner le marché de l'automobile.

 eric zeltz

Je te conseille de bien lire mon message intitulé "L'une des idées du modèle" et celui qui va suivre.

 treize vents 

Autre chose que je trouve étonnante, c'est que la démarche vise à simplifier en retirant un maximum de paramètres, ce qui se résume au final à n'en retenir qu'un seul, l'interaction avec les nuages bas. Quelque part, pourquoi spécifiquement les nuages bas ? J'ai peut-être lu un peu vite, mais je n'ai pas vu d'explication sur ce choix. Certes, c'est une incertitude réelle, et probablement la plus médiatisée notamment sur les sites sceptiques avec les théories sur les rayons cosmiques. Cela ne veut pas dire ni que c'est la seule, ni que c'est forcément la plus importante, et du coup on ne comprend pas forcément le fondement de ce choix.

 eric zeltz

Tu verras une explication assez détaillée de ce choix dans le paragraphe III du message intitulé "Un modèle simple du réchauffement climatique".

treize vents 

Et juste pour le dernier point, on peut comprendre parfaitement la démarche de se fonder sur les observations décennies écoulées (depuis 1970) pour bâtir la projection, mais cela sous tend qu'on estime dans les ordres de grandeur qu'il n'existera pas d'effets de seuil, pas d'évolutions des équilibres des mécanismes climatiques, etc... Bon encore une fois pour un modèle simplifié c'est tout à fait cohérent, mais de là à croire que cela sera suffisant pour faire mieux que les modèles climatiques, il y a un gouffre. Pour un exemple simple, il est écrit que : 

  Citation

Cette période est suffisamment longue pour moyenniser convenablement les fluctuations provoquées par les cycles solaires (d'une durée d'environ 11 ans) et océaniques (suite aux courants, l'eau en surface des océans est renouvelée environ tous les 50 ans), ainsi que celles causées par des événements plus aléatoires comme les éruptions volcaniques ou El Nino. 

Or, la plupart des modèles indiquent justement que dans un monde plus chaud, on risque de faire basculer l'équilibre des régimes de l'ENSO (El Niño / La Nina) vers davantage d'épisodes El Niño, voire même au pire et à très long terme vers un El Niño constant*. Par essence, c'est quelque chose que le modèle simplifié basé sur des observations des dernières décennies ne peut capter, et qui aura pour autant un impact potentiel significatif sur les décennies à venir. 

* Même si, pour être complet et entièrement objectif, on relèvera que les observations des dernières années ne vont pas en ce sens.

eric zeltz

 Tu n'es pas sans savoir que sur 114 modèles, 111 n'avaient pas prévu la relative stabilisation de température des années de la première décennie de ce siècle. Pourquoi ils se sont presque tous trompés là et ne se tromperaient-ils pas concernant El Niño.

C'est pourquoi personnellement j'ai décidé de me fier surtout au "bon bout de ma raison", comme disait Rouletabille

A mon avis, l'effet de type "prédateurs proies" des nuages sur la température que j'explique dans mon modèle a un gros effet régularisateur (à ma connaissance non pris en compte par les modèles du GIEC) et sauf si l'humanité continue à emettre sans frein des GES cela interdira les scénarii catastrophes du type de ceux que tu décris. Cela dit, c'est vrai que j'aimerai bien qu'un bon climatologue (ne pas confondre avec climatidéologue) se penche sur mon modèle et en gardant son principe m'aide à l'affiner en y rajoutant d'autres effets retroactifs que pour l'instant je néglige. Je ne désespère pas de trouver cette denrée rare.

26 juin 2019

Réactions d'Adri34 à propos de mon modèle

adri34

Salut ! J'aime bien ta démarche, que certains ont du mal à cerner. 

Voilà ce que j'en pense. Les modèles actuels utilisés pour les projections climatiques reposent sur l'ensemble des paramètres connus influant sur le climat. Que ce soit les equations de la physique (circulation, thermodynamique, rayonnement) l'impact de la biogeochimie ou des aérosols tout est étudié et son effet connu ... à une incertitude près. D'autres paramètres d'échelle inférieure à la maille du modèle sont parametrisés. La convection atmosphérique, la turbulence, les nuages... Tout cela amène à des incertitudes.

On connaît bien l'émission de GES, l'augmentation de leur concentration dans l'atmosphère, l'impact de la cryosphere ou même l'absorption de l'énergie par l'océan. Mais en terme de contribution radiative des nuages, des aérosols et de la biosphère continentale on y connaît presque rien ! 

 

Le problème c'est que les modèles prennent en compte ces paramètres incertains et quand vous additionnez 10% d'erreur plus 5% plus 20% ben ça devient conséquent. Le système terre est par définition non linéaire donc chaotique. Une erreur de départ c'est une erreur plus grande à l'arrivée. Les différents scénarios sont issus de modèles différents avec des parametrisations différentes dans les gammes de valeurs estimées via leurs incertitudes. Mais on se rend compte que l'on observe avec le scénario 8.5 une augmentation 3.5+-2 degrés, ce qui représente 60% d'erreur ! Rien que ça. 

 

Et la démarche que tu propose vise à prendre en compte la résultante de tous ces paramètres dans le signal moyen en estimant certains paramètres. Le fait de faire une moyenne va réduire l'incertitude sur l'état et l'évolution actuelle sans se soucier de qui fait quoi. Modèle que tu vas considérer comme théoriquement rigoureux qui va mener à un état moyen en rentrant les paramètres d'entrée. Une approche différente. Sait on si dans le futur certains phénomènes actuels vont se comporter pareillement avec une énergie fournie différente ? 

Tes simulations semblent dans le même ordre de grandeur que celles réalisées par le GIEC aux incertitudes près. Il faudrait calculer une incertitude sur les données actuelles que tu utilise également.

eric zeltz

Merci Adri 34 pour tes encouragements. Tu as parfaitement compris ma démarche. Les derniers points que tu soulèves seront pris en compte par la suite sur mon blog. Si tu veux continuer à dialoguer ici, mets tes réactions en "commentaires" à ce message, ensuite je les remonterai ici et y répondrai.

adri34 

Si j'avais un conseil à te donner dans ta démarche. Comme tu as pu le remarquer les critiques et accusations de climato-sceptisme sont rudes sur ce forum et même dans une communauté plus large. Fais attention par rapport à ça en ne disant pas que les modèles sont faux ou ne marchent pas mais en apportant quelque chose finalement ou en expliquant le plus clairement possible la démarche parallèle. Attention aux conclusions trop hâtives également. 

Je sais que ta démarche n'est pas là pour casser le travail déjà réalisé, mais tu souligne des points intéressants. Il faut valoriser ton travail pour améliorer ces points. Aucun modèle n'est parfait et le climat n'est pas une science exacte non plus. 

 eric zeltz

Merci pour tes conseils. Mais c'est vrai que j'ai parfois l'impression de me retrouver dans une guerre de religion du temps d'Henri IV, les catholiques étant les pro-GIEC et les protestants les "climato-sceptiques". C'est pourquoi je préfère qu'on discute ici où je puis t'assurer qu'il n'y aura rien d'autres que des arguments scientifiques. 

adri34

Tu n'as pas un modèle physique avec couplages multiples tentant avec plus ou moins de succès de reproduire des schémas plus ou moins bien connus (de mieux en mieux mais pas totalement), mais un modèle théorique avec comme base d'entrée une résultante des interactions actuelles. Là où il y a une possible erreur c'est dans l'arrivée de nouvelles contributions que ton état moyen de départ ne connais pas. Des rétroactions aujourd'hui négligeables qui deviendront importantes 

 eric zeltz

A mon avis, seule la retroaction négative des nuages bas vaut le coup d'être prise en compte, du moins si l'humanité réagit sérieusement et rapidement sur le plan émission des GES. Mais je creuserai par la suite la question que tu soulèves, ainsi que TreizeVents d'ailleurs.

Publicité
Publicité
24 juin 2019

L'une des idées du modèle.

pap

L'une des principales idées de notre modèle provient de l'étude du "système dynamique différentiel de Lorenz", premier système dynamique étudié en rapport avec le climat et débouchant sur l'aspect chaotique qui a fait sa célébrité ( le fameux "effet papillon").

Avant d'exposer et de commencer à justifier cette idée, nous allons d'abord décrire les principales propriétés du système dynamique de Lorenz, avec comme objectif que ce soit compréhensible même par ceux qui n'ont pas de formation mathématique à la base.

Si l'on veut en étudier les énoncés mathématiques précis et leurs démonstrations (dont certaines sont récentes), on pourra aller sur cet excellent cours fait par Frédéric FAURE de l'Institut Fourier de Grenoble et sur lequel nous avons puisé nos informations:

https://www-fourier.ujf-grenoble.fr/~faure/enseignement/systemes_dynamiques/cours_lorenz.pdf

Ce système avait pour but de modéliser les phénomènes de convection dans un volume fermé (une boite parallélépipédique) soumis à deux températures différentes en haut et en bas.

La position d'une particule à l'instant t est définie par ses coordonnées cartésiennes x(t), y(t) et (z(t). x(t) est supposé proportionnel à l'intensité du mouvement de convexion, y(t) est supposé proportionnel à la différence de température entre les courants ascendants et descendants, et z(t) est supposé proportionnel à l'écart du profil de température vertical par rapport à un profil linéaire.

On notera X(t)=(x(t),y(t),z(t))

Le système est alors le suivant:

où σ , ρ  et β sont trois paramètres réels positifs.

Si nous partons de deux positions initiales très légèrement différentes, il s'avère que les trajectoires deviennent rapidement très différentes. C'est le comportement erratique et chaotique qui dans la pratique interdit de prévoir la trajectoire précise puisque même s'il n'y a au départ qu'un millionième de différence, on aboutit à deux trajectoires complétement différentes.

Par contre les trajectoires se retrouvent très vite dans une ellipsoïde (figure presque ovoïde) et y restent pour toujours.

Plus précisément, les trajectoires finissent par presque toujours se déplacer sur les deux ailes d'une sorte de papillon, appelé attracteur étrange de Lorenz, telle que la figure en tête de cet article.

Donc individuellement: comportement erratique et chaotique, le point X(t) passant de manière très aléatoire (un peu comme dans le jeu de Pile ou Face) d'une aile à l'autre de l'attracteur.

Par contre globalement, la figure générale de la trajectoire est assez prévisible : c'est un "papillon" qui dépend peu du choix de X(0).

Mieux: un peu comme une goutte d'encre se mélange rapidement dans un verre d'eau pour obtenir rapidement une couleur homogène, la trajectoire de X se "mélange" de façon assez homogène dans le "papillon". Plus précisément, la probabilité que cette trajectoire passe dans une partie du papillon est proportionnelle à la mesure de cette partie (pour une mesure probabiliste bien précise).

C'est ce qu'illustre la figure suivante issue du cours de Frédéric FAURE référencié ci-dessus:

papp

Venons en maintenant à ce fameux "effet papillon" dont tout le monde a entendu parler un jour ou un autre.

Si nous changeons d'un milliardième la donnée initiale (suite par exemple à un battement de l'aile d'un papillon), nous avons vu que la trajectoire sera complétement modifiée et donc n'entrainera peut-être pas le "cyclone" qui sans quoi aurait eu lieu 5000 km plus loin.

Cela provient de l'aspect chaotique du flot de Lorenz et donc de son énorme sensibilité aux conditions initiales.

Par contre d'après la propriété de "mélange" que nous venons de décrire, dans toute zone bien délimitée de l'attracteur, nous aurons sensiblement le même nombre de cyclones sur une période assez longue, cela quelle que soit la position initiale.

Donc, tout restant inchangé sauf les conditions initiales, si nous connaissons les évènements climatiques qui se sont déroulés sur une période suffisamment longue dans une zone du papillon, nous devons nous attendre à avoir à peu près la même fréquence d'événements climatiques dans la même zone pour des périodes de même longueur. Leur chronologie sera très certainement bien différente, mais leur fréquence assez identique.

Si donc le climat était effectivement modélisé par le flot de Lorenz, par la connaissance sur une période longue des événements climatiques (beau-temps, mauvais temps, orages, jours de gel, tempêtes, canicule, etc...), nous pourrions tabler sur une même fréquence de tels événements pour les périodes suivantes de même longueur.

C'est l'une des idées essentielles sur lesquelles repose notre modèle.

 

 

22 juin 2019

Réactions de François-Marie Bréan concernant les dires d' Henri Atlan.

francois-marie-breon

Je trouve très gênant que vous mettiez sur votre site une citation de Henri Atlan, pour expliquer les limitations des modèles du GIEC. Manifestement, Henri Atlan n’a rien compris à la manière dont sont construits les modèles de climat.  Ce n’est pas vraiment une surprise vu que ce monsieur est "Biologiste et philosophe » selon son mini CV de l’article du Monde.  Décrire la limitation des modèles de climat sur la base de ce que un biologiste croit en avoir compris, me parait peu rigoureux de votre part.

 NON, les modèles de climat ne sont PAS des « Modèles par les observations »  
Henri Atlan n’a vraiment pas compris.  Je lui avais d’ailleurs écrit lorsque l’article que vous citez est paru:
 
Votre article dans Le Monde indique que votre connaissance des modèles de climat est assez partielle.  Vous ne semblez pas savoir que ces modèles sont basés sur des équations physiques et non pas sur des modélisations spéculatives.
Si vous êtes curieux d'en savoir un peu plus, je me ferai un plaisir de venir en discuter avec vous et d'essayer de vous expliquer pourquoi les annonces d'un changement climatique majeur sont assez fiables alors que les dénis de Mr Allègre et confrères ne sont basés que sur des arguments d'autorité.
Mon bureau est relativement proche de l'EHESS et je pourrai donc venir vous voir sans difficulté si vous le désirez 
Il avait botté en touche, étant manifestement confortable avec ses certitudes et ne désirant pas en savoir plus.
eric zeltz
Voilà pourtant ce que répond votre consoeur Sandrine Bony à cette question: Une fois que le modèle est fabriqué, comment le valide-t-on ?

"Il est validé à plusieurs niveaux. On vérifie d’abord la capacité des modèles à reproduire les processus physiques élémentaires. On évalue ainsi certains processus nuageux par rapport à des observations de terrain issues de campagnes de mesures dans différentes régions du globe ou de sites instrumentés où l’on mesure énormément de variables. A chaque fois, on regarde très en détail la capacité du modèle à les reproduire. On évalue également le climat simulé par le modèle, c’est-à-dire la distribution géographique et la variabilité à différentes échelles de temps des différentes composantes climatiques, par comparaison avec des observations spatiales. Les satellites scrutent aujourd’hui la Terre sous toutes ses coutures et mesurent beaucoup de choses comme la quantité de vapeur d’eau dans l’atmosphère, la distribution des pluies, des nuages, les échanges d’énergie entre la Terre et l’espace, etc. A chaque fois, on cherche davantage à mettre en évidence les défauts du modèle plutôt que ses qualités, afin d’identifier les composantes à améliorer." (dans http://passeurdesciences.blog.lemonde.fr/2013/06/02/la-prevision-du-climat-est-elle-fiable/)

Elle décrit exactement la démarche qui est utilisée pour les "Modèles par les observations". Elle utilise d'ailleurs le mot "observations" deux fois, mais aussi "scruter sous toutes les coutures", "campagnes de mesures", "regarder très en détail", et j'en passe du même type. Et j'imagine qu'elle sait aussi bien que vous qu'il y a aussi les équations de Navier-Stokes derrière ces modèles et bien d'autres équations physiques, et moi qui ne suis pas climatologue le sais aussi depuis longtemps. Henri Atlan, qui est tout sauf un ignorant, le savait aussi sans aucun doute, et je trouve que vous y allez un peu fort en le traitant de quasi ignorant sur ce point. 

Je crois savoir aussi que Sandrine Bony attend beaucoup d'une campagne d'observations par satellites des nuages qui donnera ses résultats en 2020. Sans aucun doute que suite à ce que donneront ces observations, elle affinera les modèles  actuels. Cela rentre tout-à-fait dans la démarche "Modèles par les observations". Vos modèles ont une base mathématique et physique mais sont aussi sans arrêt modifié dans leurs paramétrisations par les observations de tout ordre qui sont faites. Démarche qui n'est pas inutile, mais qui est à mon avis très insuffisante pour les raisons clairement décrites par Henri Atlan, tout biologiste qu'il soit.

Car on peut très bien être "extra-climatologie" et avoir une vision lucide des méthodes utilisées par les climatologues.

Au contraire, on peut très bien être "intra-climatologie" et de ce fait difficilement capable d'avoir le recul suffisant pour prendre conscience des limites des méthodes sur lesquelles on s'est tellement investi.

17 juin 2019

Défauts majeurs des Modèles Actuels de Changement Climatique.

cm

(Figure empruntée à Florent BRIENT issue de https://climate-dynamics.org/reducing-uncertainties-in-climate-projections-with-emergent-constraints-part-1-concept/)

Ce que nous appelons ici "Modèles actuels de changement climatique" (MACC), ce sont les modèles très lourds mis au point par des équipes de climatologues du monde entier et repris par le GIEC. Le graphique ci-dessus présente les évolutions de température pour 29 d'entre eux, tous placés dans le mêmes conditions de forcage radiatif provoqué par les GES. 

Nous voyons au moins trois types de défauts majeurs propres à ces MACC:

 1) Défauts liés au fait que ce sont des "Modèles par les observations":

«Il y a un problème de crédibilité des modèles de changements climatiques et des prédictions qui en sont déduites. Ces modèles concernent en effet un domaine - le climat - où le nombre de données disponibles est petit par rapport au nombre de variables qui sont prises en compte dans leur construction, sans parler des variables encore inconnues. Cela implique qu'il existe un grand nombre de bons modèles, capables de rendre compte des observations disponibles, alors même qu'ils reposent sur des hypothèses explicatives différentes et conduisent aussi à des prédictions différentes, voire opposées. Il s'agit là d'une situation dite "des modèles par les observations", cas particulier de "sous-détermination des théories par les faits", bien connue des chercheurs engagés dans la construction de modèles de systèmes complexes naturels, où le nombre de données ne peut pas être multiplié à l'envi par des expérimentations répétées et reproductibles. Conséquence : les modèles sur les changements climatiques ne peuvent être que des hypothèses, mises en formes informatiques très sophistiquées mais pleines d'incertitudes quant à leur relation à la réalité ; et il en va de même des prédictions qui en sont déduites.» (d'après Henri ATLAN, dans https://www.lemonde.fr/idees/article/2010/03/27/la-religion-de-la-catastrophe-par-henri-atlan_1325086_3232.html).

Autrement-dit, pour ce scientifique et philosophe, ces modèles sont un peu obtenus de la même manière qu'on compléterait un système d'équations algébriques à 100 équations et 100 inconnues à partir de la seule connaissance de 10 équations d'entre elles, cela dans le but d'obtenir les valeurs de ces 100 inconnues: il y aurait une infinité de possibilités pour compléter le système, donc aussi une infinité de valeurs possibles pour ces inconnues.

Henri ATLAN parle en connaissance de cause car lui-même au cours de sa carrière scientifique a dû mettre au points des "modèles par observation des faits" dans son domaine de la recherche médicale et a pu mesurer pleinement les limites de la méthode.

Sa position est précisée plus en détail dans cette vidéo:

 https://medias.ircam.fr/xea4b43_chapitre-4-sous-determination-de-la-theor

 Et cette position est confirmée par ce qu'en disent ceux qui connaissent les "secrets de fabrication" de ces MACC:

Des modèles de circulation générale représentent les différents compartiments par un maillage tri-dimensionnel.
C'est l'augmentation de la capacité de calculs des ordinateurs qui a permis les progrès dans la modélisation de plus en plus fine du système climatique par l'intermédiaire d'un découpage en latitude, longitude et altitude des compartiments en un réseau de mailles. Chaque maille du réseau peut donc être considérée comme une "boîte" à l'intérieur de laquelle s'effectue le traitement des équations prenant en compte des phénomènes à grandes et petites échelles (exemple des couplages entre différentes enveloppes, des nuages...). Selon la résolution spatiale du maillage et les choix d'approximation des phénomènes complexes, différents modèles sont proposés par plusieurs laboratoires (environ une quinzaine actuellement). ( dans http://acces.ens-lyon.fr/acces/thematiques/paleo/modeles/edgcm-outil-de-modelisation-climatique/comprendre-la-modelisation-du-climat)

2) Défauts liés aux limites des performances de la technologie utilisée:

Par leurs effets de serre ou au contraire refroidissant, les nuages ont une influence énorme sur la température.

Leurs échelles dynamiques (de l'ordre de quelques dizaines de mètres) étant beaucoup plus petites que celles des maillages des grilles des MCAM (au minimum 25km), les modélisateurs doivent donc intégrer à l'échelle de la grille de ces modèles des paramétrisations de la température, de l'humidité, de l'effet albédo, etc..., permettant de tenir compte de la dynamique de ces nuages, insoluble à petite échelle. Cela est difficile à faire et crée beaucoup d'incertitudes. 

Pour avoir plus de précisions sur ce problème et les solutions que les climatologues tentent de mettre au point, voir par exemple cet article du climatologue Florent BRIENT, d'où d'ailleurs provient le graphique mis en tête:

https://climate-dynamics.org/reducing-uncertainties-in-climate-projections-with-emergent-constraints-part-1-concept/

C'est bien là que se trouve en grande partie l'explication de la grande dispersion finale des températures données à terme par les MACC, telle qu'on la voit très clairement sur ce graphique. 

 Et ce problème majeur ne pourra que perdurer encore très longtemps car même si les performances des hyper-calculateurs utilisés continuaient à progresser de manière exponentielle (et ce n'est plus le cas), il faudrait au moins une cinquantaine d'années pour qu'ils soient capables de travailler avec une finesse de maillage suffisante pour gérer directement et explicitement les effets de ces nuages. Et dans 50 ans, cela ne servira plus à grand-chose puisque nous vivrons déjà les réponses aux questions actuelles liées au réchauffement climatique.

3) Défauts liés au fait que le système dynamique en jeu est fortement non linéaire: 

 Nous en sommes très loin comme nous venons de le voir, mais supposons qu'un MACC soit entièrement réaliste: les conditions initiales y sont correctement et complétement rentrées, les équations et relations modélisant l'évolution du système dynamique à partir du temps t=0 sont valides, réalistes et complètes, et la technologie est assez avancée pour pouvoir prendre en compte même les échelles les plus fines sur lesquels il y a des effets sur le climat.

Dans ces conditions optimales, serions-nous pour autant  assurés que les prédictions à long terme de ce modèle soient exactes?

La réponse semble a priori négative car le système dynamique en jeu est non linéaire et donc certainement chaotique: de très lègères variations par rapport aux conditions initiales réelles, par exemple les simples arrondis qui sont obligatoires aussi précis que soit le modèle, peuvent amener à long terme de grosses variations. Donc conduire à des erreurs ou incertitudes importantes sur les prédictions données par le modèle sur le long terme. 

Car maints phénomènes climatiques en jeu sont rendus par des équations aux dérivées partielles non linéaires, et l'on sait que cela débouche sur des effets chaotiques, donc ne permettant pas des résultats à long terme solides et fiables. C'est le fameux "effet papillon" introduit par le climatologue Edward Lorenz  en 1972: les erreurs s'amplifient exponentiellement en fonction du temps.

Cela dit, et comme l'explique très bien le physicien Raoul ROBERT dans l'article https://interstices.info/leffet-papillon-nexiste-plus/ , le fait qu'il y ait justement un grand nombre de variables en jeu dans les MACC, et non pas seulement quelques unités comme dans le modèle historique utilisé par Lorenz, pourrait avoir un effet régularisateur qui linéariserait le plus souvent l'effet de ces erreurs: c'est à dire, quand le temps double, l'erreur se contenterait de doubler  et ne croitrait pas exponentiellement comme Lorenz le prévoyait.

Un peu comme en physique statistique pour les molécules qui ont des mouvements aléatoires, et dont on est incapable de prévoir leur mouvement particulier, erratique et chaotique. Mais précisément parce qu'elles ont ce comportement chaotique, prises en grand nombre elles se distribuent de façon assez homogène dans l'espace ce qui permet de prévoir avec fiabilité des grandeurs macroscopiques comme la pression, la densité ou la température.

Mais nous objectons à cela que les variables en jeu dans les MACC sont de quelques milliers, c'est-à-dire certes bien plus que les quelques variables du modèle de Lorenz, mais bien moins que les millions de molécules présentes dans un récipient quelconque. Donc l'effet statistique joue certainement mais pas de façon aussi radicale que pour les molécules où "l'effet papillon" disparaît complétement au niveau macroscopique.

D'ailleurs, si c'était le cas, pourquoi quand il s'agit de faire des prévisions saisonnières, les météorologues ne sont-ils capables que de prévoir une tendance, mais rien de précis? Pourtant ils utilisent le même type d'outils et de modèles  que ceux utilisés par les climatologues travaillant pour le GIEC.

Et puis même si les erreurs augmentaient avec le temps de manière linéaire et non exponentielle, sur des durées de 50 ou 100 ans elles deviendraient tout de même importantes puisque fondées sur des données prises sur des périodes beaucoup plus courtes, la plupart de l'ordre de la journée, de la semaine ou de l'année.

CONCLUSION: Si on veut que l'humanité ne se lance pas à l'aventure à partir d'une mauvaise analyse des problèmes, il faut absolument et rapidement mettre au point un modèle n'ayant aucun, ou le moins possible, de ces défauts majeurs. C'est l'objet du travail dont nous rendons compte étape après étape sur ce blog.

 

12 juin 2019

Un modèle simple du réchauffement climatique.

I- Problématique et objectifs de ce travail

Comme le montre clairement le graphique suivant issu de la NASA, on observe depuis quelques décennies une augmentation de la Température Moyenne Annuelle Mondiale (TMAM).

 

tmm

 

La grosse majorité des scientifiques qui travaillent sur la question identifient l'origine principale de ce phénomène de réchauffement climatique comme étant l'émission des gaz à effet de serre (GES), notamment le dioxyde de carbone (CO₂), provoquée par l'activité humaine depuis le début de la période industrielle.
Ce phénomène étant déjà loin d'être neutre et, s'il s'accentue encore, pouvant avoir des conséquences négatives et même catastrophiques  pour la planète et ses occupants, la  communauté internationale a confié  à des équipes de chercheurs du monde entier la mise au point de modèles sophistiqués climatiques. En prenant en compte un maximum de données physiques et climatiques, ceux-ci sont censés permettre de prévoir les évolutions futures concernant les températures, les précipitations, les zones de glace, les niveaux des océans, etc..., bref tout ce qui sert à définir et à préciser le climat mondial et ses évolutions. Pour cela, ces équipes programment leurs modèles sur des calculateurs très puissants, capables de brasser des milliers d'informations en un temps infime, et ils peuvent ainsi reconstituer en quelques dizaines d'heures ou quelques journées, l'évolution climatique mondiale sur plusieurs décennies. Cela tout en se plaçant dans diverses hypothèses, notamment concernant l'évolution future des émissions de GES.


Mais comme l'écrivait en 2010 le scientifique et philosophe Henri ATLAN dans le journal français Le Monde:


«Il y a un problème de crédibilité des modèles de changements climatiques et des prédictions qui en sont déduites. Ces modèles concernent en effet un domaine - le climat - où le nombre de données disponibles est petit par rapport au nombre de variables qui sont prises en compte dans leur construction, sans parler des variables encore inconnues. Cela implique qu'il existe un grand nombre de bons modèles, capables de rendre compte des observations disponibles, alors même qu'ils reposent sur des hypothèses explicatives différentes et conduisent aussi à des prédictions différentes, voire opposées. Il s'agit là d'une situation dite "des modèles par les observations", cas particulier de "sous-détermination des théories par les faits", bien connue des chercheurs engagés dans la construction de modèles de systèmes complexes naturels, où le nombre de données ne peut pas être multiplié à l'envi par des expérimentations répétées et reproductibles. Conséquence : les modèles sur les changements climatiques ne peuvent être que des hypothèses, mises en formes informatiques très sophistiquées mais pleines d'incertitudes quant à leur relation à la réalité ; et il en va de même de prédictions qui en sont déduites.«» (https://www.lemonde.fr/idees/article/2010/03/27/la-religion-de-la-catastrophe-par-henri-atlan_1325086_3232.html).


De fait, ces différents modèles arrivent à des différences de résultats de plusieurs °C de l'un à l'autre.
Voilà en effet les différentes prévisions données sous les mêmes hypothèses d'émissions de GES par huit modèles analysés par le Groupe d'experts intergouvernemental sur l'évolution du climats (GIEC) dans son dernier rapport:

modNous remarquons effectivement une grosse amplitude de près de 3°C dans les différents résultats de température donnés par ces huit modèles pour l'an 2100.

L'une des principales causes de ces différences est la puissance des hyper-calculateurs utilisés, encore très loin de pouvoir numériser sur un maillage suffisamment petit pour que par exemple soit bien rendue l'influence des nuages bas. Chaque équipe conceptrice d'un tel modèle doit donc paramétrer assez arbitrairement cette influence à l'intérieur de ses programmes numériques, ce qui explique en grande partie les différences importantes de résultats d'un modèle à l'autre. Car, comme le reconnaissent les climatologues, les nuages bas ont une grosse influence rétro-active sur la TMAM, d'ailleurs elle-même encore sujette à débats concernant son influence positive ou négative sur la température à la surface.

Donc d'importantes différences de paramétrage et de résultats d'un modèle à l'autre même s'ils sont validés en partie par leur adéquation avec les résultats des périodes connues, après y avoir intégré des conséquences d'évènements qu'ils ne peuvent prévoir, comme par exemple les éruptions volcaniques.


Compte-tenu de cela, nous avons pris délibérément dans ce travail une toute autre option:

∙ Non faire un modèle sophistiqué, fondé sur les lois physiques, prenant en compte avec le plus de finesse possible un maximum de paramètres et donnant des prévisions sur la plupart des événements liés au climat: fonte des glaces, courants océaniques, couplage air-océans, fréquences des événements exceptionnels comme les canicules et les ouragans, etc...

Comme nous venons de l'expliquer, cette démarche est, à notre avis du moins dans l'état actuel de la technologie et des sciences, vouée à une grosse part d'incertitudes quant à ses résultats.

∙ Mais faire un modèle le plus simple possible orienté sur un seul objectif : pouvoir prédire fiablement la température mondiale moyenne pour les décennies à venir.

Pour obtenir ces prévisions, notre modèle ne prendra  directement en compte qu'un minimum de paramètres, ceux que nous analyserons comme ayant une influence directe et importante sur la TMAM.

A savoir:

1- D'abord l'évolution de la concentration en GES dans l'atmosphère. Contrairement aux "climato-sceptiques", nous ne contestons pas son influence primordiale et directe dans le réchauffement climatique actuel.

2- Nous y rajoutons l'interaction nuages bas- températures que nous analyserons par la suite comme un phénomène "prédateurs- proies" à effet rétro-actif négatif important sur la TMAM. 

Tout le reste sera  pris en compte de manière globale en se fondant sur la réalité observée et moyennisée de l'évolution de la TMAM sur les cinquante dernières années, donc depuis environ 1970:

Le choix de cette période est principalement justifié par les deux raisons suivantes:

1 - La plupart des climatologues et le GIEC lui-même considèrent que c'est à partir de 1970 que l'influence de l'augmentation de la concentration de  CO₂ dans l'atmosphère commence à vraiment se faire sentir sur la TMAM.

2 ∙ Cette période est suffisamment longue pour moyenniser convenablement les fluctuations provoquées par les cycles solaires (d'une durée d'environ 11 ans) et océaniques (suite aux courants, l'eau en surface des océans est renouvelée environ tous les 50 ans), ainsi que celles causées par des événements plus aléatoires comme les éruptions volcaniques ou El Nino.

Compte tenu de tout cela, notre modèle sera discret (et non continu comme ceux évalués par le GIEC).

L'unité de temps de ce modèle discret sera bien sûr l'année, puisque  cette unité est evidemment la plus adéquate pour moyenniser les écarts de température dûs aux différentes saisons annuelles et que notre seul objectif est de prévoir la TMAM.

Nous concevons que cette méthode puisse paraître à certains bien trop rudimentaire pour espérer pouvoir donner des résultats fiables. C'est pour quoi nous allons consacrer le petit paragraphe suivant pour en justifier le bien-fondé.

II- Bien-fondé de la méthode choisie

Tout d'abord une argumentation pratique:

Imaginons une habitation mal isolée, sujette à courants d'air, avec des ouvertures vitrées laissant passer plus ou moins bien les rayons solaires, ayant des radiateurs de puissances variées pour chauffer l'hiver et des ventilateurs plus ou moins efficaces pour rafraichir l'été, etc.... Les habitants de cette maison sont plus ou moins frileux, et craignent plus ou moins la chaleur estivale: certains dorment la fenêtre ouverte pendant que d'autres ne supportent pas la fraicheur extérieure des nuits.

Cette habitation est mise en vente.

Que fera son futur propriétaire s'il veut prévoir les températures annuelles moyennes,  minimales et maximales de cette maison pour un budget d'energie donné?

- Une modélisation sophistiquée prenant en compte le maximum de paramètres, les flux de courants d'air, la pénétration des UV et la dissipation des infra-rouges, la convexion des radiateurs, les ouvertures sporadiques des fenêtres, le caractère plus ou moins frileux de ses futurs habitants, etc ?

- Ou il demandera à un expert de lui faire un bilan lui permettant de classer sa future maison sur le plan energétique et d'en déduire ensuite le budget de chauffage et d'electricité à prévoir, années après années, et les éventuels travaux d'isolation à faire en urgence?

Même si c'est un climatologue travaillant pour le GIEC, il choisira bien sûr la seconde méthode.

Concernant l'obtention de la prévision des TMAM futures de la Terre, nous faisons un peu le même choix:

- Non pas, comme le font les climatologues du GIEC tenter de mettre au point un modèle capable d'intégrer le maximum de données climatiques.

- Mais partir d'une expertise solide fondée sur les réalités observées les années précédentes, pour projeter ces résultats moyens sur les années suivantes en y intégrant des évolutions éventuelles.

Donnons maintenant une argumentation plus théorique:

Les phénomènes climatiques sont chaotiques, c'est même par l'intermédiaire de la climatologie qu'est apparue la théorie mathématique du chaos. Cf. le célèbre "effet papillon" exprimé pour la première fois par le climatologue Edward Lorenz  en 1972.

Il y a donc dans la plupart de ces phénomènes une forte non-linéarité: de très légères modifications des conditions initiales peuvent avoir à terme des conséquences très différentes.

Donc sur le plan purement théorique, bâtir les modèles sur des données ponctuelles et très fines ne peut que soulever de grosses questions sur la qualité et la fiabilité des prévisions obtenues pour quelques dizaines d'années plus tard.

Par contre, partir de résultats moyennisés sur 50 ans, cela neutralise en grande partie cette non-linéarité et permet même d'aboutir à une certaine linéarité pour l'obtention des résultats pour 10, 20 ou même 100 ans après.

Pour comprendre la différence fondamentale qu'il y a entre ces deux approches, on peut faire référence au mouvement des particules: complétement imprévisible sur le plan local (mouvement brownien), par contre quand il est moyennisé sur une grosse quantité, parfaitement maitrisable: alors qu'on ne peut pas prévoir grand chose sur une seule de ces particules, si on apporte telle quantité d'énergie à tel gros volume de ces particules, on peut très bien prévoir la nouvelle température moyenne qu'il atteindra et qui traduit justement leur mouvement moyen.

En conclusion de ce paragraphe: le choix de notre méthode par rapport à celui fait par les climatologues du GIEC offre les deux énormes avantages suivants:

1- C'est de très loin le plus pratique et  le plus facile à mettre en oeuvre.

2- C'est indéniablement, sur le plan purement théorique, le plus judicieux.

Pourquoi les climatologues ont-ils pourtant fait systématiquement l'autre choix?

Peut-être parce qu'ils sont tous d'éminents climatologues et qu'à ce titre ils affectionnent de mettre en oeuvre leurs connaissances les plus pointues. C'est le syndrome classique de l'expert. Syndrome qui peut les aveugler complétement pour voir qu'une approche bien plus modeste peut conduire à des résultats nettement plus faciles à obtenir et en même temps certainement plus fiables.

Peut-être aussi parce qu'ils travaillaient déjà avec de tels outils (hyper-calculateurs et modèles mathématiques sophistiqués) pour prévoir la météo des jours suivants ou saisonnière: il leur a donc été naturel d'utiliser la même méthode pour des prévisions beaucoup plus lointaines, sans tenir compte du fait que cet éloignement temporel peut changer radicalement la fiabilité de la méthode et sans vraiment réfléchir à d'autres méthodes. Pourtant ils devraient connaître mieux que quiconque les limites de la méthode qu'ils utilisent puisque déjà pour les prévisions saisonnières ( à trois mois), elle est incapable de dire autre chose que: "l'été sera certainement plus chaud (ou plus frais) que d'habitude". Et les décideurs politiques, même s'ils n'ont aucune connaissance en climatologie, feraient bien de réfléchir un peu par eux-mêmes au lieu de se laisser guider comme des ânes bâtés par des "spécialistes".

 III- Interactions nuages-température du type "prédateurs- proies"

L'augmentation de la TMAM provoque une évaporation supplémentaire des sols et des océans d'eau qui s'élève sous forme de vapeur. La température de l'atmosphère baissant avec l'altitude et la saturation maximale en vapeur d'eau de l'air diminuant quand la température baisse, cette nouvelle vapeur formée par le réchauffement finit donc par se condenser quand elle monte. Elle s'agglomère donc aux nuages déjà présents ou, s'il n'y en a pas, en formera de nouveaux.

Sachant que la température diminue approximativement de 1°C par centaine de mètres d'altitude, la hauteur de saturation concerne les basses couches de l'atmosphère, c'est-à-dire la zone où se trouvent les nuages bas (altitude inférieure à 2000m). En effet, même si l'eau s'évapore à une température au sol de 35°C, à 2000 m la température n'est plus qu'à 15°C, température où l'air est très vite saturé en vapeur. Donc même dans ce cas, il y a une forte probabilité qu'elle se condense au niveau des basses couches et y reste sous forme de nuages bas. A plus forte raison si la température de l'air dans lequel elle s'évapore est inférieure.

Une part moindre peut se condenser plus haut, bénéficiant de phénomènes de convexion ascensionnelle et rejoindre les nuages de niveaux intermédiaires. Mais il nous semble nettement plus probable que cette vapeur se condense plus bas, pour les raisons déjà invoquées. 

Il se peut aussi qu'une forte convexion entraine  rapidement cette vapeur vers la stratosphère pour former des cumulonimbus, qui débouchent souvent sur des orages. Mais pour cela les conditions ambiantes doivent être assez particulières: d'après Météo-France, « les cumulonimbus dits de masse d'air, typiquement les orages en été de fin d'après-midi et qui sont relativement bénins, se forment à la suite de la convection causée par le réchauffement solaire de l'air près du sol, en l'absence de forçages dynamiques. La présence de forçages dus à la dynamique atmosphérique peut déstabiliser davantage l'atmosphère, ce qui augmente la probabilité de formation de cumulonimbus et la sévérité des orages qui en résultent. Ces derniers se développent en général à l'approche d'unfront froid ou par soulèvement orographique. La plupart des orages violents sont de ce type.»( pour plus de précisions, voir http://www.meteofrance.fr/publications/glossaire/150191-cumulonimbus)

Donc en dehors de cette situation assez particulière débouchant souvent sur des orages, l'évaporation supplémentaire provoquée par le réchauffement nourrit au moins dans un premier temps surtout la couverture en nuages bas, en moindre partie la couverture intermédiaire. Or les nuages bas ont un fort effet de refroidissement et les nuages de niveau intermédiaire un léger effet de refroidissement, comme l'indique le schéma suivant issu de http://climat-evolution.eklablog.com/effets-radiatifs-des-nuages-1-a86578739

nuages al

 De plus, même si une part de l'évaporation se traduit par la formation de cumulonimbus à effet réchauffant, un autre phénomène neutralise cela: 

 « Les cumulo-nimbus ont tendance à se former en amas, là où se trouvent d'autres nuages. Dans les hautes couches de l'atmosphère, à 12 km d'altitude, cela entraîne une réduction des enclumes, des nuages hauts à effet de serre. Cela réduit au final cette couverture nuageuse et devrait mieux laisser s’échapper la chaleur (le rayonnement infra-rouge) vers l'espace, ce qui diminuerait la température. « C'est ce que l'on appelle l'effet d'iris , précise Sandrine Bony. Une hypothèse qui date des années 90 indiquait qu'ainsi la Terre régulerait l'augmentation de la température. En réalité, les études montrent que cela n'a qu’un faible impact et que les modèles ne manquaient déjà pas ce phénomène » (  https://reseauactionclimat.org/wp-content/uploads/2018/01/diminution-des-nuages-bas-aerosols-et-amplification-du-rechauffement-12-01-18-reseau-action-climat.pdf)

Cela justifie que notre modèle ne tiendra compte que de l'effet des nuages bas, les nuages intermédiaires n'ayant qu'un effet refroidissant faible, et l'effet d'iris annulant en grande partie l'effet réchauffant des nouveaux nuages hauts créés par l'évaporation supplémentaire provoquée par le réchauffement.

Par contre, notre modèle ne prendra en compte qu'une partie de cette évaporation pour le gonflement des nuages bas. Ceux-ci représentant 40% de la couverture nuageuse totale, nous prendrons cette valeur de 40% pour évaluer le pourcentage de vapeur supplémentaire provoquée par le réchauffement qui augmente la couverture nuageuse en nuages bas.

Dans tous les cas, suite à cette évaporation supplémentaire,  il y a augmentation de la couverture en nuages bas, et cette augmentation refroidit l'air ambiant présent sous les nuages et fait donc baisser l'évaporation de surface. Il faut que ces nuages se dissolvent sous forme de précipitations ou qu'un nouveau réchauffement intervienne pour que le processus se réitère et conduise à la formation de nouveaux nuages bas.

Cela rappelle le comportement "prédateurs-proies" modélisant les variations respectives des populations de prédateurs et de proies dans une zone naturelle. Les nuages bas jouant le rôle des prédateurs (ils "mangent" la température), la température celui des proies:

Quand la température s'élève, c'est propice à la création de nuages bas; quand la couverture en nuages bas augmentent, cela baisse la température; quand la température baisse cela diminue la couverture en nuages bas; quand la couverture en nuages bas diminue, cela augmente la température, et ainsi de suite.

C'est l'un des deux phénomènes qui sera pris en compte de manière spécifique par notre modèle, le deuxième étant celui du "forcage radiatif d'origine humaine", essentiellement provoqué par les émissions de GES dont sont responsables les activités humaines. Comme déjà expliqué dans notre premier paragraphe, tout le reste sera pris en compte de manière moyennisée à partir des résultats de la TMAM telle qu'elle a été mesurée sur les cinquante dernières années.

IV- Prise en compte des émissions de GES et du forcage radiatif d'origine humaine

GES

La grosse majorité des climatologues s'accordent pour penser que les émissions de  CO₂ d'origine anthropique sont le principal facteur responsable du réchauffement climatique observé depuis les années 1970. Il est mesuré dans l'atmosphère en fraction de CO₂ dans l'air sec (µmol/mol notée aussi ppm pour "parties par million") et la courbe précédente donne son évolution depuis les années 1950 à Mauna Loa, l'un des volcans d'Hawaïe.

Quel est le rôle des autres GES ( méthane, gaz fluorés, etc...?) d'origine anthropique?

Le graphique suivant repris par le cinquième rapport du GIEC montre clairement que depuis au moins 1970 leur progression est similaire à celle du CO₂, même si leur part relative est nettement moindre. Il montre aussi que la somme des "forcages radiatifs d'origine humaine" suit depuis 1980 une courbe (la courbe en pointillés rouge) quasiment parallèle à celle des émissions de  CO₂:

jj

 

Aussi notre modèle confondra la progression des forcages radiatifs d'origine humaine avec celle des émissions de CO₂.

C'est bien sûr une approximation mais qui nous paraît largement suffisante pour nous permettre d'obtenir malgré tout des résultats de précision suffisante par rapport aux objectifs de notre modèle (simplicité et fiabilité).

Pour mesurer cette vitesse de progression des forcages radiatifs d'origine humaine, nous utiliserons donc la courbe donnée précédemment concernant les émissions de  CO₂ à Mauna Loa.

Cette courbe est pratiquement rectiligne au moins pour la période qui nous intéresse, c'est-à-dire à partir de 1970 et jusqu'à nos jours. Jusqu'à 2020, la vitesse d'augmentation de ppm par année est donc quasiment constante et donnée par le coefficient directeur très proche de 1,8 de cette quasi-droite: nous prendrons donc  = 1,8 ppm/an

Pour la période qui suit 2020, nous ferons la supposition que suite à la prise de conscience mondiale du problème du réchauffement climatique, cette augmentation ralentisse de a ppm par année à partir de 2020 et que cela fasse effet 10 ans après, durée d'inertie de l'effet réchauffant des émissions de CO₂. ( Cf. Katharine L Ricke and Ken Caldeira. Published 2 December 2014 • © 2014 IOP Publishing Ltd – http://iopscience.iop.org/article/10.1088/1748-9326/9/12/124002/meta).

 

V- Récapitulatif des hypothèses prises en compte par notre modèle:

- Géométrie de la Terre et de son atmosphère: La Terre sera assimilée à une boule sphérique entourée d'une atmosphère de 12 km d'épaisseur. 

- Couverture nuageuse en nuages bas en 1970:

Nous l'estimons à environ 25% du ciel en 1970 puisqu'on sait que la couverture nuageuse mesurée pour la période 2004-2015 est d'environ 67% (d'après http://www.astronoo.com/fr/articles/couverture-nuageuse-mondiale.html) et que les nuages bas représentent environ 40% de la couverture nuageuse totale. Ce chiffre de 25% de nuages bas en 1970 n'a la prétention que d'être un ordre de grandeur suffisamment réaliste pour initialiser notre modèle.

Hauteur moyenne des nuages bas en 1970:

Elle sera encore plus grossièrement estimée à 1500m, puisque les nuages sont considérés bas s'ils ne dépassent pas une altitude de 2000m environ.

TMAM pour la période 1970-2019:

Pour l'obtenir, nous nous fondons sur le diagramme suivant issu du lien http://www.columbia.edu/~mhs119/Temperature/globalT_1880-1920base.pdf :

 jk

 Plus précisément, nous utilisons sa courbe verte qui a été obtenue en lissant les températures moyennes sur 11 ans, durée d'un cycle solaire.

C'est elle qui va nous permettre de "caler" notre modèle pour ensuite pouvoir obtenir des prévisions fiables jusqu'à 2120.

On peut voir qu'il est mesuré pour les presque 50 ans de cette période 1970- 2019 une augmentation de 0,17°C par décennie puisque sur ces cinq décennies la TMAM passe approximativement de 14,15°C à 15°C.

- Augmentation annuelle de GES d'origine anthropique pour la période 1970-2020:

Compte-tenu de ce qui est indiqué dans le paragraphe IV, la progression des GES d'origine anthropique dans l'atmosphère est supposée constante de 1970 à 2020, ainsi répartie:

1,8 ppm/an pour le CO₂ et 0,9 ppm/an d'équivalent  CO₂ pour les autres GES d'origine anthropique puisque la contribution du CO₂ est d'environ 2/3 de l'émission totale ( d'après https://jancovici.com/changement-climatique/gaz-a-effet-de-serre-et-cycle-du-carbone/quels-sont-les-gaz-a-effet-de-serre-quels-sont-leurs-contribution-a-leffet-de-serre/).

Soit donc au total et pour la période 1970-2020: une progression de 2,7 ppm par an de CO₂ ou d'équivalent CO₂.

 - Inertie climatique des GES: 

Toujours compte-tenu de ce qui est indiqué dans le paragraphe IV, pour notre modèle, toute modification de concentration des GES dans l'atmosphère n'agira sensiblement sur la TMAM que dix années après.

VI - Mise en place de notre modèle:

 

- Notations:

n est le nombre d'années après 1969, année 0 de notre étude.

cn correspond à l'augmentation de ppm de CO₂ ou d' équivalent CO₂ pour l'année n,

a: la diminution de l'augmentation de ppm par an, supposée nulle avant 2020 et constante positive à partir de 2020

tn: température moyenne l'année n après 1970 en tenant compte du phénomène "prédateurs-proies" qu'il y a entre les nuages bas et la température tel qu'il est précisé dans le paragraphe III..

en: la couverture nuageuse en nuages bas l'année exprimée en pourcentage du ciel

hn: la hauteur moyenne des nuages bas l'année exprimée en km..

- Couplage des suites en jeu pour la période 1970- 2020:

Pour n entier compris entre 1 et 50 où cn et constante et égale à 2,7 et a=0, nous avons:

(1) <=> t(n+1)=t(n)+K-k(e(n+1)-e(n)) pour n>2 avec t(1)=14,15°C et t(2)=t(1)+K

 (2) <=>  e(n+1)=e(n)+k'(t(n)-t(n-1))   pour n>2 avec e(1)=e(2)=25%

(3) <=> h(n+1) = h(n) + 0,1 (t(n+1)-t(n)) avec h(1)=1,5 km

- Estimations des constantes k, k' et K: 

La constante k qui intervient dans la relation (1) correspond au lien supposé linéaire entre l'augmentation de la couverture de nuages bas et la baisse de température que cette augmentation provoque. 

Vu les hypothèses très simplificatrices que nous adoptons, un simple ordre de grandeur de k suffira. 

Pour l'obtenir, nous partirons du résultat suivant, donné par le physicien et climatologue Yves Foucart dans https://www.futura-sciences.com/planete/dossiers/climatologie-tant-incertitudes-previsions-climatiques-638/page/4/

 « Les mesures du bilan radiatif effectuées depuis satellite ont permis d'évaluer l'effet d'albédo et l'effet de serre des nuages existants. On a ainsi déterminé le  forcage radiatif des nuages  : c'est, par définition et au signe près, la variation du bilan radiatif de la Terre qui résulterait d'une disparition pure et simple de tous les nuages. Il comporte une composante courtes longueurs d'onde et une composante grandes longueurs d'ondes infrarouge. La première est négative car les nuages diminuent l'énergie absorbée, la deuxième est positive puisqu'elle traduit un effet de serre. Les deux termes sont très grands: en moyenne annuelle, environ - 47 Wm-2 pour l'effet d'albédo et +29 Wm-2 pour l'effet de serre. Globalement donc, l'effet d'albédo l'emporte et l'effet résultant des nuages est de refroidir la planète. Si, instantanément, ils devenaient transparents, le bilan radiatif augmenterait de 18 Wm-2 

Or une augmentation de 4 Wm-2  provoque un réchauffement à la surface d'environ 1°C. (d'après http://planet-terre.ens-lyon.fr/article/effet-de-serre-royer.xml). Donc une augmentation de 18 W/m² entraine un réchauffement au sol d'environ 4,5°C. 

Donc 1% de nuages bas en plus ou en moins entraine 4,5/25= 0,18°C de température en plus ou en moins. Donc on prendra k=0,18 et la relation (1) s'écrit donc:

 (1) <=> t(n+1)=t(n)+K-0,18(e(n+1)-e(n))

Pour obtenir la constante k' qui intervient dans (2), nous faisons  l'hypothèse assez logique que l'évaporation supplémentaire provoquée par le réchauffement impacte directement et linéairement la couverture nuageuse de l'atmosphère en nuages. 

Or l'évaporation augmente avec le réchauffement de 2% par degré au-dessus des océans d'après https://reseauactionclimat.org/wp-content/uploads/2018/01/diminution-des-nuages-bas-aerosols-et-amplification-du-rechauffement-12-01-18-reseau-action-climat.pdf.

 Puisque les nuages bas composent approximativement 40% de la couverture nuageuse totale, 1°C en plus crée 0,4 X 2 = 0,8% supplémentaire de couverture nuageuse   en nuages bas, donc k'=0,8 et la relation (2) s'écrit finalement:

(2) <=>  e(n+1)=e(n)+0,8(t(n)-t(n-1))

Enfin, pour obtenir K, nous "calons" le système (1) et (2) pour qu'il donne en 2020 une température d'environ 15°C, TMAM mesurée à cette date. Nous obtenons K=0,02.

Comment peut-on interpréter cette valeur de K? S'il n'y avait pas l'effet rétroactif négatif des nuages bas de type "prédateurs proies" tel que nous l'avons précisé au paragraphe III,  la TMAM aurait augmenté de 0,2°C (au lieu de 0,17°C dans la réalité) par décennie entre 1970 et 2019 et aurait donc atteint la valeur de 15,15°C au lieu de 15°C en 2019.

Donc pour la période connue de 1970 à fin 2019, notre modèle est donné par le système suivant: 

ooo

VII - Modèle finalisé pour la période 1970-2120:

Fondé sur la période connue 1970-2020 et en tenant compte de tout ce qui a été précisé notamment sur l'évolution des émissions cn de GES en ppm de CO₂ ou d' équivalent CO₂, notre modèle discret pour la période 1970- 2120 se traduit par le système suivant:

oo

 

VIII - Prévisions de notre modèle pour différentes valeurs de a:

Rappelons d'abord que a représente la diminution de l'augmentation de ppm par an, supposée nulle avant 2020 et constante positive à partir de 2020.

Les graphiques qui suivent donnent pour plusieurs valeurs de l'évolution de la TMAM tn pour la période 1970-2120. Pour les obtenir, nous avons programmé sur tableur le modèle discret présenté au paragraphe précédent. Nous avons aussi représenté la courbe de Tn, la TMAM qu'il y aurait s'il n'y avait pas l'effet retro-actif et régulateur des nuages bas. Voici le fichier qui a permis de générer ces courbes: Mod_le_TMAM_Zeltz_e

Evolution de la TMAM pour a=0 (aucune modification à partir de 2020 concernant la progression des émissions d'origine anthropique des GES mesurées et moyennisées pour la période 1970-2019):

TMAM prévue dans cette hypothèse en 2120: environ 16,8°C

a=0

 

 

 

Evolution de la TMAM pour a=0,02 (A partir de 2020, l'augmentation cn de ppm par an diminue de 0,02 ppm par année)

TMAM dans cette hypothèse en 2120: environ 16,2°C

 

a=0,02

 

Evolution de la TMAM pour a=0,04 (A partir de 2020, l'augmentation cn de ppm par an diminue de 0,04 ppm par année)

TMAM prévue dans cette hypothèse en 2120: environ 15,7°C

a=0,04

Evolution de la TMAM pour a=0,08 (A partir de 2020, l'augmentation cn de ppm par an diminue de 0,08 ppm par année) prévue dans cette hypothèse en 2120: environ 14,6°C avec un maximum de 15,5°C atteint vers 2060.

a=0,08

IX - Discussion et conclusion:

Quelques remarques:

Nous remarquons que l'effet retro-actif des nuages bas sur la TMAM, s'il n'est pas énorme (au plus quelques dixièmes  de °C en moins de tn  par rapport à Tn) est réel, et qu'il s'accentue avec l'augmentation de la TMAM. 

Nous remarquons aussi qu'une décroissance lente (0,08 ppm en moins de progression chaque année) permet de retrouver en 2120 une TMAM inférieure à l'actuelle. Cela dit, il faudrait évaluer concrètement cette baisse et les efforts qu'elle représente pour l'humanité, ce que nous n'avons pas fait. En tous les cas, cela paraît être un objectif souhaitable et réalisable pour les décennies futures.

Robustesse du modèle:

Comme nous l'avons vu, certaines constantes ou valeurs initiales utilisées ne sont que des ordres de grandeur assez grossiers, avec une grosse part d'imprécision, sans doute dans une fourchette large de + ou - 5%. Il s'agit notamment:

- de la couverture initiale en nuages bas fixée à 25%,

- de la hauteur moyenne des nuages bas fixée à 1,5 km,

- de l'augmentation moyenne sur les 50 premières années fixée à 2,7 de la quantité de ppm de CO₂  ou équivalent CO₂ présents dans l'atmosphère ,

- des valeurs des constantes k et k' présentes dans le système.

Aussi nous avons pris le soin de tester le modèle pour d'autres valeurs dans cette fourchette de + ou - 5%. Nous avons pu constater que le comportement global de la TMAM reste inchangé, et que les valeurs finales obtenues pour la TMAM en 2120 reste dans une fourchette beaucoup plus serrée (+ ou - 2%). En ce sens, notre modèle peut-être considéré comme très robuste.

Simplicité du modèle:

Notre modèle est simple à double-titre: d'abord pour son paramétrage, ensuite par sa vitesse d'éxécution, inférieure au millième de seconde à partir d'un simple micro-ordinateur. C'est tout le contraire pour les modèles utilisés par le GIEC: extrême complexité du paramétrage  et des journées de travail d'hypercalculateurs sont nécessaires pour obtenir les résultats. Tout cela pour arriver à des résultats fort différents d'un modèle à un autre.

Fiabilité du modèle:

Contrairement à ceux validés par le GIEC, notre modèle n'a pas pour base théorique des systèmes mathématiques fortement non linéaires, à effets chaotiques, mais  repose essentiellement sur une moyennisation de ce qui a été observé sur les cinquante dernières années. Cette assise est suffisamment longue et complète pour qu'elle permette un prolongement quasi-linéaire sur les décennies qui suivent, cela en ne modifiant qu'un paramètre: la valeur de a. Donc une fiabilité théorique certaine au départ, contrairement aux modèles mis au point par les climatologues travaillant pour le GIEC.

Cela dit, ce modèle ne sera vraiment validé que dans quelques décennies, en comparaison de la réalité observée avec ce qu'il prévoit. Mais ceci est le lot de n'importe quel modèle prédictif.

En conclusion, et jusqu'à preuve du contraire, ce modèle répond à tous nos objectifs initiaux: simplicité, robustesse et fiabilité pour l'obtention de la TMAM dans les cent ans qui viennent.

 

 

12 juin 2019

Dialogue avec le physicien "climato-réaliste" François GERVAIS

 

 Francois Gervais

François GERVAIS est un universitaire physicien, chercheur et professeur émérite à l'Université de Tours.

Il défend des idées "climato-sceptiques", en ce sens que par exemple il pense que le rôle des émissions de CO2 est négligeable dans le réchauffement climatique. Pour ceux qui voudraient connaître son argumentation précise là-dessus, je les renvoie au lien déjà donné dans le message précédent:

https://solidariteetprogres.fr/francois-gervais.html

Il a aimablement accepté d'entamer un dialogue avec moi, et donc voilà les premières remarques et questions que je lui soumets:

eric zeltz

Monsieur Gervais, vous êtes un physicien reconnu, auteur de nombreuses publications avec comité de lecture, donc je n'ai a priori aucune raison de remettre en cause ce que vous affirmez dans le strict domaine des sciences physiques.

Donc je partirai de l'affirmation que vous faites concernant le CO2: le rôle qu'il joue dans l'effet de serre est pratiquement arrivé à saturation depuis longtemps et donc l'accumulation supplémentaire de CO2 dans l'atmosphère ne joue plus qu'un rôle négligeable dans l'augmentation de température actuelle.

Il n'en reste pas moins vrai qu'il y a une augmentation accélérée de la température moyenne du globe comme le montre clairement le graphique suivant:

TEMPERATURE MONDIALE

Donc, il faut lui donner une explication.

Si je vous ai bien compris (vous me corrigerez si nécessaire), vous mettez cette explication essentiellement dans des causes naturelles (regain de l' activité solaire, cycles de 60 ans, etc...), l'origine anthropique de cette augmentation étant pour vous négligeable.

Là vous me convainquez beaucoup moins. A mon avis les causes naturelles et non anthropiques que vous donnez sont largement insuffisantes pour expliquer le graphique précédent.

Voilà plutôt comment je vois  les choses:

Quand j'étais gamin (je suis né en 1955), nous étions environ 3 milliards sur Terre. Nous sommes maintenant plus de 7 milliards. Donc plus de 4 milliards d'individus en plus. Essayons d'estimer "à la louche" l'energie dissipée en chaleur par chacun de ces 4 milliards d'individus supplémentaires:

Déjà il y a celle qu'il dégage lui-même pour maintenir sa température à 37°C, pour se déplacer physiquement, pour travailler, pour dormir, etc. Je dirai de l'ordre d'environ 100wh. Puis il utilise au moins  de temps en temps un moyen de transport mécanique à moteur thermique, il chauffe ou climatise sa maison, fait cuire ses aliments, passe l'aspirateur, utilise un ordinateur, s'éclaire, etc...: je rajoute 400wh. Pour construire sa maison, sa voiture, ses appareils electroménagers, etc..., il a fallu utiliser de l'énergie dont une partie s'est dissipée en chaleur que je moyennise à environ 200wh. Plus tout ce que j'oublie certainement dans mon décompte (par exemple pour la construction des infrastructures dont il bénéficie), 300wh en plus.

J'en suis à 1000wh par individu, ce chiffre n'étant bien sûr qu'un grossier ordre de grandeur, vu la "qualité" de mes estimations. Mais jusqu'à preuve du contraire que vous me donnerez peut-être, je pense qu'on ne doit pas être trop loin de la réalité, donc je partirai de ce chiffre.

Donc actuellement, par rapport à l'époque où j'étais gamin, il se dissiperait en plus en chaleur: 1000 X 4 milliards wh= 4000 milliards de wh.

Quand j'étais gamin, mon père avait acheté un gros radiateur electrique d'une puissance de 1000w. En plein hiver, et à l'époque ils étaient souvent froids dans l'Est de la France, ce radiateur suffisait amplement pour chauffer 3 grandes pièces de notre maison. Donc, actuellement, à cause des 4 milliards de personnes en plus, il y a l'équivalent sur terre de 4 milliards de radiateurs d'une telle puissance. Sans compter que les autres 3 milliards ont certainement augmenté leur dissipation de chaleur du fait de l'augmentation constante de la consommation moyenne par individu depuis ces années 60.

Donc on en est certainement à l'équivalent d'au moins 6 milliards de gros radiateurs de 1000w en plus par rapport aux années 60. Ce n'est pas rien, non?

Bien sûr, cette chaleur se dissipe dans l'atmosphère, mais l'effet de serre en confine une grande part dans le bas de l'atmosphère.

Voilà donc pour moi la cause principale qui explique cette augmentation de la température moyenne du globe relevée à sa surface: c'est tout simplement la dissipation directe de chaleur supplémentaire provoquée par l'augmentation de la population humaine et confinée par l'effet de serre dans les couches les plus basses de l'atmosphère.

Alors vous allez certainement me dire que cette chaleur supplémentaire d'origine purement anthropique est infime par rapport à la chaleur apportée par le Soleil et même par rapport à la chaleur tellurique issue de la Terre. Certes, mais on ne peut nier qu'elle augmente d'années en années et qu'avec son confinement dans les basses couches de l'atmosphère, elle s'y accumule lentement et surement.

Un peu comme si au fond d'une piscine subissant la température ambiante supposée parfaitement stable, on avait posé une petite résistance électrique et qu'on augmentait exponentiellement l'intensité du courant qui la traverse: les effets finiraient par se voir dans la température de l'eau, aussi petite que soit cette résistance et aussi grande que soit la piscine.

Une autre comparaison pour expliquer le phénomène:

Qu'est ce qui explique que les grosses fourmilières à dôme qu'on trouve souvent en forêt européenne gardent même au coeur de l'hiver une température supérieure à 20°C?

 

fourmiliere

 

Non pas un phénomène naturel extérieur, mais uniquement la chaleur dégagée par l'activité des fourmis qui est piégée par les aiguilles de pins et les branchettes d'arbre qui tapissent le dôme, et aussi par la neige qui tombe sur la fourmilière. Toutes proportions gardées, l'activité des fourmis et la chaleur qu'elles dégagent correspondent à l'activité humaine incessante et dissipant sans arrêt de la chaleur dans la troposphère. Et l'isolation thermique de la fourmilière correspond à l'effet de serre dû à la vapeur d'eau et au CO2 présents dans l'air. Et il est clair que si la population de la fourmilière se met à croitre, sa température suivra, sauf si les fourmis s'emploient à augmenter le volume de la fourmilière, ou si elles parviennent à réguler sa température d'une manière ou d'une autre (elles en sont capables, les diablesses! Ce sont des insectes extraordinaires). Pourquoi n'en serait-il pas de même s'agissant de la température terrestre, surtout quand la population humaine passe de 3 milliards à plus de 7 milliards en une soixantaine d'années?

D'où à mon avis ce réchauffement global, insidieux pour l'instant (+ 0,6°C en 50 ans, ce n'est pas grand chose) mais qui, si c'est vraiment la bonne explication, ne pourrait que s'accélérer en même temps que la population humaine et son activité économique trépidante.

En tous les cas, ce point de vue est corroboré par la très forte corrélation qu'il y a entre les augmentations de la population, de la température moyenne terrestre et de l'activité économique traduite par le PIB, comme le montrent très clairement ces trois graphiques mis côte-à-côte:

                         pop mondiale                     TEMPERATURE MONDIALE          PIB MONDIAL

 Je doute très fort que ce soit le cas avec le graphique de l'activité solaire ou d'autres phénomènes purement naturels mis en parallèle avec l'augmentation de la température sur ces 60 dernières années. Mais vous allez peut-être tenter de me montrer que c'est bien le cas.

En attendant, je vous soumets le petit modèle mathématique (décliné sous deux hypothèses) que j'ai mis au point et qui découle de mon approche:

modele_temp

Que pensez-vous de tout cela?

 Francois Gervais

La présentation lissée que vous amenez laisse croire que la température a atteint un sommet récent et continuerait à croitre. Il est vrai qu’il y a eu un pic El Niño en 2016, phénomène reconnu comme naturel par les climatologues, mais la température est dégringolée de 0,65°C aussi vite qu’elle est montée. Hors telles fluctuations, les données mensuelles montrent que la température n’a pas varié de façon significative depuis 20 ans, ce qui est à peu près cohérent avec le sommet du cycle de 60 ans:

int10

 

De plus, je ne considère pas que l'évolution de la température provenant des émissions de CO2 d'origine anthropique soit négligeable comme le soulignent les titres de mes deux articles publiés dans des revues internationales à comité de lecture où le mot « anthropogenic » est bien présent

Gervais, F., 2016. Anthropogenic CO2 warming challenged by 60-year cycle. Earth-Science Reviews 155, 129-135 

Gervais, F., 2014. Tiny warming of residual anthropogenic CO2Int. J. Modern Phys. B 28, 1450095

mais moindre que l’évolution naturelle, ce qui n’est pas la même chose.

Enfin, reprenons votre chiffre de 6 milliards de gros radiateurs de 1000 w. Divisons-le par la superficie de la Terre pour comparer à la chaleur moyenne reçue du soleil et renvoyée par la Terre vers l’espace par émission thermique : 238 w/m2.

6 1012 w/510 1012 m2 = 0,012 w/m2

Est estimée à 0,03 w/m2 la chaleur dégagée par la combustion de charbon, gaz, pétrole, valeur du même ordre de grandeur que votre propre estimation. Dans les deux cas, ces estimations restent très inférieures au rôle du soleil. Elles sont même très inférieures au forçage radiatif estimé page 13 du cinquième rapport AR5 du GIEC : entre 1,1 et 3,3 w/m2.  

eric zeltz

Ci-dessous un autre graphique présentant l'évolution des températures depuis 1880:

planete-temperature-1880

 

Votre cycle de 60 ans y est totalement  invisible . Je vois bien sur les 60 premières années 1880- 1940 une descente puis une remontée. Mais après un "plat fluctuant" sur 30 ans (1940- 1970).  Par contre la tendance générale à réchauffement à partir des années 1970 est très nette. Le replat final observé à partir de 2010 n'est à mon avis pas du tout suffisant ni assez long pour pouvoir être interprété comme un ralentissement qui risque d'être durable. C'est certainement une simple fluctuation, comme on en voit à d'autres périodes, mais très loin d'être suffisante pour pouvoir actuellement remettre en cause cette tendance au réchauffement observée au moins depuis 50 ans. On va donc dire un seul cycle vraiment visible sur une durée de 130 ans, on ne sait pas ce qu'il y a avant ni après, je trouve que vous allez très vite en besogne.

Par ailleurs, si on lit vos articles ou visionne les différentes vidéos où vous présentez vos positions, on constate que vous affirmez régulièrement que le passage de 3 à 4 ppm de CO2 dans l'atmosphère en quelques décennies n'a joué ou ne jouera qu'un rôle très faible dans le réchauffement. De l'ordre à peine de quelques dixièmes de degré. Cela parce que d'après vous ce rôle d'effet de serre joué par le CO2 est arrivé depuis longtemps à saturation. C'est bien cela? Or je vois que dans votre réponse vous prenez comme argent comptant les derniers chiffres donnés par le GIEC concernant cet effet de serre supplémentaire (forcage radiatif): entre 1.1 et 3.3 w/m². Je ne comprends pas, car eux ne le considèrent pas comme négligeable mais en font la cause principale de ce réchauffement. Il faut que vous m'expliquiez ce qui me paraît pour l'instant une contradiction de votre part et qui n'en est sans doute pas une. 

Concernant enfin mon petit calcul sur l'apport calorifique provenant directement de l'activité humaine, je savais bien sûr qu'il était infime par rapport à l'apport solaire. Mais j'ai amené deux comparaisons (celle de la petite résistance dans la piscine et celle de la fourmilière à dôme) pour montrer qu'il peut tout de même avoir une influence, au moins à long terme, et nous sommes  bien sur des périodes à long terme. Vous n'en tenez pas compte.

De toute façon je ne vois toujours pas d'autre cause principale qu'une origine anthropique au réchauffement, et le modèle que j'ai ébauché ci-dessus et que je suis en train de rédiger plus sérieusement dans le dernier message de mon blog part d'une réalité à mon avis incontestable (mais que vous allez peut-être contester): la corrélation de l'évolution de la température avec celles de la population et de l'activité économique, que le forcage radiatif en soit ou pas un élément accélérateur.

Soyons précis. Le CO2 n’est pas passé de 3 à 4 ppm en quelques décennies, mais en un siècle de 0,03 % à 0,04 %, soit 410 ppmv (parties par million en volume) aujourd’hui. Certes, la température est montée de 0,6°C entre 1975 et 2010 (en 35 ans) mais l’amplitude de cette hausse est pratiquement la même qu’entre 1910 et 1945 (également en 35 ans) alors que durant cette première hausse, les émissions de CO2 étaient 6 à 10 fois inférieures à ce qu’elles sont aujourd’hui, ne plaidant pas en faveur d’une corrélation.

eric zeltz

C'est entre autres ce qui me fait penser que c'est l'augmentation accélérée de la population et de l'activité humaine qui explique principalement cette montée de la température depuis 1900. Regardez ce graphique:

Un_millénaire_de_croissance_mondiale

Avant 1900 il aurait pu y avoir tout le CO2 du monde dans l'atmosphère, il n'y avait ni population humaine suffisante, ni activité humaine suffisante pour "chauffer" la basse atmosphère. Pour en revenir à ma comparaison avec la fourmilière à dôme: aussi bien isolée soit elle, s'il n'y a que peu de fourmis à son intérieur et qu'en plus elles dorment,  la température ne risquera pas de monter à plus de 20°C à son intérieur en plein hiver.

Par contre, après 1900, montée exponentielle de ces deux paramètres, cela explique pour moi ce +0,6°C entre 1910 et 1945, et celui entre 1975 et 2010.

Les trente ans de "pause fluctuante" entre 1945 et 1975 font partie des fluctuations possibles et ont certainement une explication naturelle.

Francois Gervais

Par ailleurs, en dépit d’un lissage, votre courbe montre un palier depuis le début de ce siècle et non pas une prolongation de la hausse. Les données mensuelles montrées plus haut confirment le palier depuis le début de ce siècle aux fluctuations près.

eric zeltz

Palier? Les quatre dernières années 2015, 2016, 2017 et 2018 furent les plus chaudes jamais enregistrées depuis l’ère industrielle,.

Francois Gervais

Un astronome, Nicola Scafetta (Scafetta, N., 2009. Empirical analysis of the solar contribution to global mean air surface temperature change. J. Atmos. Sol. Terr. Phys. 71, 1916) compare les fréquences de cycles climatiques issus d’une analyse de Fourier des températures de la Terre, à la vitesse du soleil par rapport au centre de gravité du système solaire. La comparaison est trop frappante pour être due au seul hasard. Le cycle de plus grande amplitude (l’échelle verticale est logarithmique) est celui de 60 ans. 

in2

Par la suite, lui et d’autres (Stefani, F., et al, 2016. Synchronized helicity oscillations: a link between planetary tides and the solar cycle? Solar Physics doi:10.1007/s11207-016-0968-0) relieront ce cycle à un effet de « marée » (sur le soleil) des grosses planètes du système solaire. 

eric zeltz

Pas convaincu du tout, car en cherchant bien et en trafiquant un tantinet, on arrive à peu près à mettre en phase tout avec n'importe quoi. Et j'aimerai connaître le principe de ces "marées" solaires et comment elles interagisseraient avec la température sur terre.

Francois Gervais

En ajoutant au cycle de 60 ans le cycle de 20 ans qui le suit par ordre d’amplitude décroissante, Scafetta et al, 2017 (Natural Climate Variability. Int. J. Heat & Technology DOI: 10.18280/ijht.35Sp0103) aboutissent à une simulation quasi parfaite de l’évolution récente de la température (en jaune), plus proche des observations que les projections du GIEC, ici en vert. 

in2

 eric zeltz

Quasi-parfaite!? Vous trouvez? Il n'y a que la foi qui sauve. Mais quand on est comme moi un pauvre incroyant dans ce domaine astrologique, on ne détecte pas du tout cette perfection.

Francois Gervais

J’insiste sur le fait que ce sont bien les données mensuelles UAH et RSS auxquelles le modèle à cycles de 60 et 20 ans est comparé. Ces données mensuelles sont acquises par satellites (depuis qu’ils existent en 1979), procédé qui fournit des valeurs plus homogènes que celles de capteurs inégalement répartis à la surface de la planète. En particulier, nombre de capteurs qui se trouvaient il y a 140 ans en pleine campagne se retrouvent maintenant en zone périurbaine, soumis qui plus est à l’effet d’îlot de chaleur urbain dans les grandes villes, quand ce n’est pas à côté d’un aérodrome. Si l’on veut connaître la température d’une pièce, mieux vaut éviter de mettre le thermomètre sur un radiateur. 

eric zeltz

Certes. Ceci dit, les "ilots de chaleur" que constituent les innombrables mégapoles qui se sont étendues depuis une cinquantaine d'années doivent être pris en compte dans le calcul de la température moyenne et participent de plein fouet à valider mon hypothèse concernant la cause du réchauffement climatique.

Francois Gervais

Comme le rappelait Fleming dans Environmental Earth Science en 2018, on n’observe pas de corrélation entre CO2 et température de la Planète.   

in3

eric zeltz

Cela ne prouve rien pour la période actuelle. Car ce qui peut être vrai à l'échelle des millions d'années peut être complétement faux à l'échelle du siècle. Par exemple pour les périodes volcaniques intenses qu'a traversées la Terre, il devait y avoir beaucoup de CO2 et en même temps un refroidissement.

Francois Gervais

 Ceci implique une faible sensibilité climatique au CO2. Dans l’hypothèse d’une sensibilité climatique de 1°C, valeur sans rétroaction reprise par le GIEC, un doublement ou une division par deux du taux de CO2 entraine une variation de température de 1°C, petite devant les températures sur l’échelle de droite. 

La molécule de CO2 émet à haute altitude le rayonnement précisément aux fréquences de vibration auxquelles, non pas elle-même mais ses homologues l’ont absorbé à faible altitude. On les observe dans la partie infrarouge du spectre. La figure suivante montre le spectre d’émission de l’atmosphère vers l’espace à une altitude de 20 km. A cette altitude, la température est proche de 220 K, soit –57°C ; la vapeur d’eau s’est raréfiée et trône au milieu du spectre la vibration du CO2 à 667 cm-1 (15 micromètres de longueur d’onde). Elle est importante car proche du maximum d’émission de l’atmosphère. 

Lorsque double la concentration de CO2 dans l’atmosphère, passant ici de 300 ppm à 600 ppm, le spectre évolue très peu (de vert à bleu). C’est le point important. La figure est calculée car on ne dispose pas encore du recul nécessaire pour mesurer un si petit écart par satellite. Avec seulement 410 ppm de CO2 aujourd’hui et une augmentation annuelle de l’ordre de 2 ppm (sauf pendant un pic El Niño), on reste encore loin de doubler. 

in4

En cas de doublement, ce très petit écart correspond à seulement 1 % du rayonnement terrestre vers l’espace. Il correspond aussi à une sensibilité climatique de 1°C, sans rétroaction, comme calculé plus loin. On remarque en particulier la « saturation » de la bande du CO2 autour de 667 cm-1 puisque courbe verte et courbe bleue se confondent. 

eric zeltz

Ici, on est précisément dans le coeur de votre domaine de compétences, et jusqu'à preuve du contraire provenant d'un de vos pairs aussi qualifié que vous dans ce domaine des sciences physiques, je vous suis entièrement sur ces points précis.

Francois Gervais

Cette évolution infime est confirmée par l’absence d’évolution de température significative des mesures satellitaires depuis qu’elles existent, ici à une altitude de 10 km. La période correspond tout de même à 60 % des émissions depuis le début de l’ère industrielle ! Sans effet significatif sur la température. 

in5

eric zeltz

A 10km du sol, l'effet de serre joue-t-il un rôle aussi important qu'au ras du sol? Si ce n'est pas le cas, ça peut expliquer cette absence d'évolution de la température. Donc pour l'instant au moins, ce graphique n'est  pas probant pour moi.

Francois Gervais

 On n’observe pas davantage d’évolution significative de la température mesurée spécifiquement sous les tropiques, là où les modèles avec des sensibilités climatiques élevées, repris par le GIEC, attendent en vain la signature de « points chauds » pour être validés. 

in6

eric zeltz

Je sais bien que la Guyane où je réside c'est plus l'Equateur que les Tropiques, mais on y constate bien un réchauffement:

gu

Francois Gervais

Une sensibilité climatique de 1°C, hors rétroaction, est assez facile à retrouver. Myrhe et al (Myrhe, G., Highwood, E.J., Shine, K.P., Stordal, F., 1998. New estimates of radiative forcing due to well mixed greenhouse gases.Geophys. Res. Lett. 25, 2715) évaluent un forçage radiatif DF = 5,35 x ln(C/C0). ln est le logarithme népérien. Le facteur multiplicatif 5,35 a été estimé à partir de trois modèles de climat. Ces modèles de climat ne tiennent toutefois pas compte des cycles naturels. C0 = 410 ppmv et C sont les concentrations actuelle et future de CO2 dans l’air. En cas de doublement (passés de seulement 0,03 % à 0,04 %, on en reste loin) C/C0 = 2 et le forçage radiatif devient DF = 5,35 x ln(2) = 3,7 W/m2. Avec l’hypothèse d’un système Terre/atmosphère rayonnant comme le corps noir et en différentiant la loi de Stefan-Boltzmann sous la forme DF/F = 4 DT/T, où F = 238 W/m2 est le flux thermique moyen émis vers l’espace, T la température de la Terre, celle-ci s’échaufferait alors de 

DTCO2 x 2, Myrhe = T/4 x DF/F = 288/4 x 3,7/238 ~ 1°C. 

Pour ma part, j’ai montré que, à l’instar de nombreux autres auteurs (85 travaux publiés montrant une sensibilité climatique inférieure ou égale à 1°C, cf. liste compilée par Pierre Gosselin : notrickszone.com/50-papers-low-sensitivity) cette valeur pourrait être exagérée.

eric zeltz

Pas de raison de contester ces calculs, même si considérer le système Terre/atmosphère rayonnant comme le corps noir est sans doute être assez loin de la réalité. Mais j'accepte l'ordre de grandeur de 1°C pour un doublement de CO2.

Francois Gervais

Depuis 20 ans, le CO2 augmente en moyenne dans l’air de 2 ppmv par an ; davantage pendant un épisode El Niño car les océans qui contiennent 60 fois plus de CO2 que l’atmosphère en relâchent pendant les bouffées de chaleur des océans. Ainsi, même avec une sensibilité climatique peut-être exagérée de 1°C mais qui a l’onction du GIEC, d’ici 50 ans, les émissions anthropiques pourraient échauffer la Planète au plus de 0,3°C. De quoi paniquer ? De quoi verser dans le syndrome carbocondriaque ?

Sur une concentration actuelle de 0,04 % de CO2 dans l’air, la fraction anthropique représente tout au plus l’augmentation de 0,01 % observée depuis un siècle. La France n’est responsable que 0,9 % des émissions mondiales de CO2. Avec une sensibilité climatique de 1°C, réduire de 20 % les émissions françaises éviterait un réchauffement climatique de l’ordre de 

20 % x 0,9 % x 0,01 %/0,04 % x 1°C = 0,0004°C. 

Les réduire de 40 % (à quel coût économique, social, et à quel niveau de taxation supplémentaire ?) éviterait un réchauffement de même pas un millième de degré… 

L’Europe et les États-Unis sont bien seuls à réduire leurs émissions quand tous les autres pays les augmentent dans des proportions très supérieures…  

in7

 eric zeltz

La question n'est pas de savoir si notre action personnelle ou nationale changeront à elles seules quelque chose, la question est de savoir ce qui doit être fait collectivement pour le bien des générations futures. A mon avis par une prise de conscience collective, il faut  tendre à stabiliser progressivement la population mondiale et sa production industrielle. Utiliser en priorité des energies propres (hydraulique, forces des marées et du vent, nucléaire, c'en est une pour moi, etc...). Eviter de consommer inutilement, ce qui ne veut pas dire nécessairement vivre comme un moine. Et d'accord, le CO2 nourrit les plantes mais il y en a bien assez comme cela, je parle du CO2, pas des plantes. Bref, trouver ou retrouver une certaine sagesse collective, tout simplement.

Cela dit, je suis d'accord avec vous qu'il ne faut pas se focaliser exclusivement sur les emissions de CO2. J'allais dire c'est secondaire.

Retrouvons tous une vie plus authentique et plus sage, et tout le reste viendra par surcroit.

Bilan personnel de ce débat:

Je tiens d'abord à nouveau à remercier François Gervais d'avoir accepté ce dialogue.

C'est la première fois que je réfléchissais vraiment sérieusement à la question du réchauffement climatique, et grâce à lui, j'ai pu sortir un peu des idées assez vagues que j'avais sur la question, glanées à droite et à gauche au hasard des journaux télévisés ou des articles lus dans la presse.

Déjà ce dialogue m'a permis d'ôter de ma tête cette idée apparemment de bon sens que je m'étais forgée: le réchauffement actuel ne serait qu'une conséquence directe des déperditions de chaleur provenant de l'activité humaine (cf mes premiers échanges avec François Gervais). Je me suis longtemps accroché à cette idée, mais que je le veuille ou non, cet apport est infime par rapport aux autres apports de chaleur (notamment et surtout provenant du soleil) et on n'est pas dans une cocote-minute fermée ( cf. ma comparaison avec les fourmilières à dôme) où la chaleur resterait en grande partie coincée  par l'effet de serre comme le fait le couvercle d'une casserole qu'on a mise sur le feu.

Donc rien que pour me retirer cette fausse idée de ma tête, ce dialogue a été positif pour ce qui me concerne. Par contre je continue à penser que le réchauffement actuel est essentiellement d'origine anthropique, même si je n'en ai pas encore l'explication complète (mais je ne suis pas le seul!).

Ensuite, il y a le point crucial: la question du rôle du CO2. François Gervais pense qu'en cas de doublement de CO2 dans l'atmosphère, la température ne monterait pas de plus de 1°C, il pense même moins. Il m'en a donné un calcul, et je suis allé voir aussi les articles scientifiques qu'il a écrits là-dessus. Je ne suis pas spécialiste de ce domaine, même pas physicien, mais cela me paraît solide et cohérent.

Le GIEC, quant à lui, annonce des chiffres beaucoup plus importants: 4 ± 2.4 °C, donc minimum +1.6°C en cas de doublement de CO2, et d'après lui certainement plus. J'ai cherché sur le net l'explication scientifique et le calcul précis qui permet au GIEC d'aboutir à leur résultat. Je ne l'ai pas trouvé.

François Gervais explicite rapidement dans son article publié en 2014 (dans  François Gervais, « Tiny warming of residual anthropogenic CO2 », International Journal of Modern Physics Bvol. 28,‎ 11 mars 2014, p. 1450095 (ISSN 0217-9792,) comment le GIEC a obtenu ce résultat, mais j'aimerais assez qu'un membre du GIEC me confirme et détaille la démarche qui a permis d'obtenir ce résultat.

Aussi je vais prochainement contacter  un scientifique de GIEC pour qu'il me les précise et qu'ainsi  je puisse confronter ces deux approches qui aboutissent à des résultats aussi différents. Je verifierai par la même occasion si les membres du GIEC sont aussi ouverts que François Gervais au dialogue sur la question avec le simple citoyen que je suis.

A ce propos, je précise que je n'ai fait et ne ferai a priori aucun procés d'intention, comme on en voit régulièrement et provenant des deux camps:

Les "climato-réalistes" pensent souvent que les gens du GIEC travaillent tous dans le même sens de "Attention, y-a la maison Terre qui brule!" essentiellement pour que leurs laboratoires continuent à être grassement subventionnés par des organismes comme Green-Peace et autres.

Les "pro-GIEC" affirment souvent que des gens comme François Gervais roulent uniquement pour la prospérité des trusts pétroliers, et sous-entendu sont payés par eux.

Non, autant j'ai considéré au départ (et continue à considérer) François Gervais comme un scientifique sérieux, mettant ses compétences uniquement au service de la seule vérité scientifique, autant j'aurais a priori une attitude semblable vis-à-vis du scientifique du GIEC qui voudrait bien répondre à ma demande. 

Cela dit, il y a un fait: "Le catastrophisme, la peur d’un futur climatique, a l’avantage de focaliser l’attention des médias et finalement d’attirer plus facilement les crédits de recherche dans les équipes qui le mettent en avant. A l’opposé, les scientifiques qui discutent de l’incertitude des modèles, qui montrent, connaissance du terrain et de la société à l’appui, que de nombreux facteurs autres que climatiques expliquent la fragilité de certains territoires et de certains groupes humains, sont eux moins médiatiques et in fine, disposent de moins de moyens pour leur recherche." (d'après Gérard Beltrano dans un article publié en 2010 et qui fait une excellente synthèse du point de vue des géographes: https://journals.openedition.org/echogeo/11816)

Donc sans remettre en cause leur honnêteté, on peut tout de même penser que les climatologues du GIEC ne sont pas totalement impartiaux et que des considérations bassement économiques orientent peut-être un tant soi peu les résultats. C'est si facile de changer un petit paramètre dans le sens qui arrange.

C'est pourquoi j'attends beaucoup que l'un d'eux réponde clairement à la question précédente sur leur calcul en cas de doublement de CO2.

 

Enfin, il y a l'explication globale donnée par François Gervais: cycles de 60+20 ans avec hausse de 0.6°C par cycle pour décrire l'évolution de la température depuis le début de l'ère industrielle. Ces cycles étant d'après lui en phase avec les vitesses du centre de gravité du système solaire, ce qui donnerait l'explication de ces cycles, par un phénomène de "marées" solaires.

Comme je l'ai dit, cela ne m'a pas convaincu: déjà pour l'existence des cycles mêmes, ensuite par l'explication donnée par François Gervais de la présence de ces cycles, à supposer qu'ils existent vraiment.

En conclusion, je termine par ces questions:

 

1- A supposer que le GIEC ait raison: comment explique-t-il le +0,6°C de 1910 à 1945, donc une hausse aussi importante que de 1975 à 2010, et cela pour une période où il y avait beaucoup moins de CO2 dans l'air?

2- A supposer que François Gervais ait raison, quelle est son explication du +0,6°C par cycle?

3- Quant à moi, mon hypothèse étant que la hausse perçue depuis 1910 est en grande partie d'origine anthropique, mon argument essentiel étant la forte corrélation qu'il y a entre augmentation de la température, de la population mondiale et du PIB mondial, je n'arrive pas pour l'instant à expliquer le "plat fluctuant" qu'on observe de 1945 à 1975, donc sur 30 ans tout de même.

Voilà où j'en suis pour l'instant de ma réflexion et de mes questions sur le sujet .

 

 

 

 

 

Publicité
Publicité
1 2 > >>
Modélisation du réchauffement climatique
  • L'auteur de ce blog propose une modélisation du réchauffement climatique qui se veut à la fois simple et fiable. Le blog a pour objectif essentiel de présenter ce modèle, d'en discuter et éventuellement de l'améliorer.
  • Accueil du blog
  • Créer un blog avec CanalBlog
Publicité
Archives
Publicité