Modélisation du réchauffement climatique

06 juillet 2019

Nature mathématique des distributions des températures: stable, gaussienne, autre?

 

mandelbrot

Le mathématicien Benoit Mandelbrot (1924-2010) a montré que les cours boursiers avaient un comportement chaotique et que leurs courbes d’évolutions  étaient d’allure fractale : si on prend l’allure générale d’une courbe boursière sur un an, il est possible de retrouver un motif similaire à des échelles de plus en plus petites, de l’ordre d’un mois, d’une semaine ou d’une journée. Cela montre donc en bourse que le comportement du marché passé a une influence sur celui à venir.

Il a établi que la dépendance reliant le prix au temps est caractérisée par la dimension fractale : plus elle est proche de 1, plus il est possible de faire une prévision à long terme. Plus cette dimension tend vers 2, moins les prévisions faites grâce aux fractales sont exactes.

Cela permet de générer des courbes boursières plausibles, en réitérant avec des échelles de plus en plus petites le même motif.

Voilà un exemple: 

fract

Voilà ce qu'écrivait Mandelbrot là-dessus: 

"Sur le plan pratique, cette constatation laisse imaginer qu'on pourrait utiliser un générateur de fractales à partir des données historiques des marchés financiers. Le modèle utilisé ne se contente pas simplement d'inspecter ce que le marché a fait hier ou la semaine dernière. Il est une représentation plus réaliste des fluctuations du marché, appelé mouvement brownien fractionné en temps multifractales de négociation. Les graphiques ,créés à partir des générateurs et de l'historique des cours, produisent des modèles permettant de simuler des scénarios alternatifs basés sur l'activité antérieur du marché.
Ces techniques ne donnent pas la prévision d'une baisse des prix ou d'une hausse pour un jour donné. Mais ils fournissent des estimations de la probabilité de ce que le marché pourrait faire et permettent de se préparer aux changements inévitables. Les nouvelles techniques de modélisation sont conçus pour nous éclairer sur les marchés financiers. Ils reconnaissent aussi l'avertissement du navigateur: même sur une mer calme, un coup de vent peut-être à l'horizon." (voir https://www.next-finance.net/Une-approche-fractale-des-marches)

Une question interessante et même capitale par rapport à notre projet de construire un modèle du réchauffement climatique en découle:

Est-ce que les fluctuations des températures sont d’allure fractales et ont une distribution "stable" (par opposition à gaussienne) comme les cours de la bourse, ou est-ce qu’elles suivent une distribution gaussienne, comme pour le mouvement brownien? Ou ni l'une ni l'autre?

La question nous paraît d'importance, et à notre connaissance, elle n'a jamais été posée.

Pour avoir une première approche de la réponse, partons de ce graphique qui représente l’évolution des températures de surface marines (SST) publiée par la NOAA :

sst

La courbe en rouge donne les températures toutes les semaines. La courbe en jaune celle des températures moyennes tous les 6 mois. 

Voilà ce que nous obtenons en itérant 3 fois la fractale à partir de 4 valeurs de la courbe rouge répartie sur une période de 6 mois

frr

Nous constatons que les oscillations réelles sont nettement plus marquées encore que ce que donne la fractale pour un pas d'une semaine. Donc au moins sur cet exemple il semble que l'aspect chaotique soit encore plus marqué que dans le cas boursier, où la fractalisation donne des évolutions des cours boursiers  tout-à-fait réalistes pour des échelles de temps plus petites.

Or c'est pour cela que Mandelbrot a contesté fortement que les distributions des cours de bourse soient gaussiennes, comme les théories classiques le préconisent (par exemple celles qui ont établi la formule de Black-Scholes). Ces théories classiques ne peuvent anticiper les krachs boursiers car pour elles, ils sont trop improbables. Et la réalité historique a montré exactement le contraire.

Et comme nous venons de le remarquer sur l'exemple des SST, il semble que ce ne soit pas suffisant pour les températures: Les oscillations très fortes semblent encore plus fréquentes et importantes, donc les événements qui auraient été négligés par une distribution gaussienne sont encore plus fréquents que le prévoirait même une distribution "stable", pourtant adaptée au chaotique et débouchant sur du fractal.

A creuser et à vérifier.

Posté par mathsconcretes à 16:22 - Commentaires [0] - Permalien [#]


27 juin 2019

Justification des choix faits pour établir notre modèle.

terre

Le modèle de Lorenz est evidemment très insuffisant pour permettre de prévoir la température moyenne du globe.

Mais son étude va nous aider à justifier notre approche.

Dans ce qui donne la température moyenne au sol de la planète, il y a des paramètres qui sont indépendants du réchauffement climatique, d'autres qui en dépendent.

Parmi ceux du premier type, il y a les chaotiques et les  non chaotiques.

1- Pour les paramètres chaotiques, nous pouvons estimer que ça se passe comme pour le flot de Lorenz et que donc sur une période de 50 ans, le "mélange" a largement pu se faire et que donc leur moyennisation donne des constantes qu'il n'y a pas de raison de ne pas retrouver dans toute période de même longueur. Expliquons sur un exemple: si l'on met une goutte d'encre dans un verre d'eau, au bout de quelques secondes, l'eau prend une couleur homogène. A la fin de la minute la couleur obtenue est stable et demeurera dans la ou les minutes suivantes: les particules colorées continuent à bouger chaotiquement de la même manière qu'au départ, mais l'homogénéisation étant faite, la couleur moyenne ne s'éclaircit pas ni ne s'assombrit durant la deuxième, troisième, etc..., n-ième minute.

2- Pour les paramètres non chaotiques, si la période est assez longue pour qu'ils puissent prendre au moins une fois toutes les valeurs possibles par rapport aux cycles qui sont en jeu, il en sera de même que pour les paramètres chaotiques: leur moyennisation sur toute la période longue donne des constantes qu'on doit retrouver sur toute période similaire.

Or la longueur de 50 ans (1970-2019) nous semble largement suffisante pour intégrer les cycles les plus déterminants à moyen terme, notamment solaires et marins.

Venons en maintenant aux paramètres du second type, c'est-à-dire à ceux qui sont impactés par le réchauffement et pouvant avoir des effets rétroactifs sur la température. Quels sont-ils?

Nous en voyons principalement trois:

1- L'évaporation supplémentaire qui entraine l'augmentation des nuages et des précipitations. Il est géré par notre modèle (voir le paragraphe III de http://modeleclimatique.canalblog.com/archives/2019/06/12/37424134.html)

2- Les modifications d'albédo (= réverbération des rayons solaires) notamment provoqués par les fontes de glace ou au contraire les phénomènes de "givrage" qui peuvent se faire à grande échelle, comme lorsqu'un réfrigérateur est mal isolé (c'est ainsi que nous expliquons l'extension de la zone glacée constatée au Pole Sud). Nous l'avons pour l'instant négligé car nous pensons que les deux aspects (fonte et givrage) se neutralisent grosso-modo. Mais par la suite nous vérifierons certainement ce point de manière plus approfondie.

3- L'évolution de la végétation: Il y aura certainement des phénomènes de sahélisation voire de désertification dans certaines régions du globe, ce qui a un effet rétroactif positif sur la température. Mais dans d'autres régions, il y aura aussi une augmentation de la végétation comme cela se voit déjà dans l'hemisphère Nord (cf http://modeleclimatique.canalblog.com/archives/2019/06/12/37424198.html). Cela a certainement des effets rétroactifs cette fois négatifs sur la température. Donc comme pour les modifications d'albédo, nous pensons que le bilan des modifications de la végétation est à peu près neutre, c'est pourquoi notre modèle néglige cet aspect. Mais nous ne nous interdisons pas d'en faire aussi une vérification plus approfondie par la suite.

 En définitive, voilà l'essentiel de ce qui justifie que notre modèle se construise à partir des seuls résultats connus et moyennisés des cinquante dernières années et ne fasse ensuite intervenir comme élément nouveau que les évolutions d'émissions de GES et l'effet "prédateurs-proies" des nuages bas sur la température.

Posté par mathsconcretes à 02:35 - Commentaires [0] - Permalien [#]

26 juin 2019

Réactions de "TreizeVents" à propos de mon modèle.

treize vents

J'imagine qu'intellectuellement parlant la démarche intéressante au moins à titre personnel. Néanmoins, ce qui me paraît extrêmement illusoire, c'est de penser qu'on peut arriver à un résultat plus fiable en partant d'un modèle simplifié. Le principe même d'une simplification, c'est de réaliser une estimation / simulation moins complexe (et quelque part atteignable), en acceptant l'idée que cela engendre nécessairement une perte de fiabilité - le tout étant que la marge d'erreur soit considérée comme acceptable au regard de ce qu'on veut en faire. Si on pouvait parvenir à un résultat plus fiable en ignorant ou en moyennant / diluant un certain nombre de paramètres au motif que cela devient trop compliqué, on ne se serait jamais cassé les c... à complexifier les modèles climatiques et/ou météorologiques. C'est vrai tant pour le climat (prévisions de l'état global de l'atmosphère en 2060) que pour la météorologie (combien il fera à Cosne sur Loire en Tn après-demain). Personnellement, je n'ai jamais vu nulle part que moyenner entre elles des incertitudes indépendantes permettait in fine de les réduire. L'idée de faire un "mini-modèle" n'est certainement pas une mauvaise chose (je m'y suis essayé il y a des années sur un truc ridiculement simple, Météor aussi sur quelque chose de plus élaboré que moi), mais ça me gène profondément de croire qu'on peut arriver avec ça à quelque chose de plus fiable au final que des modèles patiemment développés années après années par des physiciens et des chercheurs. Cela ne sous entend pas que les modèles du GIEC sont complets et parfaits, loin s'en faut, mais c'est pas en réinventant la trottinette électrique qu'on va révolutionner le marché de l'automobile.

 eric zeltz

Je te conseille de bien lire mon message intitulé "L'une des idées du modèle" et celui qui va suivre.

 treize vents 

Autre chose que je trouve étonnante, c'est que la démarche vise à simplifier en retirant un maximum de paramètres, ce qui se résume au final à n'en retenir qu'un seul, l'interaction avec les nuages bas. Quelque part, pourquoi spécifiquement les nuages bas ? J'ai peut-être lu un peu vite, mais je n'ai pas vu d'explication sur ce choix. Certes, c'est une incertitude réelle, et probablement la plus médiatisée notamment sur les sites sceptiques avec les théories sur les rayons cosmiques. Cela ne veut pas dire ni que c'est la seule, ni que c'est forcément la plus importante, et du coup on ne comprend pas forcément le fondement de ce choix.

 eric zeltz

Tu verras une explication assez détaillée de ce choix dans le paragraphe III du message intitulé "Un modèle simple du réchauffement climatique".

treize vents 

Et juste pour le dernier point, on peut comprendre parfaitement la démarche de se fonder sur les observations décennies écoulées (depuis 1970) pour bâtir la projection, mais cela sous tend qu'on estime dans les ordres de grandeur qu'il n'existera pas d'effets de seuil, pas d'évolutions des équilibres des mécanismes climatiques, etc... Bon encore une fois pour un modèle simplifié c'est tout à fait cohérent, mais de là à croire que cela sera suffisant pour faire mieux que les modèles climatiques, il y a un gouffre. Pour un exemple simple, il est écrit que : 

  Citation

Cette période est suffisamment longue pour moyenniser convenablement les fluctuations provoquées par les cycles solaires (d'une durée d'environ 11 ans) et océaniques (suite aux courants, l'eau en surface des océans est renouvelée environ tous les 50 ans), ainsi que celles causées par des événements plus aléatoires comme les éruptions volcaniques ou El Nino. 

Or, la plupart des modèles indiquent justement que dans un monde plus chaud, on risque de faire basculer l'équilibre des régimes de l'ENSO (El Niño / La Nina) vers davantage d'épisodes El Niño, voire même au pire et à très long terme vers un El Niño constant*. Par essence, c'est quelque chose que le modèle simplifié basé sur des observations des dernières décennies ne peut capter, et qui aura pour autant un impact potentiel significatif sur les décennies à venir. 

* Même si, pour être complet et entièrement objectif, on relèvera que les observations des dernières années ne vont pas en ce sens.

eric zeltz

 Tu n'es pas sans savoir que sur 114 modèles, 111 n'avaient pas prévu la relative stabilisation de température des années de la première décennie de ce siècle. Pourquoi ils se sont presque tous trompés là et ne se tromperaient-ils pas concernant El Niño.

C'est pourquoi personnellement j'ai décidé de me fier surtout au "bon bout de ma raison", comme disait Rouletabille

A mon avis, l'effet de type "prédateurs proies" des nuages sur la température que j'explique dans mon modèle a un gros effet régularisateur (à ma connaissance non pris en compte par les modèles du GIEC) et sauf si l'humanité continue à emettre sans frein des GES cela interdira les scénarii catastrophes du type de ceux que tu décris. Cela dit, c'est vrai que j'aimerai bien qu'un bon climatologue (ne pas confondre avec climatidéologue) se penche sur mon modèle et en gardant son principe m'aide à l'affiner en y rajoutant d'autres effets retroactifs que pour l'instant je néglige. Je ne désespère pas de trouver cette denrée rare.

Posté par mathsconcretes à 22:33 - Commentaires [0] - Permalien [#]

Réactions d'Adri34 à propos de mon modèle

adri34

Salut ! J'aime bien ta démarche, que certains ont du mal à cerner. 

Voilà ce que j'en pense. Les modèles actuels utilisés pour les projections climatiques reposent sur l'ensemble des paramètres connus influant sur le climat. Que ce soit les equations de la physique (circulation, thermodynamique, rayonnement) l'impact de la biogeochimie ou des aérosols tout est étudié et son effet connu ... à une incertitude près. D'autres paramètres d'échelle inférieure à la maille du modèle sont parametrisés. La convection atmosphérique, la turbulence, les nuages... Tout cela amène à des incertitudes.

On connaît bien l'émission de GES, l'augmentation de leur concentration dans l'atmosphère, l'impact de la cryosphere ou même l'absorption de l'énergie par l'océan. Mais en terme de contribution radiative des nuages, des aérosols et de la biosphère continentale on y connaît presque rien ! 

 

Le problème c'est que les modèles prennent en compte ces paramètres incertains et quand vous additionnez 10% d'erreur plus 5% plus 20% ben ça devient conséquent. Le système terre est par définition non linéaire donc chaotique. Une erreur de départ c'est une erreur plus grande à l'arrivée. Les différents scénarios sont issus de modèles différents avec des parametrisations différentes dans les gammes de valeurs estimées via leurs incertitudes. Mais on se rend compte que l'on observe avec le scénario 8.5 une augmentation 3.5+-2 degrés, ce qui représente 60% d'erreur ! Rien que ça. 

 

Et la démarche que tu propose vise à prendre en compte la résultante de tous ces paramètres dans le signal moyen en estimant certains paramètres. Le fait de faire une moyenne va réduire l'incertitude sur l'état et l'évolution actuelle sans se soucier de qui fait quoi. Modèle que tu vas considérer comme théoriquement rigoureux qui va mener à un état moyen en rentrant les paramètres d'entrée. Une approche différente. Sait on si dans le futur certains phénomènes actuels vont se comporter pareillement avec une énergie fournie différente ? 

Tes simulations semblent dans le même ordre de grandeur que celles réalisées par le GIEC aux incertitudes près. Il faudrait calculer une incertitude sur les données actuelles que tu utilise également.

eric zeltz

Merci Adri 34 pour tes encouragements. Tu as parfaitement compris ma démarche. Les derniers points que tu soulèves seront pris en compte par la suite sur mon blog. Si tu veux continuer à dialoguer ici, mets tes réactions en "commentaires" à ce message, ensuite je les remonterai ici et y répondrai.

adri34 

Si j'avais un conseil à te donner dans ta démarche. Comme tu as pu le remarquer les critiques et accusations de climato-sceptisme sont rudes sur ce forum et même dans une communauté plus large. Fais attention par rapport à ça en ne disant pas que les modèles sont faux ou ne marchent pas mais en apportant quelque chose finalement ou en expliquant le plus clairement possible la démarche parallèle. Attention aux conclusions trop hâtives également. 

Je sais que ta démarche n'est pas là pour casser le travail déjà réalisé, mais tu souligne des points intéressants. Il faut valoriser ton travail pour améliorer ces points. Aucun modèle n'est parfait et le climat n'est pas une science exacte non plus. 

 eric zeltz

Merci pour tes conseils. Mais c'est vrai que j'ai parfois l'impression de me retrouver dans une guerre de religion du temps d'Henri IV, les catholiques étant les pro-GIEC et les protestants les "climato-sceptiques". C'est pourquoi je préfère qu'on discute ici où je puis t'assurer qu'il n'y aura rien d'autres que des arguments scientifiques. 

adri34

Tu n'as pas un modèle physique avec couplages multiples tentant avec plus ou moins de succès de reproduire des schémas plus ou moins bien connus (de mieux en mieux mais pas totalement), mais un modèle théorique avec comme base d'entrée une résultante des interactions actuelles. Là où il y a une possible erreur c'est dans l'arrivée de nouvelles contributions que ton état moyen de départ ne connais pas. Des rétroactions aujourd'hui négligeables qui deviendront importantes 

 eric zeltz

A mon avis, seule la retroaction négative des nuages bas vaut le coup d'être prise en compte, du moins si l'humanité réagit sérieusement et rapidement sur le plan émission des GES. Mais je creuserai par la suite la question que tu soulèves, ainsi que TreizeVents d'ailleurs.

Posté par mathsconcretes à 22:08 - Commentaires [0] - Permalien [#]

24 juin 2019

L'une des idées du modèle.

pap

L'une des principales idées de notre modèle provient de l'étude du "système dynamique différentiel de Lorenz", premier système dynamique étudié en rapport avec le climat et débouchant sur l'aspect chaotique qui a fait sa célébrité ( le fameux "effet papillon").

Avant d'exposer et de commencer à justifier cette idée, nous allons d'abord décrire les principales propriétés du système dynamique de Lorenz, avec comme objectif que ce soit compréhensible même par ceux qui n'ont pas de formation mathématique à la base.

Si l'on veut en étudier les énoncés mathématiques précis et leurs démonstrations (dont certaines sont récentes), on pourra aller sur cet excellent cours fait par Frédéric FAURE de l'Institut Fourier de Grenoble et sur lequel nous avons puisé nos informations:

https://www-fourier.ujf-grenoble.fr/~faure/enseignement/systemes_dynamiques/cours_lorenz.pdf

Ce système avait pour but de modéliser les phénomènes de convection dans un volume fermé (une boite parallélépipédique) soumis à deux températures différentes en haut et en bas.

La position d'une particule à l'instant t est définie par ses coordonnées cartésiennes x(t), y(t) et (z(t). x(t) est supposé proportionnel à l'intensité du mouvement de convexion, y(t) est supposé proportionnel à la différence de température entre les courants ascendants et descendants, et z(t) est supposé proportionnel à l'écart du profil de température vertical par rapport à un profil linéaire.

On notera X(t)=(x(t),y(t),z(t))

Le système est alors le suivant:

{\displaystyle \left\{{\begin{aligned}{\frac {\mathrm {d} x}{\mathrm {d} t}}&=\sigma \,[(y(t)-x(t)]\\{\frac {\mathrm {d} y}{\mathrm {d} t}}&=\rho \,x(t)-y(t)-x(t)\,z(t)\\{\frac {\mathrm {d} z}{\mathrm {d} t}}&=x(t)\,y(t)-\beta \,z(t)\end{aligned}}\right.}

où σ , ρ  et β sont trois paramètres réels positifs.

Si nous partons de deux positions initiales très légèrement différentes, il s'avère que les trajectoires deviennent rapidement très différentes. C'est le comportement erratique et chaotique qui dans la pratique interdit de prévoir la trajectoire précise puisque même s'il n'y a au départ qu'un millionième de différence, on aboutit à deux trajectoires complétement différentes.

Par contre les trajectoires se retrouvent très vite dans une ellipsoïde (figure presque ovoïde) et y restent pour toujours.

Plus précisément, les trajectoires finissent par presque toujours se déplacer sur les deux ailes d'une sorte de papillon, appelé attracteur étrange de Lorenz, telle que la figure en tête de cet article.

Donc individuellement: comportement erratique et chaotique, le point X(t) passant de manière très aléatoire (un peu comme dans le jeu de Pile ou Face) d'une aile à l'autre de l'attracteur.

Par contre globalement, la figure générale de la trajectoire est assez prévisible : c'est un "papillon" qui dépend peu du choix de X(0).

Mieux: un peu comme une goutte d'encre se mélange rapidement dans un verre d'eau pour obtenir rapidement une couleur homogène, la trajectoire de X se "mélange" de façon assez homogène dans le "papillon". Plus précisément, la probabilité que cette trajectoire passe dans une partie du papillon est proportionnelle à la mesure de cette partie (pour une mesure probabiliste bien précise).

C'est ce qu'illustre la figure suivante issue du cours de Frédéric FAURE référencié ci-dessus:

papp

Venons en maintenant à ce fameux "effet papillon" dont tout le monde a entendu parler un jour ou un autre.

Si nous changeons d'un milliardième la donnée initiale (suite par exemple à un battement de l'aile d'un papillon), nous avons vu que la trajectoire sera complétement modifiée et donc n'entrainera peut-être pas le "cyclone" qui sans quoi aurait eu lieu 5000 km plus loin.

Cela provient de l'aspect chaotique du flot de Lorenz et donc de son énorme sensibilité aux conditions initiales.

Par contre d'après la propriété de "mélange" que nous venons de décrire, dans toute zone bien délimitée de l'attracteur, nous aurons sensiblement le même nombre de cyclones sur une période assez longue, cela quelle que soit la position initiale.

Donc, tout restant inchangé sauf les conditions initiales, si nous connaissons les évènements climatiques qui se sont déroulés sur une période suffisamment longue dans une zone du papillon, nous devons nous attendre à avoir à peu près la même fréquence d'événements climatiques dans la même zone pour des périodes de même longueur. Leur chronologie sera très certainement bien différente, mais leur fréquence assez identique.

Si donc le climat était effectivement modélisé par le flot de Lorenz, par la connaissance sur une période longue des événements climatiques (beau-temps, mauvais temps, orages, jours de gel, tempêtes, canicule, etc...), nous pourrions tabler sur une même fréquence de tels événements pour les périodes suivantes de même longueur.

C'est l'une des idées essentielles sur lesquelles repose notre modèle.

 

 

Posté par mathsconcretes à 20:15 - Commentaires [0] - Permalien [#]


22 juin 2019

Réactions de François-Marie Bréan concernant les dires d' Henri Atlan.

francois-marie-breon

Je trouve très gênant que vous mettiez sur votre site une citation de Henri Atlan, pour expliquer les limitations des modèles du GIEC. Manifestement, Henri Atlan n’a rien compris à la manière dont sont construits les modèles de climat.  Ce n’est pas vraiment une surprise vu que ce monsieur est "Biologiste et philosophe » selon son mini CV de l’article du Monde.  Décrire la limitation des modèles de climat sur la base de ce que un biologiste croit en avoir compris, me parait peu rigoureux de votre part.

 NON, les modèles de climat ne sont PAS des « Modèles par les observations »  
Henri Atlan n’a vraiment pas compris.  Je lui avais d’ailleurs écrit lorsque l’article que vous citez est paru:
 
Votre article dans Le Monde indique que votre connaissance des modèles de climat est assez partielle.  Vous ne semblez pas savoir que ces modèles sont basés sur des équations physiques et non pas sur des modélisations spéculatives.
Si vous êtes curieux d'en savoir un peu plus, je me ferai un plaisir de venir en discuter avec vous et d'essayer de vous expliquer pourquoi les annonces d'un changement climatique majeur sont assez fiables alors que les dénis de Mr Allègre et confrères ne sont basés que sur des arguments d'autorité.
Mon bureau est relativement proche de l'EHESS et je pourrai donc venir vous voir sans difficulté si vous le désirez 
Il avait botté en touche, étant manifestement confortable avec ses certitudes et ne désirant pas en savoir plus.
eric zeltz
Voilà pourtant ce que répond votre consoeur Sandrine Bony à cette question: Une fois que le modèle est fabriqué, comment le valide-t-on ?

"Il est validé à plusieurs niveaux. On vérifie d’abord la capacité des modèles à reproduire les processus physiques élémentaires. On évalue ainsi certains processus nuageux par rapport à des observations de terrain issues de campagnes de mesures dans différentes régions du globe ou de sites instrumentés où l’on mesure énormément de variables. A chaque fois, on regarde très en détail la capacité du modèle à les reproduire. On évalue également le climat simulé par le modèle, c’est-à-dire la distribution géographique et la variabilité à différentes échelles de temps des différentes composantes climatiques, par comparaison avec des observations spatiales. Les satellites scrutent aujourd’hui la Terre sous toutes ses coutures et mesurent beaucoup de choses comme la quantité de vapeur d’eau dans l’atmosphère, la distribution des pluies, des nuages, les échanges d’énergie entre la Terre et l’espace, etc. A chaque fois, on cherche davantage à mettre en évidence les défauts du modèle plutôt que ses qualités, afin d’identifier les composantes à améliorer." (dans http://passeurdesciences.blog.lemonde.fr/2013/06/02/la-prevision-du-climat-est-elle-fiable/)

Elle décrit exactement la démarche qui est utilisée pour les "Modèles par les observations". Elle utilise d'ailleurs le mot "observations" deux fois, mais aussi "scruter sous toutes les coutures", "campagnes de mesures", "regarder très en détail", et j'en passe du même type. Et j'imagine qu'elle sait aussi bien que vous qu'il y a aussi les équations de Navier-Stokes derrière ces modèles et bien d'autres équations physiques, et moi qui ne suis pas climatologue le sais aussi depuis longtemps. Henri Atlan, qui est tout sauf un ignorant, le savait aussi sans aucun doute, et je trouve que vous y allez un peu fort en le traitant de quasi ignorant sur ce point. 

Je crois savoir aussi que Sandrine Bony attend beaucoup d'une campagne d'observations par satellites des nuages qui donnera ses résultats en 2020. Sans aucun doute que suite à ce que donneront ces observations, elle affinera les modèles  actuels. Cela rentre tout-à-fait dans la démarche "Modèles par les observations". Vos modèles ont une base mathématique et physique mais sont aussi sans arrêt modifié dans leurs paramétrisations par les observations de tout ordre qui sont faites. Démarche qui n'est pas inutile, mais qui est à mon avis très insuffisante pour les raisons clairement décrites par Henri Atlan, tout biologiste qu'il soit.

Car on peut très bien être "extra-climatologie" et avoir une vision lucide des méthodes utilisées par les climatologues.

Au contraire, on peut très bien être "intra-climatologie" et de ce fait difficilement capable d'avoir le recul suffisant pour prendre conscience des limites des méthodes sur lesquelles on s'est tellement investi.

Posté par mathsconcretes à 02:10 - Commentaires [0] - Permalien [#]

17 juin 2019

Défauts majeurs des Modèles Actuels de Changement Climatique.

cm

(Figure empruntée à Florent BRIENT issue de https://climate-dynamics.org/reducing-uncertainties-in-climate-projections-with-emergent-constraints-part-1-concept/)

Ce que nous appelons ici "Modèles actuels de changement climatique" (MACC), ce sont les modèles très lourds mis au point par des équipes de climatologues du monde entier et repris par le GIEC. Le graphique ci-dessus présente les évolutions de température pour 29 d'entre eux, tous placés dans le mêmes conditions de forcage radiatif provoqué par les GES. 

Nous voyons au moins trois types de défauts majeurs propres à ces MACC:

 1) Défauts liés au fait que ce sont des "Modèles par les observations":

«Il y a un problème de crédibilité des modèles de changements climatiques et des prédictions qui en sont déduites. Ces modèles concernent en effet un domaine - le climat - où le nombre de données disponibles est petit par rapport au nombre de variables qui sont prises en compte dans leur construction, sans parler des variables encore inconnues. Cela implique qu'il existe un grand nombre de bons modèles, capables de rendre compte des observations disponibles, alors même qu'ils reposent sur des hypothèses explicatives différentes et conduisent aussi à des prédictions différentes, voire opposées. Il s'agit là d'une situation dite "des modèles par les observations", cas particulier de "sous-détermination des théories par les faits", bien connue des chercheurs engagés dans la construction de modèles de systèmes complexes naturels, où le nombre de données ne peut pas être multiplié à l'envi par des expérimentations répétées et reproductibles. Conséquence : les modèles sur les changements climatiques ne peuvent être que des hypothèses, mises en formes informatiques très sophistiquées mais pleines d'incertitudes quant à leur relation à la réalité ; et il en va de même des prédictions qui en sont déduites.» (d'après Henri ATLAN, dans https://www.lemonde.fr/idees/article/2010/03/27/la-religion-de-la-catastrophe-par-henri-atlan_1325086_3232.html).

Autrement-dit, pour ce scientifique et philosophe, ces modèles sont un peu obtenus de la même manière qu'on compléterait un système d'équations algébriques à 100 équations et 100 inconnues à partir de la seule connaissance de 10 équations d'entre elles, cela dans le but d'obtenir les valeurs de ces 100 inconnues: il y aurait une infinité de possibilités pour compléter le système, donc aussi une infinité de valeurs possibles pour ces inconnues.

Henri ATLAN parle en connaissance de cause car lui-même au cours de sa carrière scientifique a dû mettre au points des "modèles par observation des faits" dans son domaine de la recherche médicale et a pu mesurer pleinement les limites de la méthode.

Sa position est précisée plus en détail dans cette vidéo:

 https://medias.ircam.fr/xea4b43_chapitre-4-sous-determination-de-la-theor

 Et cette position est confirmée par ce qu'en disent ceux qui connaissent les "secrets de fabrication" de ces MACC:

Des modèles de circulation générale représentent les différents compartiments par un maillage tri-dimensionnel.
C'est l'augmentation de la capacité de calculs des ordinateurs qui a permis les progrès dans la modélisation de plus en plus fine du système climatique par l'intermédiaire d'un découpage en latitude, longitude et altitude des compartiments en un réseau de mailles. Chaque maille du réseau peut donc être considérée comme une "boîte" à l'intérieur de laquelle s'effectue le traitement des équations prenant en compte des phénomènes à grandes et petites échelles (exemple des couplages entre différentes enveloppes, des nuages...). Selon la résolution spatiale du maillage et les choix d'approximation des phénomènes complexes, différents modèles sont proposés par plusieurs laboratoires (environ une quinzaine actuellement). ( dans http://acces.ens-lyon.fr/acces/thematiques/paleo/modeles/edgcm-outil-de-modelisation-climatique/comprendre-la-modelisation-du-climat)

2) Défauts liés aux limites des performances de la technologie utilisée:

Par leurs effets de serre ou au contraire refroidissant, les nuages ont une influence énorme sur la température.

Leurs échelles dynamiques (de l'ordre de quelques dizaines de mètres) étant beaucoup plus petites que celles des maillages des grilles des MCAM (au minimum 25km), les modélisateurs doivent donc intégrer à l'échelle de la grille de ces modèles des paramétrisations de la température, de l'humidité, de l'effet albédo, etc..., permettant de tenir compte de la dynamique de ces nuages, insoluble à petite échelle. Cela est difficile à faire et crée beaucoup d'incertitudes. 

Pour avoir plus de précisions sur ce problème et les solutions que les climatologues tentent de mettre au point, voir par exemple cet article du climatologue Florent BRIENT, d'où d'ailleurs provient le graphique mis en tête:

https://climate-dynamics.org/reducing-uncertainties-in-climate-projections-with-emergent-constraints-part-1-concept/

C'est bien là que se trouve en grande partie l'explication de la grande dispersion finale des températures données à terme par les MACC, telle qu'on la voit très clairement sur ce graphique. 

 Et ce problème majeur ne pourra que perdurer encore très longtemps car même si les performances des hyper-calculateurs utilisés continuaient à progresser de manière exponentielle (et ce n'est plus le cas), il faudrait au moins une cinquantaine d'années pour qu'ils soient capables de travailler avec une finesse de maillage suffisante pour gérer directement et explicitement les effets de ces nuages. Et dans 50 ans, cela ne servira plus à grand-chose puisque nous vivrons déjà les réponses aux questions actuelles liées au réchauffement climatique.

3) Défauts liés au fait que le système dynamique en jeu est fortement non linéaire: 

 Nous en sommes très loin comme nous venons de le voir, mais supposons qu'un MACC soit entièrement réaliste: les conditions initiales y sont correctement et complétement rentrées, les équations et relations modélisant l'évolution du système dynamique à partir du temps t=0 sont valides, réalistes et complètes, et la technologie est assez avancée pour pouvoir prendre en compte même les échelles les plus fines sur lesquels il y a des effets sur le climat.

Dans ces conditions optimales, serions-nous pour autant  assurés que les prédictions à long terme de ce modèle soient exactes?

La réponse semble a priori négative car le système dynamique en jeu est non linéaire et donc certainement chaotique: de très lègères variations par rapport aux conditions initiales réelles, par exemple les simples arrondis qui sont obligatoires aussi précis que soit le modèle, peuvent amener à long terme de grosses variations. Donc conduire à des erreurs ou incertitudes importantes sur les prédictions données par le modèle sur le long terme. 

Car maints phénomènes climatiques en jeu sont rendus par des équations aux dérivées partielles non linéaires, et l'on sait que cela débouche sur des effets chaotiques, donc ne permettant pas des résultats à long terme solides et fiables. C'est le fameux "effet papillon" introduit par le climatologue Edward Lorenz  en 1972: les erreurs s'amplifient exponentiellement en fonction du temps.

Cela dit, et comme l'explique très bien le physicien Raoul ROBERT dans l'article https://interstices.info/leffet-papillon-nexiste-plus/ , le fait qu'il y ait justement un grand nombre de variables en jeu dans les MACC, et non pas seulement quelques unités comme dans le modèle historique utilisé par Lorenz, pourrait avoir un effet régularisateur qui linéariserait le plus souvent l'effet de ces erreurs: c'est à dire, quand le temps double, l'erreur se contenterait de doubler  et ne croitrait pas exponentiellement comme Lorenz le prévoyait.

Un peu comme en physique statistique pour les molécules qui ont des mouvements aléatoires, et dont on est incapable de prévoir leur mouvement particulier, erratique et chaotique. Mais précisément parce qu'elles ont ce comportement chaotique, prises en grand nombre elles se distribuent de façon assez homogène dans l'espace ce qui permet de prévoir avec fiabilité des grandeurs macroscopiques comme la pression, la densité ou la température.

Mais nous objectons à cela que les variables en jeu dans les MACC sont de quelques milliers, c'est-à-dire certes bien plus que les quelques variables du modèle de Lorenz, mais bien moins que les millions de molécules présentes dans un récipient quelconque. Donc l'effet statistique joue certainement mais pas de façon aussi radicale que pour les molécules où "l'effet papillon" disparaît complétement au niveau macroscopique.

D'ailleurs, si c'était le cas, pourquoi quand il s'agit de faire des prévisions saisonnières, les météorologues ne sont-ils capables que de prévoir une tendance, mais rien de précis? Pourtant ils utilisent le même type d'outils et de modèles  que ceux utilisés par les climatologues travaillant pour le GIEC.

Et puis même si les erreurs augmentaient avec le temps de manière linéaire et non exponentielle, sur des durées de 50 ou 100 ans elles deviendraient tout de même importantes puisque fondées sur des données prises sur des périodes beaucoup plus courtes, la plupart de l'ordre de la journée, de la semaine ou de l'année.

CONCLUSION: Si on veut que l'humanité ne se lance pas à l'aventure à partir d'une mauvaise analyse des problèmes, il faut absolument et rapidement mettre au point un modèle n'ayant aucun, ou le moins possible, de ces défauts majeurs. C'est l'objet du travail dont nous rendons compte étape après étape sur ce blog.

 

Posté par mathsconcretes à 02:07 - Commentaires [0] - Permalien [#]

12 juin 2019

Un modèle simple du réchauffement climatique.

I- Problématique et objectifs de ce travail

Comme le montre clairement le graphique suivant issu de la NASA, on observe depuis quelques décennies une augmentation de la Température Moyenne Annuelle Mondiale (TMAM).

 

tmm

 

La grosse majorité des scientifiques qui travaillent sur la question identifient l'origine principale de ce phénomène de réchauffement climatique comme étant l'émission des gaz à effet de serre (GES), notamment le dioxyde de carbone (CO₂), provoquée par l'activité humaine depuis le début de la période industrielle.
Ce phénomène étant déjà loin d'être neutre et, s'il s'accentue encore, pouvant avoir des conséquences négatives et même catastrophiques  pour la planète et ses occupants, la  communauté internationale a confié  à des équipes de chercheurs du monde entier la mise au point de modèles sophistiqués climatiques. En prenant en compte un maximum de données physiques et climatiques, ceux-ci sont censés permettre de prévoir les évolutions futures concernant les températures, les précipitations, les zones de glace, les niveaux des océans, etc..., bref tout ce qui sert à définir et à préciser le climat mondial et ses évolutions. Pour cela, ces équipes programment leurs modèles sur des calculateurs très puissants, capables de brasser des milliers d'informations en un temps infime, et ils peuvent ainsi reconstituer en quelques dizaines d'heures ou quelques journées, l'évolution climatique mondiale sur plusieurs décennies. Cela tout en se plaçant dans diverses hypothèses, notamment concernant l'évolution future des émissions de GES.


Mais comme l'écrivait en 2010 le scientifique et philosophe Henri ATLAN dans le journal français Le Monde:


«Il y a un problème de crédibilité des modèles de changements climatiques et des prédictions qui en sont déduites. Ces modèles concernent en effet un domaine - le climat - où le nombre de données disponibles est petit par rapport au nombre de variables qui sont prises en compte dans leur construction, sans parler des variables encore inconnues. Cela implique qu'il existe un grand nombre de bons modèles, capables de rendre compte des observations disponibles, alors même qu'ils reposent sur des hypothèses explicatives différentes et conduisent aussi à des prédictions différentes, voire opposées. Il s'agit là d'une situation dite "des modèles par les observations", cas particulier de "sous-détermination des théories par les faits", bien connue des chercheurs engagés dans la construction de modèles de systèmes complexes naturels, où le nombre de données ne peut pas être multiplié à l'envi par des expérimentations répétées et reproductibles. Conséquence : les modèles sur les changements climatiques ne peuvent être que des hypothèses, mises en formes informatiques très sophistiquées mais pleines d'incertitudes quant à leur relation à la réalité ; et il en va de même de prédictions qui en sont déduites.«» (https://www.lemonde.fr/idees/article/2010/03/27/la-religion-de-la-catastrophe-par-henri-atlan_1325086_3232.html).


De fait, ces différents modèles arrivent à des différences de résultats de plusieurs °C de l'un à l'autre.
Voilà en effet les différentes prévisions données sous les mêmes hypothèses d'émissions de GES par huit modèles analysés par le Groupe d'experts intergouvernemental sur l'évolution du climats (GIEC) dans son dernier rapport:

modNous remarquons effectivement une grosse amplitude de près de 3°C dans les différents résultats de température donnés par ces huit modèles pour l'an 2100.

L'une des principales causes de ces différences est la puissance des hyper-calculateurs utilisés, encore très loin de pouvoir numériser sur un maillage suffisamment petit pour que par exemple soit bien rendue l'influence des nuages bas. Chaque équipe conceptrice d'un tel modèle doit donc paramétrer assez arbitrairement cette influence à l'intérieur de ses programmes numériques, ce qui explique en grande partie les différences importantes de résultats d'un modèle à l'autre. Car, comme le reconnaissent les climatologues, les nuages bas ont une grosse influence rétro-active sur la TMAM, d'ailleurs elle-même encore sujette à débats concernant son influence positive ou négative sur la température à la surface.

Donc d'importantes différences de paramétrage et de résultats d'un modèle à l'autre même s'ils sont validés en partie par leur adéquation avec les résultats des périodes connues, après y avoir intégré des conséquences d'évènements qu'ils ne peuvent prévoir, comme par exemple les éruptions volcaniques.


Compte-tenu de cela, nous avons pris délibérément dans ce travail une toute autre option:

∙ Non faire un modèle sophistiqué, fondé sur les lois physiques, prenant en compte avec le plus de finesse possible un maximum de paramètres et donnant des prévisions sur la plupart des événements liés au climat: fonte des glaces, courants océaniques, couplage air-océans, fréquences des événements exceptionnels comme les canicules et les ouragans, etc...

Comme nous venons de l'expliquer, cette démarche est, à notre avis du moins dans l'état actuel de la technologie et des sciences, vouée à une grosse part d'incertitudes quant à ses résultats.

∙ Mais faire un modèle le plus simple possible orienté sur un seul objectif : pouvoir prédire fiablement la température mondiale moyenne pour les décennies à venir.

Pour obtenir ces prévisions, notre modèle ne prendra  directement en compte qu'un minimum de paramètres, ceux que nous analyserons comme ayant une influence directe et importante sur la TMAM.

A savoir:

1- D'abord l'évolution de la concentration en GES dans l'atmosphère. Contrairement aux "climato-sceptiques", nous ne contestons pas son influence primordiale et directe dans le réchauffement climatique actuel.

2- Nous y rajoutons l'interaction nuages bas- températures que nous analyserons par la suite comme un phénomène "prédateurs- proies" à effet rétro-actif négatif important sur la TMAM. 

Tout le reste sera  pris en compte de manière globale en se fondant sur la réalité observée et moyennisée de l'évolution de la TMAM sur les cinquante dernières années, donc depuis environ 1970:

Le choix de cette période est principalement justifié par les deux raisons suivantes:

1 - La plupart des climatologues et le GIEC lui-même considèrent que c'est à partir de 1970 que l'influence de l'augmentation de la concentration de  CO₂ dans l'atmosphère commence à vraiment se faire sentir sur la TMAM.

2 ∙ Cette période est suffisamment longue pour moyenniser convenablement les fluctuations provoquées par les cycles solaires (d'une durée d'environ 11 ans) et océaniques (suite aux courants, l'eau en surface des océans est renouvelée environ tous les 50 ans), ainsi que celles causées par des événements plus aléatoires comme les éruptions volcaniques ou El Nino.

Compte tenu de tout cela, notre modèle sera discret (et non continu comme ceux évalués par le GIEC).

L'unité de temps de ce modèle discret sera bien sûr l'année, puisque  cette unité est evidemment la plus adéquate pour moyenniser les écarts de température dûs aux différentes saisons annuelles et que notre seul objectif est de prévoir la TMAM.

Nous concevons que cette méthode puisse paraître à certains bien trop rudimentaire pour espérer pouvoir donner des résultats fiables. C'est pour quoi nous allons consacrer le petit paragraphe suivant pour en justifier le bien-fondé.

II- Bien-fondé de la méthode choisie

Tout d'abord une argumentation pratique:

Imaginons une habitation mal isolée, sujette à courants d'air, avec des ouvertures vitrées laissant passer plus ou moins bien les rayons solaires, ayant des radiateurs de puissances variées pour chauffer l'hiver et des ventilateurs plus ou moins efficaces pour rafraichir l'été, etc.... Les habitants de cette maison sont plus ou moins frileux, et craignent plus ou moins la chaleur estivale: certains dorment la fenêtre ouverte pendant que d'autres ne supportent pas la fraicheur extérieure des nuits.

Cette habitation est mise en vente.

Que fera son futur propriétaire s'il veut prévoir les températures annuelles moyennes,  minimales et maximales de cette maison pour un budget d'energie donné?

- Une modélisation sophistiquée prenant en compte le maximum de paramètres, les flux de courants d'air, la pénétration des UV et la dissipation des infra-rouges, la convexion des radiateurs, les ouvertures sporadiques des fenêtres, le caractère plus ou moins frileux de ses futurs habitants, etc ?

- Ou il demandera à un expert de lui faire un bilan lui permettant de classer sa future maison sur le plan energétique et d'en déduire ensuite le budget de chauffage et d'electricité à prévoir, années après années, et les éventuels travaux d'isolation à faire en urgence?

Même si c'est un climatologue travaillant pour le GIEC, il choisira bien sûr la seconde méthode.

Concernant l'obtention de la prévision des TMAM futures de la Terre, nous faisons un peu le même choix:

- Non pas, comme le font les climatologues du GIEC tenter de mettre au point un modèle capable d'intégrer le maximum de données climatiques.

- Mais partir d'une expertise solide fondée sur les réalités observées les années précédentes, pour projeter ces résultats moyens sur les années suivantes en y intégrant des évolutions éventuelles.

Donnons maintenant une argumentation plus théorique:

Les phénomènes climatiques sont chaotiques, c'est même par l'intermédiaire de la climatologie qu'est apparue la théorie mathématique du chaos. Cf. le célèbre "effet papillon" exprimé pour la première fois par le climatologue Edward Lorenz  en 1972.

Il y a donc dans la plupart de ces phénomènes une forte non-linéarité: de très légères modifications des conditions initiales peuvent avoir à terme des conséquences très différentes.

Donc sur le plan purement théorique, bâtir les modèles sur des données ponctuelles et très fines ne peut que soulever de grosses questions sur la qualité et la fiabilité des prévisions obtenues pour quelques dizaines d'années plus tard.

Par contre, partir de résultats moyennisés sur 50 ans, cela neutralise en grande partie cette non-linéarité et permet même d'aboutir à une certaine linéarité pour l'obtention des résultats pour 10, 20 ou même 100 ans après.

Pour comprendre la différence fondamentale qu'il y a entre ces deux approches, on peut faire référence au mouvement des particules: complétement imprévisible sur le plan local (mouvement brownien), par contre quand il est moyennisé sur une grosse quantité, parfaitement maitrisable: alors qu'on ne peut pas prévoir grand chose sur une seule de ces particules, si on apporte telle quantité d'énergie à tel gros volume de ces particules, on peut très bien prévoir la nouvelle température moyenne qu'il atteindra et qui traduit justement leur mouvement moyen.

En conclusion de ce paragraphe: le choix de notre méthode par rapport à celui fait par les climatologues du GIEC offre les deux énormes avantages suivants:

1- C'est de très loin le plus pratique et  le plus facile à mettre en oeuvre.

2- C'est indéniablement, sur le plan purement théorique, le plus judicieux.

Pourquoi les climatologues ont-ils pourtant fait systématiquement l'autre choix?

Peut-être parce qu'ils sont tous d'éminents climatologues et qu'à ce titre ils affectionnent de mettre en oeuvre leurs connaissances les plus pointues. C'est le syndrome classique de l'expert. Syndrome qui peut les aveugler complétement pour voir qu'une approche bien plus modeste peut conduire à des résultats nettement plus faciles à obtenir et en même temps certainement plus fiables.

Peut-être aussi parce qu'ils travaillaient déjà avec de tels outils (hyper-calculateurs et modèles mathématiques sophistiqués) pour prévoir la météo des jours suivants ou saisonnière: il leur a donc été naturel d'utiliser la même méthode pour des prévisions beaucoup plus lointaines, sans tenir compte du fait que cet éloignement temporel peut changer radicalement la fiabilité de la méthode et sans vraiment réfléchir à d'autres méthodes. Pourtant ils devraient connaître mieux que quiconque les limites de la méthode qu'ils utilisent puisque déjà pour les prévisions saisonnières ( à trois mois), elle est incapable de dire autre chose que: "l'été sera certainement plus chaud (ou plus frais) que d'habitude". Et les décideurs politiques, même s'ils n'ont aucune connaissance en climatologie, feraient bien de réfléchir un peu par eux-mêmes au lieu de se laisser guider comme des ânes bâtés par des "spécialistes".

 III- Interactions nuages-température du type "prédateurs- proies"

L'augmentation de la TMAM provoque une évaporation supplémentaire des sols et des océans d'eau qui s'élève sous forme de vapeur. La température de l'atmosphère baissant avec l'altitude et la saturation maximale en vapeur d'eau de l'air diminuant quand la température baisse, cette nouvelle vapeur formée par le réchauffement finit donc par se condenser quand elle monte. Elle s'agglomère donc aux nuages déjà présents ou, s'il n'y en a pas, en formera de nouveaux.

Sachant que la température diminue approximativement de 1°C par centaine de mètres d'altitude, la hauteur de saturation concerne les basses couches de l'atmosphère, c'est-à-dire la zone où se trouvent les nuages bas (altitude inférieure à 2000m). En effet, même si l'eau s'évapore à une température au sol de 35°C, à 2000 m la température n'est plus qu'à 15°C, température où l'air est très vite saturé en vapeur. Donc même dans ce cas, il y a une forte probabilité qu'elle se condense au niveau des basses couches et y reste sous forme de nuages bas. A plus forte raison si la température de l'air dans lequel elle s'évapore est inférieure.

Une part moindre peut se condenser plus haut, bénéficiant de phénomènes de convexion ascensionnelle et rejoindre les nuages de niveaux intermédiaires. Mais il nous semble nettement plus probable que cette vapeur se condense plus bas, pour les raisons déjà invoquées. 

Il se peut aussi qu'une forte convexion entraine  rapidement cette vapeur vers la stratosphère pour former des cumulonimbus, qui débouchent souvent sur des orages. Mais pour cela les conditions ambiantes doivent être assez particulières: d'après Météo-France, « les cumulonimbus dits de masse d'air, typiquement les orages en été de fin d'après-midi et qui sont relativement bénins, se forment à la suite de la convection causée par le réchauffement solaire de l'air près du sol, en l'absence de forçages dynamiques. La présence de forçages dus à la dynamique atmosphérique peut déstabiliser davantage l'atmosphère, ce qui augmente la probabilité de formation de cumulonimbus et la sévérité des orages qui en résultent. Ces derniers se développent en général à l'approche d'unfront froid ou par soulèvement orographique. La plupart des orages violents sont de ce type.»( pour plus de précisions, voir http://www.meteofrance.fr/publications/glossaire/150191-cumulonimbus)

Donc en dehors de cette situation assez particulière débouchant souvent sur des orages, l'évaporation supplémentaire provoquée par le réchauffement nourrit au moins dans un premier temps surtout la couverture en nuages bas, en moindre partie la couverture intermédiaire. Or les nuages bas ont un fort effet de refroidissement et les nuages de niveau intermédiaire un léger effet de refroidissement, comme l'indique le schéma suivant issu de http://climat-evolution.eklablog.com/effets-radiatifs-des-nuages-1-a86578739

nuages al

 De plus, même si une part de l'évaporation se traduit par la formation de cumulonimbus à effet réchauffant, un autre phénomène neutralise cela: 

 « Les cumulo-nimbus ont tendance à se former en amas, là où se trouvent d'autres nuages. Dans les hautes couches de l'atmosphère, à 12 km d'altitude, cela entraîne une réduction des enclumes, des nuages hauts à effet de serre. Cela réduit au final cette couverture nuageuse et devrait mieux laisser s’échapper la chaleur (le rayonnement infra-rouge) vers l'espace, ce qui diminuerait la température. « C'est ce que l'on appelle l'effet d'iris , précise Sandrine Bony. Une hypothèse qui date des années 90 indiquait qu'ainsi la Terre régulerait l'augmentation de la température. En réalité, les études montrent que cela n'a qu’un faible impact et que les modèles ne manquaient déjà pas ce phénomène » (  https://reseauactionclimat.org/wp-content/uploads/2018/01/diminution-des-nuages-bas-aerosols-et-amplification-du-rechauffement-12-01-18-reseau-action-climat.pdf)

Cela justifie que notre modèle ne tiendra compte que de l'effet des nuages bas, les nuages intermédiaires n'ayant qu'un effet refroidissant faible, et l'effet d'iris annulant en grande partie l'effet réchauffant des nouveaux nuages hauts créés par l'évaporation supplémentaire provoquée par le réchauffement.

Par contre, notre modèle ne prendra en compte qu'une partie de cette évaporation pour le gonflement des nuages bas. Ceux-ci représentant 40% de la couverture nuageuse totale, nous prendrons cette valeur de 40% pour évaluer le pourcentage de vapeur supplémentaire provoquée par le réchauffement qui augmente la couverture nuageuse en nuages bas.

Dans tous les cas, suite à cette évaporation supplémentaire,  il y a augmentation de la couverture en nuages bas, et cette augmentation refroidit l'air ambiant présent sous les nuages et fait donc baisser l'évaporation de surface. Il faut que ces nuages se dissolvent sous forme de précipitations ou qu'un nouveau réchauffement intervienne pour que le processus se réitère et conduise à la formation de nouveaux nuages bas.

Cela rappelle le comportement "prédateurs-proies" modélisant les variations respectives des populations de prédateurs et de proies dans une zone naturelle. Les nuages bas jouant le rôle des prédateurs (ils "mangent" la température), la température celui des proies:

Quand la température s'élève, c'est propice à la création de nuages bas; quand la couverture en nuages bas augmentent, cela baisse la température; quand la température baisse cela diminue la couverture en nuages bas; quand la couverture en nuages bas diminue, cela augmente la température, et ainsi de suite.

C'est l'un des deux phénomènes qui sera pris en compte de manière spécifique par notre modèle, le deuxième étant celui du "forcage radiatif d'origine humaine", essentiellement provoqué par les émissions de GES dont sont responsables les activités humaines. Comme déjà expliqué dans notre premier paragraphe, tout le reste sera pris en compte de manière moyennisée à partir des résultats de la TMAM telle qu'elle a été mesurée sur les cinquante dernières années.

IV- Prise en compte des émissions de GES et du forcage radiatif d'origine humaine

GES

La grosse majorité des climatologues s'accordent pour penser que les émissions de  CO₂ d'origine anthropique sont le principal facteur responsable du réchauffement climatique observé depuis les années 1970. Il est mesuré dans l'atmosphère en fraction de CO₂ dans l'air sec (µmol/mol notée aussi ppm pour "parties par million") et la courbe précédente donne son évolution depuis les années 1950 à Mauna Loa, l'un des volcans d'Hawaïe.

Quel est le rôle des autres GES ( méthane, gaz fluorés, etc...?) d'origine anthropique?

Le graphique suivant repris par le cinquième rapport du GIEC montre clairement que depuis au moins 1970 leur progression est similaire à celle du CO₂, même si leur part relative est nettement moindre. Il montre aussi que la somme des "forcages radiatifs d'origine humaine" suit depuis 1980 une courbe (la courbe en pointillés rouge) quasiment parallèle à celle des émissions de  CO₂:

jj

 

Aussi notre modèle confondra la progression des forcages radiatifs d'origine humaine avec celle des émissions de CO₂.

C'est bien sûr une approximation mais qui nous paraît largement suffisante pour nous permettre d'obtenir malgré tout des résultats de précision suffisante par rapport aux objectifs de notre modèle (simplicité et fiabilité).

Pour mesurer cette vitesse de progression des forcages radiatifs d'origine humaine, nous utiliserons donc la courbe donnée précédemment concernant les émissions de  CO₂ à Mauna Loa.

Cette courbe est pratiquement rectiligne au moins pour la période qui nous intéresse, c'est-à-dire à partir de 1970 et jusqu'à nos jours. Jusqu'à 2020, la vitesse d'augmentation de ppm par année est donc quasiment constante et donnée par le coefficient directeur très proche de 1,8 de cette quasi-droite: nous prendrons donc  = 1,8 ppm/an

Pour la période qui suit 2020, nous ferons la supposition que suite à la prise de conscience mondiale du problème du réchauffement climatique, cette augmentation ralentisse de a ppm par année à partir de 2020 et que cela fasse effet 10 ans après, durée d'inertie de l'effet réchauffant des émissions de CO₂. ( Cf. Katharine L Ricke and Ken Caldeira. Published 2 December 2014 • © 2014 IOP Publishing Ltd – http://iopscience.iop.org/article/10.1088/1748-9326/9/12/124002/meta).

 

V- Récapitulatif des hypothèses prises en compte par notre modèle:

- Géométrie de la Terre et de son atmosphère: La Terre sera assimilée à une boule sphérique entourée d'une atmosphère de 12 km d'épaisseur. 

- Couverture nuageuse en nuages bas en 1970:

Nous l'estimons à environ 25% du ciel en 1970 puisqu'on sait que la couverture nuageuse mesurée pour la période 2004-2015 est d'environ 67% (d'après http://www.astronoo.com/fr/articles/couverture-nuageuse-mondiale.html) et que les nuages bas représentent environ 40% de la couverture nuageuse totale. Ce chiffre de 25% de nuages bas en 1970 n'a la prétention que d'être un ordre de grandeur suffisamment réaliste pour initialiser notre modèle.

Hauteur moyenne des nuages bas en 1970:

Elle sera encore plus grossièrement estimée à 1500m, puisque les nuages sont considérés bas s'ils ne dépassent pas une altitude de 2000m environ.

TMAM pour la période 1970-2019:

Pour l'obtenir, nous nous fondons sur le diagramme suivant issu du lien http://www.columbia.edu/~mhs119/Temperature/globalT_1880-1920base.pdf :

 jk

 Plus précisément, nous utilisons sa courbe verte qui a été obtenue en lissant les températures moyennes sur 11 ans, durée d'un cycle solaire.

C'est elle qui va nous permettre de "caler" notre modèle pour ensuite pouvoir obtenir des prévisions fiables jusqu'à 2120.

On peut voir qu'il est mesuré pour les presque 50 ans de cette période 1970- 2019 une augmentation de 0,17°C par décennie puisque sur ces cinq décennies la TMAM passe approximativement de 14,15°C à 15°C.

- Augmentation annuelle de GES d'origine anthropique pour la période 1970-2020:

Compte-tenu de ce qui est indiqué dans le paragraphe IV, la progression des GES d'origine anthropique dans l'atmosphère est supposée constante de 1970 à 2020, ainsi répartie:

1,8 ppm/an pour le CO₂ et 0,9 ppm/an d'équivalent  CO₂ pour les autres GES d'origine anthropique puisque la contribution du CO₂ est d'environ 2/3 de l'émission totale ( d'après https://jancovici.com/changement-climatique/gaz-a-effet-de-serre-et-cycle-du-carbone/quels-sont-les-gaz-a-effet-de-serre-quels-sont-leurs-contribution-a-leffet-de-serre/).

Soit donc au total et pour la période 1970-2020: une progression de 2,7 ppm par an de CO₂ ou d'équivalent CO₂.

 - Inertie climatique des GES: 

Toujours compte-tenu de ce qui est indiqué dans le paragraphe IV, pour notre modèle, toute modification de concentration des GES dans l'atmosphère n'agira sensiblement sur la TMAM que dix années après.

VI - Mise en place de notre modèle:

 

- Notations:

n est le nombre d'années après 1969, année 0 de notre étude.

cn correspond à l'augmentation de ppm de CO₂ ou d' équivalent CO₂ pour l'année n,

a: la diminution de l'augmentation de ppm par an, supposée nulle avant 2020 et constante positive à partir de 2020

tn: température moyenne l'année n après 1970 en tenant compte du phénomène "prédateurs-proies" qu'il y a entre les nuages bas et la température tel qu'il est précisé dans le paragraphe III..

en: la couverture nuageuse en nuages bas l'année exprimée en pourcentage du ciel

hn: la hauteur moyenne des nuages bas l'année exprimée en km..

- Couplage des suites en jeu pour la période 1970- 2020:

Pour n entier compris entre 1 et 50 où cn et constante et égale à 2,7 et a=0, nous avons:

(1) <=> t(n+1)=t(n)+K-k(e(n+1)-e(n)) pour n>2 avec t(1)=14,15°C et t(2)=t(1)+K

 (2) <=>  e(n+1)=e(n)+k'(t(n)-t(n-1))   pour n>2 avec e(1)=e(2)=25%

(3) <=> h(n+1) = h(n) + 0,1 (t(n+1)-t(n)) avec h(1)=1,5 km

- Estimations des constantes k, k' et K: 

La constante k qui intervient dans la relation (1) correspond au lien supposé linéaire entre l'augmentation de la couverture de nuages bas et la baisse de température que cette augmentation provoque. 

Vu les hypothèses très simplificatrices que nous adoptons, un simple ordre de grandeur de k suffira. 

Pour l'obtenir, nous partirons du résultat suivant, donné par le physicien et climatologue Yves Foucart dans https://www.futura-sciences.com/planete/dossiers/climatologie-tant-incertitudes-previsions-climatiques-638/page/4/

 « Les mesures du bilan radiatif effectuées depuis satellite ont permis d'évaluer l'effet d'albédo et l'effet de serre des nuages existants. On a ainsi déterminé le  forcage radiatif des nuages  : c'est, par définition et au signe près, la variation du bilan radiatif de la Terre qui résulterait d'une disparition pure et simple de tous les nuages. Il comporte une composante courtes longueurs d'onde et une composante grandes longueurs d'ondes infrarouge. La première est négative car les nuages diminuent l'énergie absorbée, la deuxième est positive puisqu'elle traduit un effet de serre. Les deux termes sont très grands: en moyenne annuelle, environ - 47 Wm-2 pour l'effet d'albédo et +29 Wm-2 pour l'effet de serre. Globalement donc, l'effet d'albédo l'emporte et l'effet résultant des nuages est de refroidir la planète. Si, instantanément, ils devenaient transparents, le bilan radiatif augmenterait de 18 Wm-2 

Or une augmentation de 4 Wm-2  provoque un réchauffement à la surface d'environ 1°C. (d'après http://planet-terre.ens-lyon.fr/article/effet-de-serre-royer.xml). Donc une augmentation de 18 W/m² entraine un réchauffement au sol d'environ 4,5°C. 

Donc 1% de nuages bas en plus ou en moins entraine 4,5/25= 0,18°C de température en plus ou en moins. Donc on prendra k=0,18 et la relation (1) s'écrit donc:

 (1) <=> t(n+1)=t(n)+K-0,18(e(n+1)-e(n))

Pour obtenir la constante k' qui intervient dans (2), nous faisons  l'hypothèse assez logique que l'évaporation supplémentaire provoquée par le réchauffement impacte directement et linéairement la couverture nuageuse de l'atmosphère en nuages. 

Or l'évaporation augmente avec le réchauffement de 2% par degré au-dessus des océans d'après https://reseauactionclimat.org/wp-content/uploads/2018/01/diminution-des-nuages-bas-aerosols-et-amplification-du-rechauffement-12-01-18-reseau-action-climat.pdf.

 Puisque les nuages bas composent approximativement 40% de la couverture nuageuse totale, 1°C en plus crée 0,4 X 2 = 0,8% supplémentaire de couverture nuageuse   en nuages bas, donc k'=0,8 et la relation (2) s'écrit finalement:

(2) <=>  e(n+1)=e(n)+0,8(t(n)-t(n-1))

Enfin, pour obtenir K, nous "calons" le système (1) et (2) pour qu'il donne en 2020 une température d'environ 15°C, TMAM mesurée à cette date. Nous obtenons K=0,02.

Comment peut-on interpréter cette valeur de K? S'il n'y avait pas l'effet rétroactif négatif des nuages bas de type "prédateurs proies" tel que nous l'avons précisé au paragraphe III,  la TMAM aurait augmenté de 0,2°C (au lieu de 0,17°C dans la réalité) par décennie entre 1970 et 2019 et aurait donc atteint la valeur de 15,15°C au lieu de 15°C en 2019.

Donc pour la période connue de 1970 à fin 2019, notre modèle est donné par le système suivant: 

ooo

VII - Modèle finalisé pour la période 1970-2120:

Fondé sur la période connue 1970-2020 et en tenant compte de tout ce qui a été précisé notamment sur l'évolution des émissions cn de GES en ppm de CO₂ ou d' équivalent CO₂, notre modèle discret pour la période 1970- 2120 se traduit par le système suivant:

oo

 

VIII - Prévisions de notre modèle pour différentes valeurs de a:

Rappelons d'abord que a représente la diminution de l'augmentation de ppm par an, supposée nulle avant 2020 et constante positive à partir de 2020.

Les graphiques qui suivent donnent pour plusieurs valeurs de l'évolution de la TMAM tn pour la période 1970-2120. Pour les obtenir, nous avons programmé sur tableur le modèle discret présenté au paragraphe précédent. Nous avons aussi représenté la courbe de Tn, la TMAM qu'il y aurait s'il n'y avait pas l'effet retro-actif et régulateur des nuages bas. Voici le fichier qui a permis de générer ces courbes: Mod_le_TMAM_Zeltz_e

Evolution de la TMAM pour a=0 (aucune modification à partir de 2020 concernant la progression des émissions d'origine anthropique des GES mesurées et moyennisées pour la période 1970-2019):

TMAM prévue dans cette hypothèse en 2120: environ 16,8°C

a=0

 

 

 

Evolution de la TMAM pour a=0,02 (A partir de 2020, l'augmentation cn de ppm par an diminue de 0,02 ppm par année)

TMAM dans cette hypothèse en 2120: environ 16,2°C

 

a=0,02

 

Evolution de la TMAM pour a=0,04 (A partir de 2020, l'augmentation cn de ppm par an diminue de 0,04 ppm par année)

TMAM prévue dans cette hypothèse en 2120: environ 15,7°C

a=0,04

Evolution de la TMAM pour a=0,08 (A partir de 2020, l'augmentation cn de ppm par an diminue de 0,08 ppm par année) prévue dans cette hypothèse en 2120: environ 14,6°C avec un maximum de 15,5°C atteint vers 2060.

a=0,08

IX - Discussion et conclusion:

Quelques remarques:

Nous remarquons que l'effet retro-actif des nuages bas sur la TMAM, s'il n'est pas énorme (au plus quelques dixièmes  de °C en moins de tn  par rapport à Tn) est réel, et qu'il s'accentue avec l'augmentation de la TMAM. 

Nous remarquons aussi qu'une décroissance lente (0,08 ppm en moins de progression chaque année) permet de retrouver en 2120 une TMAM inférieure à l'actuelle. Cela dit, il faudrait évaluer concrètement cette baisse et les efforts qu'elle représente pour l'humanité, ce que nous n'avons pas fait. En tous les cas, cela paraît être un objectif souhaitable et réalisable pour les décennies futures.

Robustesse du modèle:

Comme nous l'avons vu, certaines constantes ou valeurs initiales utilisées ne sont que des ordres de grandeur assez grossiers, avec une grosse part d'imprécision, sans doute dans une fourchette large de + ou - 5%. Il s'agit notamment:

- de la couverture initiale en nuages bas fixée à 25%,

- de la hauteur moyenne des nuages bas fixée à 1,5 km,

- de l'augmentation moyenne sur les 50 premières années fixée à 2,7 de la quantité de ppm de CO₂  ou équivalent CO₂ présents dans l'atmosphère ,

- des valeurs des constantes k et k' présentes dans le système.

Aussi nous avons pris le soin de tester le modèle pour d'autres valeurs dans cette fourchette de + ou - 5%. Nous avons pu constater que le comportement global de la TMAM reste inchangé, et que les valeurs finales obtenues pour la TMAM en 2120 reste dans une fourchette beaucoup plus serrée (+ ou - 2%). En ce sens, notre modèle peut-être considéré comme très robuste.

Simplicité du modèle:

Notre modèle est simple à double-titre: d'abord pour son paramétrage, ensuite par sa vitesse d'éxécution, inférieure au millième de seconde à partir d'un simple micro-ordinateur. C'est tout le contraire pour les modèles utilisés par le GIEC: extrême complexité du paramétrage  et des journées de travail d'hypercalculateurs sont nécessaires pour obtenir les résultats. Tout cela pour arriver à des résultats fort différents d'un modèle à un autre.

Fiabilité du modèle:

Contrairement à ceux validés par le GIEC, notre modèle n'a pas pour base théorique des systèmes mathématiques fortement non linéaires, à effets chaotiques, mais  repose essentiellement sur une moyennisation de ce qui a été observé sur les cinquante dernières années. Cette assise est suffisamment longue et complète pour qu'elle permette un prolongement quasi-linéaire sur les décennies qui suivent, cela en ne modifiant qu'un paramètre: la valeur de a. Donc une fiabilité théorique certaine au départ, contrairement aux modèles mis au point par les climatologues travaillant pour le GIEC.

Cela dit, ce modèle ne sera vraiment validé que dans quelques décennies, en comparaison de la réalité observée avec ce qu'il prévoit. Mais ceci est le lot de n'importe quel modèle prédictif.

En conclusion, et jusqu'à preuve du contraire, ce modèle répond à tous nos objectifs initiaux: simplicité, robustesse et fiabilité pour l'obtention de la TMAM dans les cent ans qui viennent.

 

 

Posté par mathsconcretes à 18:49 - Commentaires [0] - Permalien [#]

Dialogue avec le physicien "climato-réaliste" François GERVAIS

 

 Francois Gervais

François GERVAIS est un universitaire physicien, chercheur et professeur émérite à l'Université de Tours.

Il défend des idées "climato-sceptiques", en ce sens que par exemple il pense que le rôle des émissions de CO2 est négligeable dans le réchauffement climatique. Pour ceux qui voudraient connaître son argumentation précise là-dessus, je les renvoie au lien déjà donné dans le message précédent:

https://solidariteetprogres.fr/francois-gervais.html

Il a aimablement accepté d'entamer un dialogue avec moi, et donc voilà les premières remarques et questions que je lui soumets:

eric zeltz

Monsieur Gervais, vous êtes un physicien reconnu, auteur de nombreuses publications avec comité de lecture, donc je n'ai a priori aucune raison de remettre en cause ce que vous affirmez dans le strict domaine des sciences physiques.

Donc je partirai de l'affirmation que vous faites concernant le CO2: le rôle qu'il joue dans l'effet de serre est pratiquement arrivé à saturation depuis longtemps et donc l'accumulation supplémentaire de CO2 dans l'atmosphère ne joue plus qu'un rôle négligeable dans l'augmentation de température actuelle.

Il n'en reste pas moins vrai qu'il y a une augmentation accélérée de la température moyenne du globe comme le montre clairement le graphique suivant:

TEMPERATURE MONDIALE

Donc, il faut lui donner une explication.

Si je vous ai bien compris (vous me corrigerez si nécessaire), vous mettez cette explication essentiellement dans des causes naturelles (regain de l' activité solaire, cycles de 60 ans, etc...), l'origine anthropique de cette augmentation étant pour vous négligeable.

Là vous me convainquez beaucoup moins. A mon avis les causes naturelles et non anthropiques que vous donnez sont largement insuffisantes pour expliquer le graphique précédent.

Voilà plutôt comment je vois  les choses:

Quand j'étais gamin (je suis né en 1955), nous étions environ 3 milliards sur Terre. Nous sommes maintenant plus de 7 milliards. Donc plus de 4 milliards d'individus en plus. Essayons d'estimer "à la louche" l'energie dissipée en chaleur par chacun de ces 4 milliards d'individus supplémentaires:

Déjà il y a celle qu'il dégage lui-même pour maintenir sa température à 37°C, pour se déplacer physiquement, pour travailler, pour dormir, etc. Je dirai de l'ordre d'environ 100wh. Puis il utilise au moins  de temps en temps un moyen de transport mécanique à moteur thermique, il chauffe ou climatise sa maison, fait cuire ses aliments, passe l'aspirateur, utilise un ordinateur, s'éclaire, etc...: je rajoute 400wh. Pour construire sa maison, sa voiture, ses appareils electroménagers, etc..., il a fallu utiliser de l'énergie dont une partie s'est dissipée en chaleur que je moyennise à environ 200wh. Plus tout ce que j'oublie certainement dans mon décompte (par exemple pour la construction des infrastructures dont il bénéficie), 300wh en plus.

J'en suis à 1000wh par individu, ce chiffre n'étant bien sûr qu'un grossier ordre de grandeur, vu la "qualité" de mes estimations. Mais jusqu'à preuve du contraire que vous me donnerez peut-être, je pense qu'on ne doit pas être trop loin de la réalité, donc je partirai de ce chiffre.

Donc actuellement, par rapport à l'époque où j'étais gamin, il se dissiperait en plus en chaleur: 1000 X 4 milliards wh= 4000 milliards de wh.

Quand j'étais gamin, mon père avait acheté un gros radiateur electrique d'une puissance de 1000w. En plein hiver, et à l'époque ils étaient souvent froids dans l'Est de la France, ce radiateur suffisait amplement pour chauffer 3 grandes pièces de notre maison. Donc, actuellement, à cause des 4 milliards de personnes en plus, il y a l'équivalent sur terre de 4 milliards de radiateurs d'une telle puissance. Sans compter que les autres 3 milliards ont certainement augmenté leur dissipation de chaleur du fait de l'augmentation constante de la consommation moyenne par individu depuis ces années 60.

Donc on en est certainement à l'équivalent d'au moins 6 milliards de gros radiateurs de 1000w en plus par rapport aux années 60. Ce n'est pas rien, non?

Bien sûr, cette chaleur se dissipe dans l'atmosphère, mais l'effet de serre en confine une grande part dans le bas de l'atmosphère.

Voilà donc pour moi la cause principale qui explique cette augmentation de la température moyenne du globe relevée à sa surface: c'est tout simplement la dissipation directe de chaleur supplémentaire provoquée par l'augmentation de la population humaine et confinée par l'effet de serre dans les couches les plus basses de l'atmosphère.

Alors vous allez certainement me dire que cette chaleur supplémentaire d'origine purement anthropique est infime par rapport à la chaleur apportée par le Soleil et même par rapport à la chaleur tellurique issue de la Terre. Certes, mais on ne peut nier qu'elle augmente d'années en années et qu'avec son confinement dans les basses couches de l'atmosphère, elle s'y accumule lentement et surement.

Un peu comme si au fond d'une piscine subissant la température ambiante supposée parfaitement stable, on avait posé une petite résistance électrique et qu'on augmentait exponentiellement l'intensité du courant qui la traverse: les effets finiraient par se voir dans la température de l'eau, aussi petite que soit cette résistance et aussi grande que soit la piscine.

Une autre comparaison pour expliquer le phénomène:

Qu'est ce qui explique que les grosses fourmilières à dôme qu'on trouve souvent en forêt européenne gardent même au coeur de l'hiver une température supérieure à 20°C?

 

fourmiliere

 

Non pas un phénomène naturel extérieur, mais uniquement la chaleur dégagée par l'activité des fourmis qui est piégée par les aiguilles de pins et les branchettes d'arbre qui tapissent le dôme, et aussi par la neige qui tombe sur la fourmilière. Toutes proportions gardées, l'activité des fourmis et la chaleur qu'elles dégagent correspondent à l'activité humaine incessante et dissipant sans arrêt de la chaleur dans la troposphère. Et l'isolation thermique de la fourmilière correspond à l'effet de serre dû à la vapeur d'eau et au CO2 présents dans l'air. Et il est clair que si la population de la fourmilière se met à croitre, sa température suivra, sauf si les fourmis s'emploient à augmenter le volume de la fourmilière, ou si elles parviennent à réguler sa température d'une manière ou d'une autre (elles en sont capables, les diablesses! Ce sont des insectes extraordinaires). Pourquoi n'en serait-il pas de même s'agissant de la température terrestre, surtout quand la population humaine passe de 3 milliards à plus de 7 milliards en une soixantaine d'années?

D'où à mon avis ce réchauffement global, insidieux pour l'instant (+ 0,6°C en 50 ans, ce n'est pas grand chose) mais qui, si c'est vraiment la bonne explication, ne pourrait que s'accélérer en même temps que la population humaine et son activité économique trépidante.

En tous les cas, ce point de vue est corroboré par la très forte corrélation qu'il y a entre les augmentations de la population, de la température moyenne terrestre et de l'activité économique traduite par le PIB, comme le montrent très clairement ces trois graphiques mis côte-à-côte:

                         pop mondiale                     TEMPERATURE MONDIALE          PIB MONDIAL

 Je doute très fort que ce soit le cas avec le graphique de l'activité solaire ou d'autres phénomènes purement naturels mis en parallèle avec l'augmentation de la température sur ces 60 dernières années. Mais vous allez peut-être tenter de me montrer que c'est bien le cas.

En attendant, je vous soumets le petit modèle mathématique (décliné sous deux hypothèses) que j'ai mis au point et qui découle de mon approche:

modele_temp

Que pensez-vous de tout cela?

 Francois Gervais

La présentation lissée que vous amenez laisse croire que la température a atteint un sommet récent et continuerait à croitre. Il est vrai qu’il y a eu un pic El Niño en 2016, phénomène reconnu comme naturel par les climatologues, mais la température est dégringolée de 0,65°C aussi vite qu’elle est montée. Hors telles fluctuations, les données mensuelles montrent que la température n’a pas varié de façon significative depuis 20 ans, ce qui est à peu près cohérent avec le sommet du cycle de 60 ans:

int10

 

De plus, je ne considère pas que l'évolution de la température provenant des émissions de CO2 d'origine anthropique soit négligeable comme le soulignent les titres de mes deux articles publiés dans des revues internationales à comité de lecture où le mot « anthropogenic » est bien présent

Gervais, F., 2016. Anthropogenic CO2 warming challenged by 60-year cycle. Earth-Science Reviews 155, 129-135 

Gervais, F., 2014. Tiny warming of residual anthropogenic CO2Int. J. Modern Phys. B 28, 1450095

mais moindre que l’évolution naturelle, ce qui n’est pas la même chose.

Enfin, reprenons votre chiffre de 6 milliards de gros radiateurs de 1000 w. Divisons-le par la superficie de la Terre pour comparer à la chaleur moyenne reçue du soleil et renvoyée par la Terre vers l’espace par émission thermique : 238 w/m2.

6 1012 w/510 1012 m2 = 0,012 w/m2

Est estimée à 0,03 w/m2 la chaleur dégagée par la combustion de charbon, gaz, pétrole, valeur du même ordre de grandeur que votre propre estimation. Dans les deux cas, ces estimations restent très inférieures au rôle du soleil. Elles sont même très inférieures au forçage radiatif estimé page 13 du cinquième rapport AR5 du GIEC : entre 1,1 et 3,3 w/m2.  

eric zeltz

Ci-dessous un autre graphique présentant l'évolution des températures depuis 1880:

planete-temperature-1880

 

Votre cycle de 60 ans y est totalement  invisible . Je vois bien sur les 60 premières années 1880- 1940 une descente puis une remontée. Mais après un "plat fluctuant" sur 30 ans (1940- 1970).  Par contre la tendance générale à réchauffement à partir des années 1970 est très nette. Le replat final observé à partir de 2010 n'est à mon avis pas du tout suffisant ni assez long pour pouvoir être interprété comme un ralentissement qui risque d'être durable. C'est certainement une simple fluctuation, comme on en voit à d'autres périodes, mais très loin d'être suffisante pour pouvoir actuellement remettre en cause cette tendance au réchauffement observée au moins depuis 50 ans. On va donc dire un seul cycle vraiment visible sur une durée de 130 ans, on ne sait pas ce qu'il y a avant ni après, je trouve que vous allez très vite en besogne.

Par ailleurs, si on lit vos articles ou visionne les différentes vidéos où vous présentez vos positions, on constate que vous affirmez régulièrement que le passage de 3 à 4 ppm de CO2 dans l'atmosphère en quelques décennies n'a joué ou ne jouera qu'un rôle très faible dans le réchauffement. De l'ordre à peine de quelques dixièmes de degré. Cela parce que d'après vous ce rôle d'effet de serre joué par le CO2 est arrivé depuis longtemps à saturation. C'est bien cela? Or je vois que dans votre réponse vous prenez comme argent comptant les derniers chiffres donnés par le GIEC concernant cet effet de serre supplémentaire (forcage radiatif): entre 1.1 et 3.3 w/m². Je ne comprends pas, car eux ne le considèrent pas comme négligeable mais en font la cause principale de ce réchauffement. Il faut que vous m'expliquiez ce qui me paraît pour l'instant une contradiction de votre part et qui n'en est sans doute pas une. 

Concernant enfin mon petit calcul sur l'apport calorifique provenant directement de l'activité humaine, je savais bien sûr qu'il était infime par rapport à l'apport solaire. Mais j'ai amené deux comparaisons (celle de la petite résistance dans la piscine et celle de la fourmilière à dôme) pour montrer qu'il peut tout de même avoir une influence, au moins à long terme, et nous sommes  bien sur des périodes à long terme. Vous n'en tenez pas compte.

De toute façon je ne vois toujours pas d'autre cause principale qu'une origine anthropique au réchauffement, et le modèle que j'ai ébauché ci-dessus et que je suis en train de rédiger plus sérieusement dans le dernier message de mon blog part d'une réalité à mon avis incontestable (mais que vous allez peut-être contester): la corrélation de l'évolution de la température avec celles de la population et de l'activité économique, que le forcage radiatif en soit ou pas un élément accélérateur.

Soyons précis. Le CO2 n’est pas passé de 3 à 4 ppm en quelques décennies, mais en un siècle de 0,03 % à 0,04 %, soit 410 ppmv (parties par million en volume) aujourd’hui. Certes, la température est montée de 0,6°C entre 1975 et 2010 (en 35 ans) mais l’amplitude de cette hausse est pratiquement la même qu’entre 1910 et 1945 (également en 35 ans) alors que durant cette première hausse, les émissions de CO2 étaient 6 à 10 fois inférieures à ce qu’elles sont aujourd’hui, ne plaidant pas en faveur d’une corrélation.

eric zeltz

C'est entre autres ce qui me fait penser que c'est l'augmentation accélérée de la population et de l'activité humaine qui explique principalement cette montée de la température depuis 1900. Regardez ce graphique:

Un_millénaire_de_croissance_mondiale

Avant 1900 il aurait pu y avoir tout le CO2 du monde dans l'atmosphère, il n'y avait ni population humaine suffisante, ni activité humaine suffisante pour "chauffer" la basse atmosphère. Pour en revenir à ma comparaison avec la fourmilière à dôme: aussi bien isolée soit elle, s'il n'y a que peu de fourmis à son intérieur et qu'en plus elles dorment,  la température ne risquera pas de monter à plus de 20°C à son intérieur en plein hiver.

Par contre, après 1900, montée exponentielle de ces deux paramètres, cela explique pour moi ce +0,6°C entre 1910 et 1945, et celui entre 1975 et 2010.

Les trente ans de "pause fluctuante" entre 1945 et 1975 font partie des fluctuations possibles et ont certainement une explication naturelle.

Francois Gervais

Par ailleurs, en dépit d’un lissage, votre courbe montre un palier depuis le début de ce siècle et non pas une prolongation de la hausse. Les données mensuelles montrées plus haut confirment le palier depuis le début de ce siècle aux fluctuations près.

eric zeltz

Palier? Les quatre dernières années 2015, 2016, 2017 et 2018 furent les plus chaudes jamais enregistrées depuis l’ère industrielle,.

Francois Gervais

Un astronome, Nicola Scafetta (Scafetta, N., 2009. Empirical analysis of the solar contribution to global mean air surface temperature change. J. Atmos. Sol. Terr. Phys. 71, 1916) compare les fréquences de cycles climatiques issus d’une analyse de Fourier des températures de la Terre, à la vitesse du soleil par rapport au centre de gravité du système solaire. La comparaison est trop frappante pour être due au seul hasard. Le cycle de plus grande amplitude (l’échelle verticale est logarithmique) est celui de 60 ans. 

in2

Par la suite, lui et d’autres (Stefani, F., et al, 2016. Synchronized helicity oscillations: a link between planetary tides and the solar cycle? Solar Physics doi:10.1007/s11207-016-0968-0) relieront ce cycle à un effet de « marée » (sur le soleil) des grosses planètes du système solaire. 

eric zeltz

Pas convaincu du tout, car en cherchant bien et en trafiquant un tantinet, on arrive à peu près à mettre en phase tout avec n'importe quoi. Et j'aimerai connaître le principe de ces "marées" solaires et comment elles interagisseraient avec la température sur terre.

Francois Gervais

En ajoutant au cycle de 60 ans le cycle de 20 ans qui le suit par ordre d’amplitude décroissante, Scafetta et al, 2017 (Natural Climate Variability. Int. J. Heat & Technology DOI: 10.18280/ijht.35Sp0103) aboutissent à une simulation quasi parfaite de l’évolution récente de la température (en jaune), plus proche des observations que les projections du GIEC, ici en vert. 

in2

 eric zeltz

Quasi-parfaite!? Vous trouvez? Il n'y a que la foi qui sauve. Mais quand on est comme moi un pauvre incroyant dans ce domaine astrologique, on ne détecte pas du tout cette perfection.

Francois Gervais

J’insiste sur le fait que ce sont bien les données mensuelles UAH et RSS auxquelles le modèle à cycles de 60 et 20 ans est comparé. Ces données mensuelles sont acquises par satellites (depuis qu’ils existent en 1979), procédé qui fournit des valeurs plus homogènes que celles de capteurs inégalement répartis à la surface de la planète. En particulier, nombre de capteurs qui se trouvaient il y a 140 ans en pleine campagne se retrouvent maintenant en zone périurbaine, soumis qui plus est à l’effet d’îlot de chaleur urbain dans les grandes villes, quand ce n’est pas à côté d’un aérodrome. Si l’on veut connaître la température d’une pièce, mieux vaut éviter de mettre le thermomètre sur un radiateur. 

eric zeltz

Certes. Ceci dit, les "ilots de chaleur" que constituent les innombrables mégapoles qui se sont étendues depuis une cinquantaine d'années doivent être pris en compte dans le calcul de la température moyenne et participent de plein fouet à valider mon hypothèse concernant la cause du réchauffement climatique.

Francois Gervais

Comme le rappelait Fleming dans Environmental Earth Science en 2018, on n’observe pas de corrélation entre CO2 et température de la Planète.   

in3

eric zeltz

Cela ne prouve rien pour la période actuelle. Car ce qui peut être vrai à l'échelle des millions d'années peut être complétement faux à l'échelle du siècle. Par exemple pour les périodes volcaniques intenses qu'a traversées la Terre, il devait y avoir beaucoup de CO2 et en même temps un refroidissement.

Francois Gervais

 Ceci implique une faible sensibilité climatique au CO2. Dans l’hypothèse d’une sensibilité climatique de 1°C, valeur sans rétroaction reprise par le GIEC, un doublement ou une division par deux du taux de CO2 entraine une variation de température de 1°C, petite devant les températures sur l’échelle de droite. 

La molécule de CO2 émet à haute altitude le rayonnement précisément aux fréquences de vibration auxquelles, non pas elle-même mais ses homologues l’ont absorbé à faible altitude. On les observe dans la partie infrarouge du spectre. La figure suivante montre le spectre d’émission de l’atmosphère vers l’espace à une altitude de 20 km. A cette altitude, la température est proche de 220 K, soit –57°C ; la vapeur d’eau s’est raréfiée et trône au milieu du spectre la vibration du CO2 à 667 cm-1 (15 micromètres de longueur d’onde). Elle est importante car proche du maximum d’émission de l’atmosphère. 

Lorsque double la concentration de CO2 dans l’atmosphère, passant ici de 300 ppm à 600 ppm, le spectre évolue très peu (de vert à bleu). C’est le point important. La figure est calculée car on ne dispose pas encore du recul nécessaire pour mesurer un si petit écart par satellite. Avec seulement 410 ppm de CO2 aujourd’hui et une augmentation annuelle de l’ordre de 2 ppm (sauf pendant un pic El Niño), on reste encore loin de doubler. 

in4

En cas de doublement, ce très petit écart correspond à seulement 1 % du rayonnement terrestre vers l’espace. Il correspond aussi à une sensibilité climatique de 1°C, sans rétroaction, comme calculé plus loin. On remarque en particulier la « saturation » de la bande du CO2 autour de 667 cm-1 puisque courbe verte et courbe bleue se confondent. 

eric zeltz

Ici, on est précisément dans le coeur de votre domaine de compétences, et jusqu'à preuve du contraire provenant d'un de vos pairs aussi qualifié que vous dans ce domaine des sciences physiques, je vous suis entièrement sur ces points précis.

Francois Gervais

Cette évolution infime est confirmée par l’absence d’évolution de température significative des mesures satellitaires depuis qu’elles existent, ici à une altitude de 10 km. La période correspond tout de même à 60 % des émissions depuis le début de l’ère industrielle ! Sans effet significatif sur la température. 

in5

eric zeltz

A 10km du sol, l'effet de serre joue-t-il un rôle aussi important qu'au ras du sol? Si ce n'est pas le cas, ça peut expliquer cette absence d'évolution de la température. Donc pour l'instant au moins, ce graphique n'est  pas probant pour moi.

Francois Gervais

 On n’observe pas davantage d’évolution significative de la température mesurée spécifiquement sous les tropiques, là où les modèles avec des sensibilités climatiques élevées, repris par le GIEC, attendent en vain la signature de « points chauds » pour être validés. 

in6

eric zeltz

Je sais bien que la Guyane où je réside c'est plus l'Equateur que les Tropiques, mais on y constate bien un réchauffement:

gu

Francois Gervais

Une sensibilité climatique de 1°C, hors rétroaction, est assez facile à retrouver. Myrhe et al (Myrhe, G., Highwood, E.J., Shine, K.P., Stordal, F., 1998. New estimates of radiative forcing due to well mixed greenhouse gases.Geophys. Res. Lett. 25, 2715) évaluent un forçage radiatif DF = 5,35 x ln(C/C0). ln est le logarithme népérien. Le facteur multiplicatif 5,35 a été estimé à partir de trois modèles de climat. Ces modèles de climat ne tiennent toutefois pas compte des cycles naturels. C0 = 410 ppmv et C sont les concentrations actuelle et future de CO2 dans l’air. En cas de doublement (passés de seulement 0,03 % à 0,04 %, on en reste loin) C/C0 = 2 et le forçage radiatif devient DF = 5,35 x ln(2) = 3,7 W/m2. Avec l’hypothèse d’un système Terre/atmosphère rayonnant comme le corps noir et en différentiant la loi de Stefan-Boltzmann sous la forme DF/F = 4 DT/T, où F = 238 W/m2 est le flux thermique moyen émis vers l’espace, T la température de la Terre, celle-ci s’échaufferait alors de 

DTCO2 x 2, Myrhe = T/4 x DF/F = 288/4 x 3,7/238 ~ 1°C. 

Pour ma part, j’ai montré que, à l’instar de nombreux autres auteurs (85 travaux publiés montrant une sensibilité climatique inférieure ou égale à 1°C, cf. liste compilée par Pierre Gosselin : notrickszone.com/50-papers-low-sensitivity) cette valeur pourrait être exagérée.

eric zeltz

Pas de raison de contester ces calculs, même si considérer le système Terre/atmosphère rayonnant comme le corps noir est sans doute être assez loin de la réalité. Mais j'accepte l'ordre de grandeur de 1°C pour un doublement de CO2.

Francois Gervais

Depuis 20 ans, le CO2 augmente en moyenne dans l’air de 2 ppmv par an ; davantage pendant un épisode El Niño car les océans qui contiennent 60 fois plus de CO2 que l’atmosphère en relâchent pendant les bouffées de chaleur des océans. Ainsi, même avec une sensibilité climatique peut-être exagérée de 1°C mais qui a l’onction du GIEC, d’ici 50 ans, les émissions anthropiques pourraient échauffer la Planète au plus de 0,3°C. De quoi paniquer ? De quoi verser dans le syndrome carbocondriaque ?

Sur une concentration actuelle de 0,04 % de CO2 dans l’air, la fraction anthropique représente tout au plus l’augmentation de 0,01 % observée depuis un siècle. La France n’est responsable que 0,9 % des émissions mondiales de CO2. Avec une sensibilité climatique de 1°C, réduire de 20 % les émissions françaises éviterait un réchauffement climatique de l’ordre de 

20 % x 0,9 % x 0,01 %/0,04 % x 1°C = 0,0004°C. 

Les réduire de 40 % (à quel coût économique, social, et à quel niveau de taxation supplémentaire ?) éviterait un réchauffement de même pas un millième de degré… 

L’Europe et les États-Unis sont bien seuls à réduire leurs émissions quand tous les autres pays les augmentent dans des proportions très supérieures…  

in7

 eric zeltz

La question n'est pas de savoir si notre action personnelle ou nationale changeront à elles seules quelque chose, la question est de savoir ce qui doit être fait collectivement pour le bien des générations futures. A mon avis par une prise de conscience collective, il faut  tendre à stabiliser progressivement la population mondiale et sa production industrielle. Utiliser en priorité des energies propres (hydraulique, forces des marées et du vent, nucléaire, c'en est une pour moi, etc...). Eviter de consommer inutilement, ce qui ne veut pas dire nécessairement vivre comme un moine. Et d'accord, le CO2 nourrit les plantes mais il y en a bien assez comme cela, je parle du CO2, pas des plantes. Bref, trouver ou retrouver une certaine sagesse collective, tout simplement.

Cela dit, je suis d'accord avec vous qu'il ne faut pas se focaliser exclusivement sur les emissions de CO2. J'allais dire c'est secondaire.

Retrouvons tous une vie plus authentique et plus sage, et tout le reste viendra par surcroit.

Bilan personnel de ce débat:

Je tiens d'abord à nouveau à remercier François Gervais d'avoir accepté ce dialogue.

C'est la première fois que je réfléchissais vraiment sérieusement à la question du réchauffement climatique, et grâce à lui, j'ai pu sortir un peu des idées assez vagues que j'avais sur la question, glanées à droite et à gauche au hasard des journaux télévisés ou des articles lus dans la presse.

Déjà ce dialogue m'a permis d'ôter de ma tête cette idée apparemment de bon sens que je m'étais forgée: le réchauffement actuel ne serait qu'une conséquence directe des déperditions de chaleur provenant de l'activité humaine (cf mes premiers échanges avec François Gervais). Je me suis longtemps accroché à cette idée, mais que je le veuille ou non, cet apport est infime par rapport aux autres apports de chaleur (notamment et surtout provenant du soleil) et on n'est pas dans une cocote-minute fermée ( cf. ma comparaison avec les fourmilières à dôme) où la chaleur resterait en grande partie coincée  par l'effet de serre comme le fait le couvercle d'une casserole qu'on a mise sur le feu.

Donc rien que pour me retirer cette fausse idée de ma tête, ce dialogue a été positif pour ce qui me concerne. Par contre je continue à penser que le réchauffement actuel est essentiellement d'origine anthropique, même si je n'en ai pas encore l'explication complète (mais je ne suis pas le seul!).

Ensuite, il y a le point crucial: la question du rôle du CO2. François Gervais pense qu'en cas de doublement de CO2 dans l'atmosphère, la température ne monterait pas de plus de 1°C, il pense même moins. Il m'en a donné un calcul, et je suis allé voir aussi les articles scientifiques qu'il a écrits là-dessus. Je ne suis pas spécialiste de ce domaine, même pas physicien, mais cela me paraît solide et cohérent.

Le GIEC, quant à lui, annonce des chiffres beaucoup plus importants: 4 ± 2.4 °C, donc minimum +1.6°C en cas de doublement de CO2, et d'après lui certainement plus. J'ai cherché sur le net l'explication scientifique et le calcul précis qui permet au GIEC d'aboutir à leur résultat. Je ne l'ai pas trouvé.

François Gervais explicite rapidement dans son article publié en 2014 (dans  François Gervais, « Tiny warming of residual anthropogenic CO2 », International Journal of Modern Physics Bvol. 28,‎ 11 mars 2014, p. 1450095 (ISSN 0217-9792,) comment le GIEC a obtenu ce résultat, mais j'aimerais assez qu'un membre du GIEC me confirme et détaille la démarche qui a permis d'obtenir ce résultat.

Aussi je vais prochainement contacter  un scientifique de GIEC pour qu'il me les précise et qu'ainsi  je puisse confronter ces deux approches qui aboutissent à des résultats aussi différents. Je verifierai par la même occasion si les membres du GIEC sont aussi ouverts que François Gervais au dialogue sur la question avec le simple citoyen que je suis.

A ce propos, je précise que je n'ai fait et ne ferai a priori aucun procés d'intention, comme on en voit régulièrement et provenant des deux camps:

Les "climato-réalistes" pensent souvent que les gens du GIEC travaillent tous dans le même sens de "Attention, y-a la maison Terre qui brule!" essentiellement pour que leurs laboratoires continuent à être grassement subventionnés par des organismes comme Green-Peace et autres.

Les "pro-GIEC" affirment souvent que des gens comme François Gervais roulent uniquement pour la prospérité des trusts pétroliers, et sous-entendu sont payés par eux.

Non, autant j'ai considéré au départ (et continue à considérer) François Gervais comme un scientifique sérieux, mettant ses compétences uniquement au service de la seule vérité scientifique, autant j'aurais a priori une attitude semblable vis-à-vis du scientifique du GIEC qui voudrait bien répondre à ma demande. 

Cela dit, il y a un fait: "Le catastrophisme, la peur d’un futur climatique, a l’avantage de focaliser l’attention des médias et finalement d’attirer plus facilement les crédits de recherche dans les équipes qui le mettent en avant. A l’opposé, les scientifiques qui discutent de l’incertitude des modèles, qui montrent, connaissance du terrain et de la société à l’appui, que de nombreux facteurs autres que climatiques expliquent la fragilité de certains territoires et de certains groupes humains, sont eux moins médiatiques et in fine, disposent de moins de moyens pour leur recherche." (d'après Gérard Beltrano dans un article publié en 2010 et qui fait une excellente synthèse du point de vue des géographes: https://journals.openedition.org/echogeo/11816)

Donc sans remettre en cause leur honnêteté, on peut tout de même penser que les climatologues du GIEC ne sont pas totalement impartiaux et que des considérations bassement économiques orientent peut-être un tant soi peu les résultats. C'est si facile de changer un petit paramètre dans le sens qui arrange.

C'est pourquoi j'attends beaucoup que l'un d'eux réponde clairement à la question précédente sur leur calcul en cas de doublement de CO2.

 

Enfin, il y a l'explication globale donnée par François Gervais: cycles de 60+20 ans avec hausse de 0.6°C par cycle pour décrire l'évolution de la température depuis le début de l'ère industrielle. Ces cycles étant d'après lui en phase avec les vitesses du centre de gravité du système solaire, ce qui donnerait l'explication de ces cycles, par un phénomène de "marées" solaires.

Comme je l'ai dit, cela ne m'a pas convaincu: déjà pour l'existence des cycles mêmes, ensuite par l'explication donnée par François Gervais de la présence de ces cycles, à supposer qu'ils existent vraiment.

En conclusion, je termine par ces questions:

 

1- A supposer que le GIEC ait raison: comment explique-t-il le +0,6°C de 1910 à 1945, donc une hausse aussi importante que de 1975 à 2010, et cela pour une période où il y avait beaucoup moins de CO2 dans l'air?

2- A supposer que François Gervais ait raison, quelle est son explication du +0,6°C par cycle?

3- Quant à moi, mon hypothèse étant que la hausse perçue depuis 1910 est en grande partie d'origine anthropique, mon argument essentiel étant la forte corrélation qu'il y a entre augmentation de la température, de la population mondiale et du PIB mondial, je n'arrive pas pour l'instant à expliquer le "plat fluctuant" qu'on observe de 1945 à 1975, donc sur 30 ans tout de même.

Voilà où j'en suis pour l'instant de ma réflexion et de mes questions sur le sujet .

 

 

 

 

 

Posté par mathsconcretes à 18:41 - Commentaires [0] - Permalien [#]

Dialogue avec le climatologue du GIEC, François-Marie BREON.

 

François-Marie BREON a accepté de me répondre, en son nom mais aussi au nom de ses collègues du laboratoire LCSE, Elsa CORTIJO et Philippe BOUSQUET. Il est par ailleurs membre du GIEC et s'est vivement opposé à certaines des thèses défendues par François GERVAIS. Je retranscris ici ma question initiale suivie de sa réponse. Par la suite et après étude approfondie de sa réponse, je mettrai mes remarques et questions. Peut-être que François GERVAIS réagira, en tous les cas je le mets au courant de cet échange. Une chose de sûre, seuls les arguments purement scientifiques seront mis sur mon blog
eric zeltz

Monsieur Bréon, j'ai dialogué dernièrement avec François Gervais que vous connaissez sans aucun doute.

C'est l'objet de trois de mes derniers messages. 

L'un d'eux fait le bilan (pour ma part) de ce dialogue.

 Comme vous pourrez le voir, j'y exprime le désir de contacter un scientifique du GIEC pour qu'il m'explique comment a été obtenu le chiffre annoncé par cet organisme  de 4 ± 2.4 °C d'augmentation de la température en cas de doublement de CO2.
 Cela afin de confronter avec les calculs de François Gervais qui lui arrive à nettement moins (au maximum +1°C) .Et pouvoir me faire si possible une idée définitive sur la question, ainsi que les visiteurs de mon blog. Pourriez-vous me renseigner là-dessus?
francois-marie-breon
Les climatologues attribuent la hausse des températures à l’augmentation du CO2 atmosphérique car ils comprennent les processus physiques mis en oeuvre.  En très résumé :
Au premier ordre, le CO2 n’a pas d’impact significatif sur la quantité de rayonnement solaire absorbée par le système Terre.  A l’inverse, l’augmentation du CO2 (et des autres gaz à effet de serre) accroit l’absorption du rayonnement infrarouge et donc limite la capacité de la Terre à se refroidir.  Une augmentation du CO2 diminue donc le rayonnement infrarouge sortant.  Il y a alors déséquilibre radiatif qui conduit à un réchauffement.
Avec une température plus chaude, l’émission de rayonnement infrarouge augmente et on peut alors avoir un nouvel équilibre radiatif (mais avec une température plus élevée).
Pour une description plus complète du processus, je vous recommande cet article 
https://www.sauvonsleclimat.org/images/articles/pdf_files/etudes/article%20dufresne-treiner%20basse%20def.pdf
eric zeltz
Enfin une explication lumineuse et complète de l'essentiel du phénomène! 
Pour ceux qui ne voudraient pas se farcir la lecture complète de cet article, ce qu'à mon avis il faut surtout retenir:
Lorsque la concentration de gaz absorbant augmente,  "l’altitude d’émission augmente et prend une valeur supérieure à la valeur précédente. En raison de l’existence du gradient vertical de température, la température T2 du gaz à cette nouvelle altitude est inférieure à la température précédente T1. Comme la température d’émission est plus petite, la puissance du rayonnement émis est plus faible. Conclusion : le système n’est plus à l’équilibre, car il reçoit plus d’énergie du Soleil qu’il n’en émet ! Conséquence : le haut de l’atmosphère se réchauffe, et du fait des mouvements de convection, cet échauffement se propage à toute l’atmosphère, en maintenant constant le gradient vertical de température jusqu’à ce qu’un nouvel équilibre soit atteint"
Tout est là. ("L'altitude d'émission" étant l'altitude où la concentration de gaz dans l'atmosphère n'est plus suffisante pour arrêter les émissions de radiations des GES vers l'extérieur)
Quant à l'effet de serre du CO2, il est à quasi-saturation depuis longtemps. A lui seul, le fait de doubler de concentration n'augmente pas sensiblement l'effet de serre.
francois-marie-breon
Ca dépend comment on définit « effet de serre » .  Avec une définition courante, qui est la différence entre le flux infrarouge émis par la surface et le flux infra-rouge qui sort au sommet de l’atmosphère (y compris les émissions de l’atmosphère), ou le rapport de ces deux variables , votre phrase est fausse.
Mais votre résumé de la publication de Dufresne et Treiner me va tout a fait.
eric zeltz
J'avais bien compris. C'était le sens de mon "à lui seul". Mais c'est vrai qu'il y avait une ambiguité que vous faites bien de rectifier.
francois-marie-breon
Jusque là, on est dans de la physique assez simple et les incertitudes sont très faibles.
MAIS, si la température augmente, plein de choses peuvent changer (nébulosité, profil de température, présence de neige…).  Ces différents processus peuvent renforcer, ou au contraire atténuer, la parturbation initiale.  Du coup, l’estimation du changement de température (et du nouveau climat) ne peut pas se faire avec un calcul « coin de table », et passe nécessairement par une modélisation complète du climat.
L’effet le plus important est la « rétroaction vapeur d’eau » :
Vous savez sans doute que l’air peut contenir de la vapeur en fonction de sa température.  Pour une certaine quantité de vapeur d’eau dans l’air, si la température diminue, il y a saturation et l’eau vapeur se condense (rosée à la surface, nuages en altitude, et éventuellement pluie).  A l’inverse, si la température augmente, il va y avoir plus d’évaporation et donc l’atmosphère va contenir plus de vapeur d’eau.  Puisque la vapeur d’eau est un puissant gaz à effet de serre, l’effet initial va être renforcé.  Pour résumé:
CO2 augmente => Effet de serre augmente => Température augmente => plus de vapeur d’eau dans l’atmosphère => Effet de serre augmente => température augmente encore plus.
eric zeltz
Je rajoute ces implications:
=> plus de nuages=> plus de reverbération des radiations solaires vers l'extérieur et donc moins de w/m² au niveau du sol => moins d'effet de serre.
Est-ce que vous êtes d'accord avec cela, et si oui, est-ce que les modèles que vous utilisez le prennent en compte de façon précise et fiable?
Car à mon avis, ça doit être un paramètre très loin d'être négligeable.
francois-marie-breon
Je suis en désaccord.  Vous n’avez aucune raison de dire que le réchauffement implique plus de nuages.  Certes, il y a plus d’eau dans l’atmosphère, mais cette même atmosphère est plus chaude; donc elle peut contenir cette eau sans condensation.  On pourrait parfaitement dire plus chaud => moins de nuages
En pratique, l’humidité relative (rapport entre le contenu en eau et le contenu potentiel qui dépend de la température) ne change pas, et il n’y a pas d’argument simple pour prévoir le sens de l’évolution de la couverture nuageuse.  Là encore, on ne peut pas se passer d’une modélisation complète de climat pour faire une prédiction
eric zeltz
Là vous me surprenez: la vapeur d'eau supplémentaire obtenue par le surcroit de chaleur monte dans l'air plus chaud jusqu'à atteindre des couches plus froides où elle se condense et forme de nouveaux nuages. Non? Je ne dis pas que ce soit le cas pour 100% de la vapeur evaporée, mais tout de même pas 0%.
Donc à mon avis, plus de chaleur=>plus de vapeur=> plus de nuages=>moins de w/m² au sol=>moins de chaleur. Ce raisonnement me paraît solide, mais n'étant pas climatologue, sans doute quelque chose m'échappe que vous allez m'expliquer.
francois-marie-breon
Vous décrivez les nuages générés par convection.  Ils existent, mais ce ne sont pas la majorité
Pour les nuages que vous évoquez (cumulus), l’air monte jusqu’à un niveau où le profil de température est « stable » (augmentation de la température avec l’altitude).
Dans le cadre du réchauffement climatique, cette couche est + chaude.  Donc elle peut contenir plus de vapeur d’eau sans condensation
Non, vraiment, il ne me parait évident avec ce raisonnement « simple » qu’une atmosphère plus chaude doit conduire à plus de nuages.  C’est intéressant, car j’ai souvent entendu le raisonnement inverse (avec le réchauffement, il y aura moins de nuages)
eric zeltz
Je pense que ma "théorie" doit quand même être sérieusement considérée avant d'être mise hors-jeu.
Voilà ce que je lis sur Wikipedia 
"La formation de nuages résulte du refroidissement d’un volume d’air jusqu’à la condensation d’une partie de sa vapeur d’eau. Si le processus de refroidissement se produit au sol (par contact avec une surface froide, par exemple), on assiste à la formation de brouillard. Dans l’atmosphère libre, le refroidissement se produit généralement par soulèvement, en vertu du comportement des gaz parfaits dans une atmosphère hydrostatique, selon lequel un gaz se refroidit spontanément lorsque la pression baisse"
L'explication est générale et ne concerne pas qu'un certain type de nuages.
Alors, je sais, c'est Wikipédia! Mais n'est-ce pas la vérité scientifique?
Donc, si c'est exact, quand il y a plus de chaleur, donc plus d'évaporation, cette vapeur chaude se soulève le plus souvent et donc finit par refroidir par baisse de pression et par rencontre de couches d'air plus froides en altitude.
Je suis donc doublement surpris:
1) que ce raisonnement vous paraisse peu ordinaire. 
2) qu'il ne soit pas pris en compte par les modèles du GIEC.
A mon avis, ce phénomène s'il est vraiment avéré, joue le rôle de régulateur thermique  quand la température augmente et empêche l'emballement au moins aussi bien que l'accroissement des émissions d'infrarouge.
Mais j'attends votre point de vue de climatologue professionnel.
francois-marie-breon
Je valide l’extrait de Wikipedia et la physique du phénoméne que vous décrivez.  Il est exact que, dans un climat plus chaud, il y aura plus de vapeur d’eau dans l’atmosphère.  MAIS, puisque l’atmosphère est plus chaude, elle peut contenir cette eau sans condensation.  Avec ma casquette de pilote de planeur, je peux vous assurer qu’il y a des jours, fréquents en été, ou la convection fait monter l’air jusqu’à une altitude à laquelle le profil vertical est stable et empêche l’ascension, et ce sans formation de nuage : L’air ne s’est pas suffisamment refroidit pour que on arrive au niveau de condensation.
Sur le Sahara, il y a de la convection mais sans formation de cumulus.
Dans un climat plus chaud, ce phénomène de « non condensation » peut très bien devenir plus fréquent.
En j’insiste que les modèles repris par le GIEC incluent bien sur la physique de l’évaporation, la convection et la formation des nuages (qui dépend de température et humidité).  Donc, si le processus que vous décrivez existe bien, il n’y a aucune raison de penser qu’il n’est pas reproduit par ces modèles.
eric zeltz
C'est sûr qu'au dessus du Sahara, le processus que  je décris n'a pratiquement aucune chance de se réaliser puisqu'il n'y a pas grand chose qui puisse s'évaporer, sinon ce ne serait pas le Sahara. De même, si vous faites du parapente ou du planeur en plein coeur de l'été, après plusieurs journées d'anticyclone et de sécheresse, vous ne risquez guère de rencontrer des nuages, car l'air sera sec, à moins que vous soyez près de la mer ou d'un grand lac ou à la rigueur près d'une vaste forêt traversée de nombreuses rivières comme en Guyane où je suis. Donc les deux exemples que vous donnez ne me paraissent pas probants. Et la supposition que vous faites (Dans un climat plus chaud, ce phénomène de « non condensation » peut très bien devenir plus fréquent.) n'est qu'une supposition et je ne comprends pas son fondement.
Je fais la supposition inverse, et elle, elle a un fondement logique que j'ai déjà explicité.
Je vais d'ailleurs peut-être réfléchir à construire un modèle mathématique simple du phénomène que je pressens, même si pour cela il va falloir que je me renseigne sur des domaines dans lesquels je n'ai pour l'instant guère de connaissances précises. Accepteriez vous de m'aider d'une manière ou d'une autre (par exemple en m'aiguillant vers des sujets connexes déjà traités) dans cette recherche?
C'est pas que je m'ennuie, mais il ne me déplairait pas de mettre ma petite pierre à l'étude des climats.
francois-marie-breon
OK pour vous donner un coup de main.  On verra ou cela mène.  Je vous avoue que je suis dubitatif.
eric zeltz
Autre paramètre à prendre en compte dans le sens "avantage": plus de CO2 => la végétation s'en porte mieux => le puit vert de carbone augmente => la part relative de CO2 capté par les océans et les terres ne bouge pas.(cf le message précédent de mon blog  intitulé "Intensification de l'efficacité des puits verts de carbone de l'hemisphère Nord" et les travaux de votre collègue Philippe Ciais). Est-ce pris en compte par vos modèles?
francois-marie-breon
Vous avez raison, et c’est bien sur pris en compte dans les modèles.  D’ailleurs, environ 1/4 du CO2 émis par les activités humaines est capté par la végétation du fait de l’effet que vous évoquez.  Un autre quart est absorbé par les océans. Le reste est dans l'atmosphère
francois-marie-breon
Il n’y a pas emballement car, lorsque la température augmente, l’émission infrarouge augmente aussi très rapidement, ce qui limite le réchauffement.
eric zeltz
Et puis je pense que si ça avait dû s'emballer, ça fait longtemps que ce serait fait et nous ne serions pas là pour en discuter, vu les concentrations énormes en GES qu'il y a eu dans certaines périodes géologiques précédentes!
francois-marie-breon
Ce processus est bien sur pris en compte par les modèles de climat, de même que la variation de neige au sol avec le réchauffement climatique, ou l’évolution de la couverture nuageuse.
eric zeltz
Connaissant les difficultés d'obtenir une bonne modélisation pour des phénomènes pourtant nettement plus simples (le sujet de ma thèse soutenue en 2008 était l'obtention de modèles d'injection multiphasique en milieu poreux, notamment pour prévoir ce qui se passerait dans l'enceinte en béton d'une centrale nucléaire, en cas d'explosion du système primaire), je mesure assez bien les difficultés où vous êtes confrontés pour obtenir un modèle précis et fiable d'évolution de la température moyenne.
Et en plus un gros problème que vous avez et que je n'avais pas, c'est que pour valider votre modèle, il faut attendre la réalité climatique, vous n'avez aucun moyen de reconstituer en laboratoire une expérience pour valider préalablement ce modèle.
francois-marie-breon
Les modèles peuvent être validés (i) sur le siècle passé pour lequel on a tout de même beaucoup d’obs.  Par exemple, le modèle reproduit il bien l’impact d’une très grosse éruption volcanique. (ii) sur les climats « anciens » : Le modèle reproduit il bien le climat que on avait lorsque l’orbite de la Terre était différente (alternance glaciaire-inter-glaciaire) et (iii) sur les décennies récentes : La tendance des températures observées était elle bien prédite par les modèles des années 80 et des années 90.
Dans tous les cas, ce n’est pas parfait, mais ce n’est pas non plus débile.  Il est clair que on est à l’intérieur du facteur 2 d’incertitude.  Il est clair aussi que la sensibilité climatique n’est pas inférieure à 1 degrés comme affirmé par FG 
eric zeltz
Je suppose que pour bâtir votre modèle, vous êtes parti des lois physiques, mais que vous avez aussi pris en compte les observations antérieures. Donc il est logique que lorsque vous le testez sur les époques antérieures il fonctionne assez bien, le contraire indiquerait que vous les avez pas ou mal prise en compte.
Mais cela suffit-il pour valider vraiment votre modèle? A mon avis, non, c'est seulement les prédictions qu'il fait si elles sont vérifiées qui le valideront vraiment. J'avoue que votre rôle et votre responsabilité ne sont pas simples du tout.
francois-marie-breon
Les modèles sont essentiellement basés sur des lois physiques.  Il est vrai qu’ils contiennent des paramètres ajustés (en particulier pour prendre en compte les processus sous grille) mais essentiellement pour reproduire le climat actuel. Mais vous avez raison de penser que on peut suspecter un ajustement pour que les transitions climatiques passées soient correctes.  Par contre, on ne peut pas avoir le même soupçon lorsque on compare les production faite dans les années 80 et 90 en regard à ce qui s’est vraiment passé.
eric zeltz
Où peut-on trouver cette production?
francois-marie-breon
Sur http://www.realclimate.org/index.php/climate-model-projections-compared-to-observations/ 
Vous noterez que l’augmentation des températures observées est (contrairement à ce que prétend Francois Gervais) tout a fait conforme à ce qui était annoncé par les premières simulations climatiques à la fin des années 80.
A l’inverse, FG affirme souvent que son estimation de la sensibilité climatique est de 0.6.  Cette estimation est l’augmentation de températures pour un doublement du CO2.  Aujourd’hui, on est très loin du doublement (On est à 410 ppm pour 270 ppm au pré-industriel) et on a déja une hausse des températures de 1 degrés.  Il est curieux que Francois Gervais ne voit pas cette contradiction.
eric zeltz
Attention, vous allez un peu vite: qu'est ce qui vous dit que seule l'évolution du CO2 est responsable de cette hausse de température de 1°C?
Vous savez bien mieux que moi qu'il peut y avoir bien d'autres explications non anthropiques complémentaires.
francois-marie-breon
Tant qu’il n’y a pas de cause non-anthropique explicitée, je n’ai aucune raison de penser que ces causes ont contribué à une hausse de la température plutôt qu’à une baisse.  Du coup, il n’y a pas plus de raison de penser que la contribution CO2 est inférieure à 1 degrés que de penser qu’elle est supérieure à 1 degrés.  Bien sur, je ne peux pas vous démontrer qu’il « n’y a pas autre chose » .  Mais, tant que on n’a pas explicité le « autre chose », la meilleure estimation est faite en supposant que ce "autre chose" est négligeable.
eric zeltz
Donc c'est "par défaut" que vous supposez que le +1°C est purement d'origine anthropique, plus précisément purement conséquence du surcroit de CO2 relaché dans l'atmosphère depuis l'ère pré-industrielle. Est-ce que cette supposition "par défaut d'autres explications ou complément d'explications" est suffisante pour bâtir à partir d'elle une politique mondiale aux conséquences économiques très lourdes? La question se pose quand même, et je suppose que vous vous la posez parfois vous-même.
francois-marie-breon
Si vous voulez.  J’ai une explication parfaitement étayée.  J’ai plein d’observations qui confirment la théorie (augmentation des températures plus fortes aux pôles que dans les tropiques, refroidissement de la stratosphère, diminution du rayonnement infrarouge sortant dans certaines longueurs d’onde).  Aucune autre théorie un peu étayée.  Donc oui, moi, ca me suffit 

 eric zeltz

Car quand même, le +0,6°C de 1910 à 1945 est surprenant avec cette seule hypothèse sachant que le CO2 était loin d'être au niveau des dernières décennies.
francois-marie-breon
Ce n’est pas parce que Gervais dit +0.6 de 1910 à 1945 que ca en fait une vérité.
eric zeltz
Ni une fausseté. Cela est bien ce qu'on voit sur le graphique suivant dont la source est la NASA. Alors, votre explication?
123272650
francois-marie-breon
Pour arriver à 0.6 degrés de hausse dans la première moitié du vingtième siècle, il faut vraiment choisir les années d'extrèma. Si on prend des données lissées sur 11 ans (un cycle solaire), on est plutot sur du 0.4 degrés:
eric zeltz
Et quelle est votre explication du "plat fluctuant" qui va de 1945 à 1975?
Quand je vous pose ces questions, croyez bien que ce n'est pas du tout que je remette en cause votre honneteté intellectuelle, c'est tout simplement parce que je me les pose et que j'aimerais avoir votre position de climatologue là-dessus et par rapport à votre explication "mono-causale" du réchauffement actuel.
francois-marie-breon
Pour mon explication du « plat fluctuant » je vous invite à regarder la video du reveilleur 
à partir de 4:30 et pendant une dizaine de minutes
eric zeltz
Je suis allé voir. Tout le raisonnement est basé sur l'analyse comparée des graphiques suivants:

jjj

Si ces graphiques étaient exacts, ils expliqueraient correctement le "plat fluctuant" que j'ai relevé pour les années 35-75. Mais la courbe noire pour cette période ne devrait pas être quasi-plate, au contraire continuer à monter. Car les émissions de GES continuent à bien monter pendant cette période tandis que les émissions d'aérosols de cette période progressent très peu pendant ce temps comme le montre un autre graphique de la vidéo:

jj

 

Donc l'explication du "réveilleur" là-dessus ne m'a pas convaincu.
francois-marie-breon
Si vous regardez la page des forçages radiatifs (anthropique + Naturel) de cette période (Figure 8.18 du rapport GIEC AR5)
vous pourrez voir qu’elle est assez agitée avec une croissance de l’effet réchauffant des gaz, une croissance de l’effet refroidissant des aérosols, mais aussi plusieurs eruptions volcaniques importantes.
La comparaison des modèles aux obs est par exemple sur la figure 9.7
Sur la période 1900-1940, les modèles montrent bien une augmentation de la température (en phase avec l’augmentation du forçage radiatif (figure précédente).  Il faut bien admettre cependant que ce n’est pas parfait : La hausse des températures observée sur cette période est deux fois plus forte que ce que donne la moyenne des modèles.  Il y a donc bien qqchose qui n’est pas expliqué.
J’insiste cependant sur le fait que ce signal non expliqué est beaucoup plus faible que le signal des 50 dernières années.
eric zeltz
Je vois que vous ne relevez pas "l'erreur" que j'ai relevée concernant la "démonstration" de l'éveilleur. L'éveilleur qui pourtant fait tout un long chapelet sur les procédures qu'utiliseraient François Gervais, mais qui semble pourtant  pratiquer sans complexe et avec un certain professionnalisme ce qu'il condamne avec tant de véhémence. Toujours se méfier de ceux qui condamnent un peu rapidement, surtout quand ils ont un débit rapide et exalté rappelant le style de certains prosélytes de sectes.
francois-marie-breon
J’ai a nouveau regardé la video du réveilleur et je valide tout ce qui est dit.  Votre résumé de son intervention me parait très partielle.  Il insiste sur le fait que les variations de températures moyennes globales ne s’expliquent pas uniquement par le CO2 mais aussi par (i) d’autres facteurs anthropiques (ii) des forçages naturels (soleil, volcan) et (iii) de la variabilité interne (interactions océan atmosphère).  Tout cela est parfaitement exact et répond à Gervais qui affirme « puisque la température a diminué pendant les années 45-70 alors que le CO2 augmentait, c’est bien la preuve que le CO2 n’a que peu d’influence sur le climat’
Ensuite, vous avez effectivement deux courbes légèrement divergentes sur la contribution aerosol+gaz au forçage radiatif.  L’une montre une variation plate pendant une quinzaine d’années alors que l’autre est en légère croissance.  Il faut savoir qu’il y a de grosses incertitudes sur le forçage des aérosols, en particulier avant les années 80 pendant lesquelles on n’avait pas de satellite pour les observer.  C’est très bien expliqué dans le rapport du GIEC.  Les deux courbes montrent deux estimations qui restent dans les barres d’incertitudes.  Le réveilleur a repris une courbe d’un article scientifique, et je n’y vois aucune erreur ni manipulation
eric zeltz
 Ce qui est un peu génant tout de même, surtout provenant de quelqu'un qui se permet de faire la morale à un scientifique qui a une brillante carrière derrière lui et qui a 40 ans de plus, c'est que pour tenter de le mettre en faute sur le plan scientifique, l'éveilleur utilise tour à tour dans son exposé deux courbes différentes et contradictoires qui décrivent pourtant le même phénomène, et cela sans  signaler à ses auditeurs cette différence. Car différence il y a bel et bien entre une qui est horizontale et l'autre qui monte modérément mais franchement.
C'est sûr qu'il n'allait pas prendre celle qui monte pour tenter d'expliquer que le refroidissement de la période en question était normal. C'aurait été nettement plus difficile.
eric zeltz
Et je vois aussi que vous revenez un tantinet sur votre explication mono-causale des changements: vous reconnaissez que les GES ne peuvent tout expliquer des évolutions de température du siècle dernier. Cette évolution est tout à votre honneur et je vous en suis gré.
francois-marie-breon
J’aimerais bien savoir où vous avez vu de ma part une explication mono-causale des changements.  Je vous ai dit que l’augmentation des températures sur les 50 dernières années est parfaitement cohérente avec notre compréhension d’une augmentation de l’effet de serre et du feedback positif de la vapeur d’eau.  C’est l’effet dominant, et je ne nie certainement pas qu’il y a d’autre impacts sur le climat.  Ces effets avaient plus de chance d’être dominants lorsque la contribution CO2 restait faible.  Ce n’est plus le cas aujourd'hui.  Pour info, je suis auteur du chapitre 8 du cinquième rapport du GIEC dans lequel on évalue la contribution de chacun, avec des barres d’incertitudes
eric zeltz
Vous disiez precedemment:
 "Tant qu’il n’y a pas de cause non-anthropique explicitée, je n’ai aucune raison de penser que ces causes ont contribué à une hausse de la température plutôt qu’à une baisse. Tant que on n’a pas explicité le « autre chose », la meilleure estimation est faite en supposant que ce "autre chose" est négligeable."
Et maintenant: "La hausse des températures observée sur cette période 1900-1940 est deux fois plus forte que ce que donne la moyenne des modèles.  Il y a donc bien qqchose qui n’est pas expliqué." Le "autre chose" qui était d'abord négligeable est devenu "quelque chose" d'inexplicable.
Ce n'est pas une grosse évolution de votre discours, cela?
francois-marie-breon
Dans mon propos initial que vous citez, je parle du réchauffement récent (en gros depuis les années 1970) période pendant laquelle la contribution du CO2 est devenue dominante.  Oui, j’aurais pu parler de la contribution du méthane, des autres GES, des aérosols, du changement d’occupation des sols, des trainées d’avion.  Mais bon, lorsque on est en train de débattre avec des gens qui ne sont pas certains de l’existence même de l’effet de serre ou du caractère anthropique du changement climatique, il me semble préférable de ne pas trop rentrer dans les subtilités.
eric zeltz
Merci pour ces précisions.
A moi d'en faire (ou d'en refaire): je n'ai jamais nié l'origine essentielllement anthropique du réchauffement actuel, et cela dès le début de notre débat, et même avant, dès que j'ai initié le traitement de ce sujet sur mon blog. Vous pourrez le constater en lisant mes messages précédents sur la question.
Mais je suis un scientifique, et comme tout scientifique qui se respecte, je n'avale rien sans d'abord avoir soigneusement vérifié avec tous les moyens dont je dispose, le premier étant un esprit critique soigneusement entretenu. Et cela d'où que provienne l'information. Le GIEC n'est pas pour moi l'Alpha et l'Oméga de la vérité scientifique: il peut commettre des erreurs et il peut être biaisé par des objectifs à atteindre non purement scientifiques. Cela consciemment ou inconsciemment. Je ne suis pas tout-à-fait né de la dernière pluie.
francois-marie-breon
Alors pour que les choses soient claires, il n’y a pas que le CO2, il y a d’autres contributions anthropiques qui sont quantifiées, certaines avec de grosses barres d’incertitude (en particulier les aérosols).  Mais, si on m’évoque la possibilité d’une contribution inconnue qui aurait un impact sur le 1 degrés de réchauffement observé, je réponds que il n’y a aucune raison de penser que ce processus inconnu conduit au réchauffement plutôt qu’au refroidissement.  Et ca, je maintiens.  Tant que on ne m’aura pas expliqué quel est le processus inconnu, il est impossible de lui attribuer un signe et donc de dire qu’il a contribué au réchauffement.
Sur la première moitié du vingtième siècle, l’effet du CO2 était beaucoup moins fort qu’il ne l’est aujourd’hui, et des processus « autres » et en particulier la variabilité naturelle de type AMOC ou ENSO peut modifier la température de quelques dixièmes de degrés et donc avoir un impact comparable au forçage anthropique de l’époque.  Ce n’est plus le cas.
eric zeltz
S'il y a effectivement une contribution inconnue (donc autre que GES, aérosols, variabilité naturelle, etc...), elle est ou négative, ou positive, mais pas nulle (sinon elle ne contribue pas). Donc votre démarche qui aboutit à considérer comme nulle toute contribution d'origine inconnue, et cela seulement parce qu'elle est incomprise, ne me paraît pas logiquement correcte, même a-scientifique. C'est exactement comme si à la veille d'une élection au deuxième tour d'une présidentielle, vous affirmiez qu'il faut partir sur un résultat parfaitement équilibré. Non, il faut partir des éléments dont on dispose (par exemple des sondages) pour prospecter correctement  sur le résultat de l'élection.
Et de même ne pas nier a priori l'impact positif ou négatif de cette contribution visible mais inexpliquée: se creuser la tête et fouiller dans des directions nouvelles. C'est ainsi que la science a toujours progressé.
francois-marie-breon
Sur l’affaire de la « baisse » de température dans les années 50-70, Francois Gervais nous affirme que , à l’époque, la communauté scientifique nous annonçait un refroidissement général, une nouvelle période glaciaire, et ce sur la base de la couverture d’un article du Times.  En fait, la communauté scientifique savait bien, déjà à l’époque, que on s’acheminait vers un réchauffement dû au CO2.  Je vous joins un article de 1975, publié dans la revue Nature, qui est beaucoup plus représentatif de ce que pensait la communauté scientifique que la couverture du Times.  Vous y verrez que l’auteur annonce très clairement que le refroidissement ne peut être que temporaire et que l’impact du CO2 va bientôt dominer:
eric zeltz
François Gervais ne parlait pas de la communauté scientifique, mais du Times Magazine. Le Times Magazine n'est pas l'organe de la communauté scientifique, que je sache!
Et je confirme ce que dit Mr Gervais, car je me rappelle très bien que les journaux à sensation de l'époque parlaient de ce refroidissement. Sans doute quand ils n'avaient rien d'autres de plus consistant à se mettre sous la dent pour faire vendre du papier.
Comme d'ailleurs maintenant, avec le réchauffement.
Et d'ailleurs ce dernier est un filon pour eux, car c'est justement au moment des canicules d'été que les journalistes n'ont souvent pas grand chose à se mettre sous la dent. Sacré coup de chance pour eux! Peut-être à compter dans un feedback (positif ou négatif, ça dépend si on est journaliste ou lecteur) provoqué par les GES.
francois-marie-breon
Francois Gervais montre une couverture du Times mais son discours fait un parallèle (par opposition) entre les discours de l’époque et ceux d’aujourd’hui.  Je suis a peu près certain que celui qui écoute Francois Gervais en déduit que, dans les années 70, la communauté des climatologues annonçait un refroidissement, comme elle annonce aujourd’hui un réchauffement.  Au strict minimum, il fait un mensonge par omission en ne disant pas que cette couverture du Times ne reflétait pas la position de la communauté scientifique.
eric zeltz
Comme vous avez pu le constater, ce n'est pas ce que j'ai déduit. C'est à chacun de faire preuve d'esprit critique dans ce qu'il écoute, voit ou lit. François Gervais n'a fait aucune faute, ni même de "mensonge par omission". Par contre, le réveilleur lui en fait une bel et bien en affirmant que François Gervais citait la communauté des climatologues. Et vous de même, puisque vous avez validé son exposé à charge contre François Gervais. Je ne suis pas un partisan de François Gervais, que je ne connais d'ailleurs ni plus ni moins que vous. Mais les faits sont les faits, les vérités sont les vérités, et les contre-vérités des contre-vérités, cela quelles que soient ses positions dans le débat.

 francois-marie-breon

« L’hystérie du style de ce que on connait aujourd’hui, c’était « on va tous mourrir de froid » « 
Dans toute sa video, il critique les conclusions des climatologues synthétisées par le GIEC.  Vous croyez vraiment que l’auditeur comprend que « l’hystérie »  de l’époque uniquement une hystérie dans les médias et pas ce que pensaient les scientifiques ?
Je suis a peu près persuadé que, en regardant la video dans laquelle FG fait un parallèle entre « l’hystérie » sur la crainte du froid de l’époque et celle d’aujourd’hui, l’auditeur comprendra que la communauté scientifique, reprise par les médias, annonçait le froid.  On est donc en désaccord sur l’interprétation.
eric zeltz

Effectivement, et je précise mon point de vue.

Tout d'abord je ne parlais que de sa tirade à propos de la couverture du Times Magazine. Pas de l'ensemble de sa conférence. Gervais a cité sa source, clairement non scientifique, sur cette hypothèse de refroidissement. Et quand on voit la photo du pingouin dans la neige on peut parler effectivement à ce niveau de culture de l'hystérie. Gervais n'a jamais dit de près ou de loin que les scientifiques de cette époque (dont il faisait d'ailleurs partie) étaient tombés dans l'hystérie. Ce n'est que votre interprétation et (ou)  celle de l'éveilleur.

Simplement une partie de l'opinion publique de l'époque comme de tout temps aiment se faire peur pour rien et achetent les journaux qui jouent sur cette peur, effectivement voisine de l'hystérie par son irrationnalité.

Comme les journalistes ont toujours su le faire, que ce soit pour l'étrangleur de Boston, le météore qui a effleuré (à quelques années lumière) la Terre, l'islamisme vu par Zemmour,etc.., et que vous le vouliez ou non, le réchauffement climatique fait partie des sujets de choix sur lesquels ces vendeurs de papier aiment surfer.

Quant au reste des arguments de Gervais, certains me convainquent, d'autres pas du tout, comme j'ai eu l'occasion de lui dire directement. Mais en aucun cas je ne le considère comme un scientifique malhonnête. C'est un scientifique sérieux qui amène des arguments discutables et sur lesquels on peut discuter, mais à mon avis il n'y a aucune raison de lui faire tout un procès en inquisition climatique, comme le fait l'éveilleur,  tout cela parce qu'il conteste avec véhémence certaines conclusions du GIEC.

Le débat, la "disputatio" telle qu'on la pratiquait du temps d'Abelard, est une tradition universitaire qui remonte au Moyen-Age, et certains prosélytes du GIEC feraient bien de ne pas l'oublier. Ou ils ne font que prouver qu'ils ne sont plus dans le domaine de la science, mais dans celui de l'idéologie.

francois-marie-breon

Il existe une figure en trois partie dans le rapport du GIEC qui compare augmentation des températures modélisées et calculée.  Sur ces 3 parties, FG n’en montre qu’une, sans même mentionner l’existence des autres, et ca conduit a un message complètement différent que si on analyse les 3 parties, ou simplement celle de droite qui est la plus représentative.Vous pensez que FG est un scientifique « sérieux ».  J’aimerais bien votre commentaire sur la partie de la video https://www.youtube.com/watch?v=mqAaokrY1NU à partir de 15:20

Comment qualifier cette méthode ?
eric zeltz
On peut discuter son choix, mais pas pour autant le qualifier de malhonnête comme s'empresse de le faire l'éveilleur.
Une quinzaine d'année (1998-2012) c'est une période assez longue pour se faire une idée de la fiabilité des modèles, et en plus c'est la période la plus contemporaine. Il s'avère que les modèles du GIEC sont nettement à coté de la plaque pour cette période.
C'est très bien de le faire remarquer. Et je serais des modéliseurs du GIEC, j'en tirerais tout de suite les conséquences pour revoir les dits modèles. Cela même si sur une période plus longue, ils donnent des résultats plus voisins de la réalité.
Je vous donne un exemple pour expliquer ma position:
 Le constructeur Renault veut évaluer le prix moyen d'une voiture dans 20 ans. Il fait appel à un modélisateur. Il met au point un modèle à partir de la démocratisation des voitures, on va dire 1950. On fait tourner le modèle entre 1950 et 2012, il donne une fourchette de prix moyen entre 6000€ et 8000€. Le prix moyen effectif pour cette période était de 7200€. Très bien. Par contre, pour la période 1998-2012, ayant sous-estimé les gains de coût de production dûs à la robotique et surestimé les nouveaux équipements electroniques placés dans les voitures contemporaines , il donne une fourchette entre 9000€ et 10500€, alors qu'en réalité il n'était que de 8200€. Est ce que vous pensez que Renault pourra se satisfaire de ce modèle pour projeter le prix moyen d'une voiture dans 20 ans?
Assurément non, et il demandera au modélisateur d'affiner et de rectifier son modèle même s'il n'est pas mauvais sur la période longue 1950-2012. 
Donc, je me répète: c'est très bien et pas du tout malhonnête (mais evidemment un peu em... pour le GIEC) que Mr Gervais mette le focus sur cette période 1998-2012.
francois-marie-breon
Bon, nous avons donc identifié un profond désaccord.  
Le GIEC a l’honnêteté de mettre en avant une période (la pire pour ce critère) pendant laquelle le réchauffement est sur-estimé par les modèles, tout en montrant que le réchauffement est sous-estimé sur d’autres périodes.
FG ne montre QUE la période « bien » choisie pour sa thèse et ne mentionne JAMAIS que la période est particulière et absolument pas représentative de l’ensemble
Si vous ne trouvez pas ca malhonnête, je ne vois pas bien ce qui pourrait l’être.
Dans l’exemple « Renault » que vous donnez, le parallèle serait le commentateur extérieur qui dirait que Renault surestime systématiquement le cout de ses voitures sur la base d’une période non représentative de l’ensemble.  Car c’est bien là le message de FG : La sensibilité climatique donnée par le GIEC est nettement au dessus de la réalité.
Ensuite, j’ose croire que vous avez connaissance des processus chaotiques qui ne permettent pas la prévision à court terme mais qui n’empêchent pas la prévision des tendances.  L’exemple que j’aime bien : Je ne suis pas capable de vous dire si le 14 Mai sera plus chaud ou plus froid que le 14 Juillet, mais ca ne m’empêche pas de vous affirmer que le mois de Juillet sera (en France) plus chaud que le mois de Mai.  La nature chaotique du temps permet néanmoins de faire des prédictions sur les moyennes.
eric zeltz
Heureusement que le GIEC ne tronque pas les données fournies par ses modèles, même quand ils ne sont pas réalistes! 
C'est le moins qu'on puisse demander à un organisme international chargé d'apporter les données scientifiques aux décideurs!
Mais Monsieur Gervais a pour autant le droit de mettre l'accent sur une période à la fois longue (14 ans) et récente (à partir de 1998) où les modèles du GIEC ont tout faux, sans pour autant être taxé pour cela de délit de malhonneteté. C'est un fait: les modèles du GIEC surestiment fortement la croissance de la température pour la période 1998-2012. Et comme ces modèles ont la "chance" que sur une autre période ils la sous-estiment fortement, ils arrivent sur la période longue 1950-2012 à des estimations assez proches de la réalité.
Est-ce que pour autant on peut partir de ce qu'ils donnent à partir de 1998 pour projeter. Non, tant qu'ils n'ont pas trouvé la cause précise de ce gros différentiel avec la réalité.
L'explication chaotique que vous suggérez sur une période aussi longue ne me paraît pas valide. "L'effet papillon" sur une période de 14 ans ne peut jouer qu'à la marge de la marge. Ce n'est pas un cyclone de plus ou de moins qui va changer la température sur une période aussi longue.
Encore une fois, je serais du GIEC, je me remettrais immédiatement au travail sur les modèles utilisés pour voir ce qui n'est pas ou mal pris en compte.
Je donne d'ailleurs sur ce blog une piste explicative sérieuse qui n'est peut-être pas à négliger: voir mes deux messages Interactions nuages/températures: modèle proie-prédateur? et Une première ébauche du modèle interaction température-nuages

D'ailleurs j'aimerais assez avoir votre opinion là-dessus: est ce que la démarche que j'y décris et le pré-modèle que j'obtiens à partir d'elle ont un intérêt pour le climatologue que vous êtes?

 

 

 francois-marie-breon

 Pouvez vous m’indiquer à quel minute de la video Le Reveilleur fait une « faute » en affirmant que Gervais citait la communauté des climatologues ?  Il est tout a fait possible que ce soit son interprétation plus que ce que FG dit explicitement (j’ai fait cette interprétation), mais je n’ai pas retrouvé le passage.

 eric zeltz

Minute 17 avec son graphique sur les articles scientifiques, il le dit très fort en creux puisque justement il se focalise sur les articles scientifiques alors que Gervais ne parlait que du Times Magazine et de l'opinion publique de l'époque.

eric zeltz
Conclusion très provisoire de notre débat, car vos réponses me feront certainement évoluer:
Je pense toujours que l'influence anthropique est le moteur principal du réchauffement observé depuis 1910 (c'est là où personnellement je le date, à cause du graphique suivant:

123272650

Par contre je pense qu'il y a une telle complexité dans les phénomènes physiques en jeu qu'obtenir une modélisation fiable et précise à partir de tous les paramètres directs qui interviennent est bien trop ambitieux, même avec les moyens calculatoires actuels.
On se limitera nécessairement et pour très longtemps à des fourchettes très imprécises comme celles que le GIEC donne actuellement. 
Une autre solution, sans doute nettement moins satisfaisante sur le plan purement intellectuel mais peut-être plus efficace et fiable pour les résultats qu'elle donnerait, et tellement plus simple à mettre en oeuvre, serait la suivante:
Pour construire le modèle, utiliser uniquement la forte corrélation qu'il y a entre ces trois évolutions:
celle de la température moyenne mondiale, celle de la population mondiale et celle du PIB mondial
francois-marie-breon
Je suis en profond désaccord.  Il n’y a aucune raison physique pour que le climat soir corrélé directement au PIB ou à la population mondiale. Il y a des raisons physiques pour que CO2 et climat soient corrélés. Donc si vous voulez faire des extrapolations sur la base de corrélations observées, il me parait hautement plus satisfaisant de le faire sur la base du CO2 que sur la base de la population ou du PIB
eric zeltz
Vous avez entièrement raison, du moins si les constructions de mégapoles, autant d'énormes ilots de chaleur, les millions de moteurs thermiques utilisés, les revètements de bitume par milliers d'hectares recouvrant ce qui avant était forêts ou prairies, les créations de milliers d'usines, les trainées d'avions, etc..., n'ont pas d'autres conséquences thermiques que celles provenant du CO2 qui est émis à cause d'eux.
francois-marie-breon
Les impacts des différents éléments que vous citez ont été évalués.  Ceux qui ont un impact significatif sont le changement d’occupation des sols et les trainées d’avion.  C’est quantifiable, mais ca reste très faible par rapport à l’impact du CO2 (et aussi du méthane)
eric zeltz
Admettons. Mais il reste au moins deux points importants sur lesquels je ne suis pas convaincu par vos dires (ou par ceux de votre porte-parole l'éveilleur):
1- Votre explication du "plat fluctuant" des années 35-75.
2- Votre non prise en compte de ce raisonnement pourtant qui me paraît assez évident:
plus de chaleur=>plus d'évaporation=>plus de nuages=> moins de chaleur.
Donc phénomène d'autorégulation naturelle, ou au moins de non-emballement et minoration des hausses de chaleur provoquée par les GES.

Posté par mathsconcretes à 18:28 - Commentaires [0] - Permalien [#]