Avec 2000 pages analysant plus de 9000 publications scientifiques parues depuis 2007, le dernier rapport du GIEC (groupe d’experts intergouvernemental sur l’évolution du climat) confirme à nouveau que le réchauffement climatique, depuis 60 ans, est principalement dû à l’impact humain. Pourtant, beaucoup de personnes se posent encore des questions à ce sujet. Les climato-sceptiques quant à eux n’abandonnent pas la bataille médiatique. Ils en sont réduits à utiliser des techniques de propagande qui malheureusement s’avèrent plutôt efficaces: répéter des arguments déjà réfutés par le passé, jouer sur les idées fausses sur le climat, simplifier à l’extrême ou, au contraire, utiliser un jargon hyper technique, manipuler l’opinion avec des graphiques biaisés, laisser planer l’idée d’une conspiration généralisée et, plus subtilement, utiliser les points faisant débat dans la théorie pour prétendre que l’ensemble est incohérent. Un deuxième article s’impose donc à propos de cette littérature climato-sceptique.
Simplifier à outrance: CO2 et plantes
Saviez-vous que, sous certaines serres, on augmente artificiellement le taux de CO2 pour améliorer le rendement? Peut-on en déduire que l’augmentation du CO2 observée dans l’atmosphère est une aubaine pour l’agriculture comme semblent le penser certains climato-sceptiques? Remarquons d’abord que “plus” ne signifie pas toujours “mieux”, trop arroser une plante ne va pas forcément lui faire du bien. Si le CO2 est effectivement utile pour les plantes, l’équation “plus de CO2 implique plus de rendement” n’est pas aussi évidente qu’elle n’y parait. La réalité est effectivement plus complexe et la littérature scientifique est partagée sur la question. D’abord, sous serres, l’augmentation du CO2 s’accompagne aussi de la possibilité de contrôler différents paramètres comme l’humidité et la température. Malheureusement, en plein air, ils sont moins facilement contrôlables et seront probablement affectés par le réchauffement climatique: pluies erratiques, périodes de sécheresse, diminution de l’humidité du sol, etc.
Ensuite, un groupe de chercheurs s’est précisément intéressé à cette question en mettant en place une expérience grandeur nature cherchant à comprendre l’impact de cette augmentation de CO2 sur la végétation dans des conditions proches de la réalité. Dans ce programme appelé FACE, les plantes sont à l’air libre dans un environnement où le CO2 est artificiellement maintenu à une forte concentration. Les résultats ne sont pas aussi prometteurs que les expériences sous serres, notamment en terme de rendement.
Jouer sur les mauvaises compréhensions: CO2 et température
L’effet de serre est peut-être la notion la mieux comprise par le grand public: une augmentation de la concentration en CO2 contribue à une augmentation des températures. Un peu moins connu, une augmentation de la température implique aussi une augmentation du CO2 via le réchauffement des océans[ref]C’est ce que l’on appelle un feedback positif.[/ref]. La relation CO2/température est donc complexe et il est important de savoir que ces deux variables s’influencent mutuellement. Les climato-sceptiques pointent du doigt le fait que, par le passé, l’augmentation de la température précédait celle du CO2 (on le voit en analysant les carottes glaciaires) et cherchent à semer le doute auprès du grand public. Il n’y a rien de paradoxal dans ce phénomène de latence. La cause des réchauffements climatiques entre les périodes glaciaires et interglaciaires ne découle pas d’une augmentation de la concentration en CO2. Elle est à chercher dans les nombreux paramètres naturels dont on a déjà parlé dans le précédent article: activité solaire, activité volcanique, position de la terre par rapport au soleil, etc.
Répéter de faux arguments sur le climat: 15 ans de stabilisation
Nous avons déjà traité ce problème mais il est tellement à la mode qu’il est bon de préciser encore les choses. Les climato-sceptiques basent leurs observations sur une période de 15 ans commençant donc en 1998. Avoir choisi cette date comme première année de ce qu’ils appellent “période de stabilisation” n’est pas anodin car cette année fut particulièrement chaude. Par ailleurs, rappelons qu’il existe d’autres indicateurs de ce réchauffement qui sont aussi pertinents que la température atmosphérique et qui, eux, ne vont pas dans le sens d’une stabilisation (par exemple le réchauffement des océans). La période est de toute façon trop courte pour pouvoir en tirer des conclusions. Mais même si on se prête à ce jeu, on constate que depuis 15 ans la température terrestre augmente mais lentement.
De telles périodes de stabilisation ne surprennent pas les spécialistes. Bien au contraire, elles sont même prévues par les modèles. Les auteurs de l’étude (donnée en lien) soulignent bien que des périodes de ce genre ont été observées par le passé. Grâce à l’utilisation de modèles, ils montrent par ailleurs qu’on peut s’attendre à des périodes non pas de ralentissement mais de refroidissement au 21e siècle sur 10 voire 20 ans! Préparez-vous donc à voir les climato-sceptiques sortir le champagne…
(Graphiques extraits de l’article cité).
Utiliser les vrais débats pour semer le doute: le calcul de la température moyenne
Calculer une température moyenne sur terre n’est pas une tâche facile. Les incertitudes liées à cette mesure sont mises en avant par les climato-sceptiques pour rejeter les conclusions sur le réchauffement. D’où viennent ces difficultés? Pour prendre un exemple, les scientifiques doivent prendre en compte l’influence des villes connues pour être plus chaudes que les campagnes. Si tous les capteurs sont en villes, cela peut donc engendrer un biais au final. De même, l’heure de relevé peut influencer les données collectées à long terme. Tôt le matin vous augmentez l’influence des nuits froides (vous comptez deux fois une nuit froide), en début d’après-midi celle des journées chaudes. Vous pouvez donc observer un léger décalage vers le chaud ou le froid suivant l’heure où vous prélevez vos températures.
Il existe plusieurs techniques pour reconstruire la température moyenne: 3 principales et d’autres qui ont été développées indépendamment par des chercheurs. Ces reconstructions utilisent soit des températures sur la surface des continents, soit une combinaison continent/océan. Or, quelle que soit la méthode de reconstruction utilisée, la tendance générale à la hausse est toujours vérifiée si on regarde sur une période suffisamment longue.
Enfin, certains chercheurs reconstruisent cette température moyenne sans même faire appel aux stations météorologiques. D’autres utilisent des données biophysiques (173 paramètres différents[ref]Les anglophones pourront écouter l’auteur principal de cette étude sur cette vidéo: http://www.youtube.com/watch?v=oRa-yvQVLrs#t=97[/ref]) pour reconstruire cette température (coraux, sédiments, stalagmites, documents historiques, etc.) et obtiennent les mêmes tendances à la hausse.
Manipuler les graphes
Voici un exemple de manipulation parmi d’autres, extrait d’une présentation de François Gervais (au début): le graphe qui suit prétend montrer que la température dans la basse troposphère n’aurait pas varié ces 30 dernières années.
Le lecteur averti notera qu’avec l’échelle des ordonnées, il est impossible de voir une quelconque évolution sur ce graphique. Le rapport du GIEC aux décideurs assène: “It is virtually certain that globally the troposphere has warmed since the mid-20th century”. Quand on dilate les ordonnées et qu’on trace la courbe des anomalies, la tendance est plus évidente:
Source: http://www.globalwarmingart.com/wiki/File:Satellite_Temperatures_png
Conspiration: retour sur les modèles
Traiter ce sujet rendrait cet article beaucoup trop long mais je tenais à signaler une nouvelle vague de type conspirationniste qui fait grand bruit dans certains réseaux sociaux: le GIEC cacherait des données ou modifierait certains graphes trop gênants. On détiendrait la preuve ultime (puisqu’elle provient du GIEC!) que les modèles ne prédisent rien et qu’ils sont bons pour la poubelle.
Tout est parti d’une “fuite” du graphique qui suit, pendant les discussions liées à la rédaction du dernier rapport du GIEC: Le graphique de gauche (dans la version préparatoire du rapport) a été remplacé par celui de droite (version finale). A gauche, on a l’impression que les modèles (FAR, SAR, TAR) sont très loin des températures observées. A droite, cette impression a disparu. Alors quoi? Le GIEC truque ses données, ses graphiques, pour ne pas avoir à se contredire? Les climato-sceptiques jouent ici sur une définition de la science comme un socle monolithique qui détiendrait une vérité unique. Chaque changement, chaque remise en cause de certaines parties de la théorie est l’occasion de proclamer l’incohérence de l’ensemble un peu à l’image de ce que font les créationnistes par rapport à la théorie de l’évolution. Si le graphique fut changé, ce n’était pas pour cacher un sein qu’il ne faudrait voir, mais tout simplement parce que ce graphique comportait des erreurs (cela arrive, rappelez-vous l’histoire du neutrino allant plus vite que la lumière!). Pour ceux qui veulent aller dans le détail, ils pourront consulter ces différents articles (anglais): 1, 2.
Le consensus est écrasant: 97% des climatologues sont en accord avec l’origine anthropique du réchauffement climatique (AGW en anglais). Faire appel au consensus n’est pas un argument d’autorité contrairement à ce que certains peuvent penser. Il s’agit simplement ici de refléter l’état de la connaissance sur un sujet donné. La majorité peut se tromper, mais cela reste rare. Pensez-y avant de balayer 40 ans de recherches d’un revers de main.
Cher Sham,
Je vous avouerai que parmi les expressions de mon scepticicisme, il y a ce réchauffement climatique….qui semble épargner, depuis quelques années, ma Picardie. Le temps qu’il fait dans mon “Troulala” ne vaut pas une statistique labellisée par le GIEC. Et de toute façon je n’ai plus l’âge d’ espérer cultiver des ananas. Il faudra que je me console avec les pissenlits.
Je ne crois pas davantage à la capacité de l’humanité de “faire tintin”, ou de se faire hara-kiri pour “sauver la planète”. Elle préférera s’entretuer un peu plus efficacement pour contenir la démographie, à appétit constant.
P.S. Rien que l’usage du web , notre drogue préférée et sans danger, nous fait consommer 10% de l’énergie mondiale!!!
L’effet de serre est peut-être la notion la mieux comprise par le grand public: une augmentation de la concentration en CO2 contribue à une augmentation des températures.
ça ne nous dit en rien comment fonctionne l’effet de serre et là on peut être sur que 99,99% du public ne le sait pas. L’effet de serre fonctionne en élevant “l’altitude moyenne” d’émission de l’atmosphère selon les climatologues, comme la température baisse (dans la troposphère) avec l’altitude, le rayonnement émis diminue, d’où le déséquilibre radiatif de moins d’un W/m2 qu’on ne peut pas mesurer. Étiez vous au courant ?
De telles périodes de stabilisation ne surprennent pas les spécialistes. Bien au contraire, elles sont même prévues par les modèles.
Ce serait bien de nous donner la probabilité associée. C’est 1%, 2% ?
La figure 3 de votre référence nous en donne une idée pour une pause de 10ans (la ligne rouge, graphique intéressant car il montre que la probabilité est beaucoup plus faible au 21eme s. qu’au 20ème, autrement dit plus le temps passe et moins on peut s’attendre à ce que cela se produise).
On peut aussi regarder la figure 1 box 9.2 du rapport du GIEC AR5 p.162 qui elle compare exactement les modèles face à la pause 1998-2012. On est très très proche de l’improbable. Si on rajoute 2013 qui va certainement se terminer sans record (reste 3 mois) on est aux limites de l’invalidation.
Le pire, c’est que les modèles font du curve fitting sur l’anomalie de la “température moyenne” du globe, c’est ce qu’ils reproduisent le mieux. Pour le faire, ils dégradent leur capacité à reproduire d’autres phénomènes qui ont eux une interprétation physique autrement plus solide.
Si le graphique fut changé, ce n’était pas pour cacher un sein qu’il ne faudrait voir, mais tout simplement parce que ce graphique comportait des erreurs
Il n’y a pas “d’erreurs” dans aucun des deux graphiques, mais une représentation différente et arbitraire des mêmes données.
Dans le premier, on voit que les modèles surchauffent. Dans le deuxième, cela est dissimulé.
La majorité peut se tromper, mais cela reste rare. Pensez-y avant de balayer 40 ans de recherches d’un revers de main.
Être dans les 3% (chiffre discutable) n’est pas confortable, subir le mépris de ses amis (être climatosceptique de gauche est particulièrement pénible), voir les insultes d’un robert est désagréable. Nous n’avons pas balayé “d’un revers de main” la science.
@nicias
1. effet de serre: je ne vois pas bien où vous voulez en venir? que le mot “compris” est mal choisi? je le note pour la prochaine fois. non je ne connaissais pas les détails du mécanisme. je ne vois d’ailleurs pas en quoi le rayonnement diminue avec l’altitude. ce ne serait pas plutôt une question de concentration (et donc, indirectement, d’altitude)? et le “d’où” final, vraiment je ne vois pas ce que vous avez en tête. si vous avez un lien précisant les choses, je suis preneur.
2. le rapport du GIEC discute en plusieurs endroits la difficulté des modèles à prédire correctement la période 1998-2013. Encore une fois, en donnant une vision faussée de la science qui ne peut se tromper (cette vision est donnée par les deux camps, soyons juste), chaque révision, chaque changement, est vécu comme une trahison. les modèles ont des limitations et on cherchera constamment à les améliorer. dire qu’ils ne servent à rien et qu’on ne peut rien conclure, c’est néanmoins tromper le public.
voir par exemple en bas de la p.30 et p.31 du rapport (section TS4.2)
3. pour le graphique, pour moi il s’agit bien d’une erreur. les deux liens que j’ai fourni expliquent clairement le problème de cette représentation. en particulier l’article du statisticien Tamino est très intéressant montrant qu’en prenant une moyenne de température pour calibrer les modèles (comme on le fait habituellement) plutôt qu’une année précise, les prédictions sont bien meilleures. n’oubliez pas que ce qui nous importe ici c’est principalement la variation (la pente) que les modèles arrivent à estimer comparé à celle que nous connaissons ou que nous allons connaître.
4. ok pour la situation difficile du climato-sceptique honnête (tous ne le sont pas). je pourrais presque sympathiser avec vous en tant que défenseur des OGM et de gauche 😉
les commentaires sur ce post seront aussi fortement modérés pour éviter le genre de dérapage observé dans le dernier article à ce sujet.
Ping : Arguments climato-sceptiques, deuxième |...
Je trouve cet article très clair et exhaustif associé au premier de la même série. Merci pour cette lecture (qui fait couler de l’encre à ce que je vois !).
sham, @
Nicias ne sait pas comment fonctionne l’effet de serre.
Intéressant
http://www.atlantico.fr/decryptage/decouverte%C2%A0-comment-vie-terre-reussi-apparaitre-malgre-soleil-froid-francois-forget-864851.html
1 Le rayonnement augmente avec la puissance quatrième de la température (loi de Stefan-Boltzmann). Le CO2 (entre autre) absorbe le rayonnement et le “réémet”. Le rayonnement émis ne passe pas à faible altitude et n’atteint pas l’espace pour refroidir la terre à cause de l’opacité de l’atmosphère (dans certaines longueurs d’onde). Cette opacité diminue avec la pression et donc l’altitude. Ceteris paribus, si vous rajoutez du CO2, vous augmentez l’opacité de l’atmosphère et changez l’altitude à laquelle le rayonnement peux atteindre l’espace sans être absorbé par le CO2. Le rayonnement diminue à cause de la température plus basse à haute altitude, pas parce qu’il a moins de CO2 (l’homme en rajoute !). J’ai ce pdf sur mon laptop. C’est les slides d’un cours assez haut niveau donc pas forcement ce que vous cherchez.
2 Non, les modèles n’ont pas démontré leur utilité. Le nouveau graphique cherche à masquer la divergence entre les modèles et les températures. C’est ça tromper le public. Sur l’utilité des modèles, on a le graphique 9.8 chapitre 9 p 161. On voit que le modèle le plus froid simule une température de 12,6°C et le plus chaux de 15,3° sur la période 1961-1990. L’écart entre les modèles est de trois fois la variation constatée pour nous convaincre du “réchauffement”. Pire ce résultat n’est obtenu qu’en moyennant des erreurs locales de 4, 5, 6 voir 8°C (cf figure 9.3 chapitre 9 p. 156 sur le biais saisonnier des modèles). Les modèles ne sont qu’une couteuse droite de régression sur une anomalie de “température globale” au sens physique plus que discutable.
“p.30 et p.31 du rapport (section TS4.2) “, pas compris, vous parlez du résumé pour les décideurs ?
3 Tamino ajuste les projections des modèles sur une moyennes mais ne le fait pas pour les observations. Je ne dirais pas de gros mots.
Lucia discute abondamment sur son blog de quel est le bon moyen de faire ce graphique.
http://rankexploits.com/musings/2013/taminos-take-on-figure-1-5/ pour en finir avec Tamino.
J’en reste à ce que j’ai dit plus haut, un graphique comme le 3 qu’on trouve dans votre étude, qui compare les trend avec la distribution des résultats est bien meilleur. Comme votre papier date un peu et en plus utilise des scénarios d’émissions au lieu de valeur réelles, le Graphique 9.2 du GIEC est celui que vous devriez produire.
4 chapeau aux gars qui sont descendus dans la fosse chez Libération, En plus répondre à des centaines de commentaires plus ou moins idiots, faut du courage et une patience sans nom.
Nicias,
C’est bien ce que j’ai dit vous ne savez pas comment fonctionne l’effet de serre la phrase suivante en est la preuve/ ” Le rayonnement augmente avec la puissance quatrième de la température (loi de Stefan-Boltzmann). Le CO2 (entre autre) absorbe le rayonnement et le « réémet »”
“””” J’ai ce pdf sur mon laptop. C’est les slides d’un cours assez haut niveau donc pas forcement ce que vous cherchez.””””
Le lien ne fonctionne pas, De toutes manières vous ne possédez pas les bases pour appréhender ce qui se passe au niveau du rayonnement.
Je vais me permettre de vous rafraîchir la mémoire (notamment votre commentaire du jeu. 3 oct 2013
à 13:52:04)
:
http://sciences.blogs.liberation.fr/home/2013/10/le-rapport-du-giec-disponible-sur-le-web.html
mea culpa pour le lien, je le remets ici: http://gershwin.ens.fr/legras/Cours/L3-meteo/radiatifNN.pdf
L’effet de serre du CO2 c’est un problème de transfert radiatif élémentaire que l’on sait résoudre depuis les années 50. C’est la même théorie que les astrophysiciens utilisent depuis la même époque, ainsi qu’en télédétection atmosphérique. Donc, c’est validé de mur à mur.
D’autre part, c’est un effet que l’on mesure. Alors, si vous avez une source qui vous dit que cela ne se mesure pas, elle est dans le champs. Pour ce qui est de l’analyse de Lucia, ces critiques sont ridicules. L’idée de Tamino, c’est aligner les données sur plus qu’une année. Dans les fait, cela revient à aligner sur une moyenne, ce qui fait que les données expérimentales et les modèles subissent le même traitement.
Le problème fondamental de ce «débat» est la vison naïve de la méthode scientifiques en quatre étapes telle qu’elle est enseignée dans les écoles. Dans cette version, dès qu’une observation est contraire à la théorie, la théorie doit être fausse. En passant, c’est cette même interprétation naïve qui est utilisée par les praticiens des sciences biologiques et beaucoup de chercheurs travaillant uniquement en labo. C’est pourquoi, certains scientifiques font une interprétation erronée des recherches dans le domaines des sciences du climat.
Cependant, dans les sciences physiques, on travaille avec une version pas mal plus riches de la méthode scientifiques où les contre-observations ne permettent pas de rejeter automatiquement les théories.
J’ai discuté ce problème largement dans mon blog.
Merci sham pour le lien,
je connais ce PDF depuis des lustres il est même fort possible que ce soit moi qui l’ai conseillé à Nicias. Il est aussi dommage que nicias n’ai pas assisté au cours auquel ce pdf sert de support.
@ivan dutil
D’autre part, c’est un effet que l’on mesure
J’aimerai avoir vos lumières sur la façon dont on mesure l’effet de serre, c’est à dire la différence de température entre une terre sans atmosphère et la terre actuelle.
Nicias, la façon la plus simple est d’utiliser un radiomètre qui regarde le ciel. En l’absence d’atmosphère, le rayonnement serait essentiellement zéro. Avec une atmosphère, il est non nul, ce qui est l’effet de serre.
On peut aussi le mesurer depuis l’espace, en mesurant la différence entre le rayonnement qui arrive du Soleil, moins celui qui est réfléchi et celui qui est émit par la Terre dans l’infrarouge. D’ailleurs, on observe à l’heure actuelle une différence qui correspond au bilan radiatif dû aux gaz à effet de serre.
Je ne comprends pas…Les modèles climatiques sont calibrés et configurés pour n’en retenir que ce qui correspond le mieux aux observations passées? Dans ce cas quelle est leur crédibilité prédictive ? Comment alors les valider puisqu’ils “prédisent” le passé par construction ?
Autre question qui m’interpelle : qu’adviendrait-il d’un labo de recherche en climatologie qui dirait “Non, désolé nous n’avons pas le niveau de connaissance suffisant pour proposer une estimation un tant soit peu fiable du climat à 100 ans” ?
J’ai l’impression que quitte à se faire financer des supercalculateurs, autant les utiliser et essayer de convaincre que les données crachées ont du sens…
@bofbof on cherche à prédire l’avenir, donc forcément, on part d’une condition initiale la plus proche de la réalité (le calibrage dont je parle dans l’article). rien de bien choquant à cela. ensuite, n’oubliez pas que ce que l’on demande à un modèle n’est pas tant de minimiser l’erreur absolue de la température calculée avec celle observée, mais de prédire la tendance, la variation de la température. le modèle est là pour nous dire si ça monte ou si ça descend et de combien. les calculs proposés par Tamino (lien 1 dans l’article) montrent que les modèles s’en sortent plutôt bien à ce niveau.
pour votre deuxième point, c’est toujours la même rengaine conspirationniste (ou alors j’ai mal compris votre remarque). les créationnistes disent qu’on ne les laisse pas faire de recherches, qu’on les vire, parce qu’ils dérangent. il y a même tout un documentaire sur ce thème. les anti ogm, regardez par exemple séralini, commencent leurs interviews toujours sur ce thème de la victime ostracisée par un corpus scientifique aveugle et renfermé dans ses croyances. faut pas se laisser prendre par ce discours de victime. bien sûr des querelles de personnes et de chapelles existent, des copinages, etc., qui influencent le financement de tel ou tel projet. mais pas au point de créer des faux pouvoirs artificiellement construits.
Je crois qu’il y a une mauvaise compréhension du rôle du modèle. Un modèle ce n’est pas madame Irma ni Elisabeth Tessier, il ne prédit rien. Il indique seulement ce que devrait être une situation en fonction des paramètres qu’on lui a injecté.
Je peux avec un indice de confiance très élevé dire que vous ne serez plus de ce monde dans 100 ans. Par contre je suis et resterai incapable de vous dire précisément quand et de quoi vous allez mourir. c’est pareil pour la modélisation à long terme l’indice de confiance est plus élevé qu’à court terme. On sait par exemple qu’on ne pourra pas contenir l’élévation des températures en dessous de deux degrés par rapport à l’époque préindustrielle mais on ne sait pas de combien et quand on franchira ce cap.
Il faut bien comprendre que le GIEC ne fait pas de prévisions, il établit des scénarios qui se vérifieront ou s’infirmeront selon notre attitude, l’action du soleil et du volcanisme,
Mon commentaire précédent est adressé à bofbof
Ping : Desintox - Désinformation | Pearltrees
@Yvan Dutil
Je suis d’accord avec ce que vous dites: on peut pointer un radiomètre vers le ciel et faire une mesure locale. Mais cela ne nous dit rien sur la température. C’est un problème de fonction inverse, vous devez faire des hypothèses sur le milieu vers lequel vous pointez votre appareil. Si le milieu est homogène, on peut arriver a un résultat tout à fait fiable. Si le milieu n’est pas homogène, a des températures variables, des taux d’humidité variable etc… cela devient difficile et il est plus rigoureux de parler de modélisation que de mesure. Le soleil se comporte comme un corps noir, la terre beaucoup moins.
Votre différence observée est de moins d’un watt !
Voici ce que dit l’AR5 chap 2, p. 26 et 27:
“During the 2008 solar minimum, SORCE/TIM observed a solar irradiance of 1360.8 ± 0.5 W/m2 compared to 1365.5 ± 1.3 W/m2 for instruments launched prior to SORCE and still operating in 2008 (Section 8.2.1). Kopp and Lean (2011) conclude that the SORCE/TIM value of TSI is the most credible value because it is validated by a National Institute of Standards and Technology calibrated cryogenic radiometer. This revised TSI estimate corresponds to a solar irradiance close to 340 W/m2 globally averaged over Earth’s sphere (Figure 2.11).”
Bravo, je vois qu’ils ont progressé sur ce point depuis l’AR4. Voila on a une incertitude inférieure au watt depuis 2008 … si on prend la valeur la “plus crédible” c’est à dire en mettant sous le tapis les autres estimations qui diffèrent de 5 ou 6W.
Continuons avec ce qui est réfléchit:
“The stated uncertainty in the solar reflected TOA fluxes
from CERES due to uncertainty in absolute calibration alone is ~2% (2-sigma), or equivalently 2 W/m2”
Paf 2W !
puis ce que la terre émet:
“The uncertainty of the outgoing thermal flux at the TOA as measured by CERES due to calibration is ~3.7 W/m2 (2σ).”
Donc votre “on observe à l’heure actuelle une différence qui correspond au bilan radiatif dû aux gaz à effet de serre.”, ça s’appelle de la science pathologique, ou les variations observées sont inférieures à la précision de l’appareil de mesure.
@Nicias Je ne comprend pas votre argument au sujet de la température. L’effet de serre c’est uniquement la radiance qui descend vers le sol. On n’aa pas besoin du profil en température. Si vous le voulez absolument, c’est trivial à dériver par des modèles inverses en examinant la bande de CO2. C’est en 1956 que la méthode a été inventé. En fait, en examinant le spectre à l’œil, on a déjà une bonne idée du profil. De plus, les radiosondes et des systèmes spatiaux vous fournissent une information similaires. Ce sont des méthodes que l’on maitrise depuis belle lurette.
Au risque de me répéter, les modèles de transfert radiatif, c’est de méthodes développées dans les années soixante et qui ne cessent d’être testées et améliorées. Utiliser un tel argument et nier l’état de la science.
Je pense que vous mélanger absolu et relatif. C’est difficile de mesurer les valeurs en absolu, mais comparer deux valeurs prise par le même instrument c’est beaucoup plus facile. C’est ce que font les instruments SCARAB et CERES. J’ai moi-même contribué à la conception d’un instrument visant à les remplacer. Croyez moi, en différentiel, la précision est bien meilleures qu’un 1 W/m2. De mémoire, on visait 0,05 W/m2.
Évidemment, libre à vous de croire comme la plupart des climatosceptiques que les scientifiques sont des incompétents ou qu’ils font partie d’un grand complot, si c’est bon pour votre égo.
@Yvan Dutil
“C’est difficile de mesurer les valeurs en absolu, mais comparer deux valeurs prise par le même instrument c’est beaucoup plus facile.”
Oui j’avais compris cela. Votre critique sur le mélange d’absolu et de relatif peut à la limite être valable pour la constante solaire pour lequel on a besoin que d’un instrument (encore qu’un satellite n’est pas éternel). Pour la terre vous avez besoin de plusieurs instruments et l’absolu revient au galop. Mais peut-être auriez vous du parler de type d’instrument ?
Je ne comprend pas pourquoi vous parlez de 0,05W/m2 alors que le GIEC parle bien d’incertitude dues à la calibration. Je suppose que vous ne parlez pas de la même chose (il n’y a que des scientifiques compétents) mais c’est pas moi le spécialiste.
L’instrument en question examine le Soleil, la Terre et le ciel étoilé dans deux bandes différentes correspondant à la réflexion du sol et à l’émission thermique. Étant donné que les trois mesures sont faites avec le même instrument, seule l’incertitude relative entre les trois bandes compte si on veut faire le bilan radiatif, c’est à dire la différence entre ce qui est absorbé et ce qui est ré-émit.
“Un modèle ce n’est pas madame Irma ni Elisabeth Tessier, il ne prédit rien. Il indique seulement ce que devrait être une situation en fonction des paramètres qu’on lui a injecté.” :
Complétement d’accord. Je peux dans mon garage construire un modèle climatique tout seul, lui injecter des paramètres à ma sauce et il va vaillamment me sortir des résultats avec la précision que je souhaite.
Celà correspondra autant à la situation future réelle du climat que si je fais simuler le résultat du match de foot France-Australie par le jeu FIFA2014…
“On sait par exemple qu’on ne pourra pas contenir l’élévation des températures en dessous de deux degrés par rapport à l’époque préindustrielle” :
Pour le coup, pas d’accord. Puisque justement cette affirmation est une projection (une “prédiction”) de modèles.
En synthèse, mon avis est que l’on ne s’attache pas assez à la validation des modèles qui devrait pourtant être la base de toute discussion.
J’ai étudié au siècle dernier la “thermo-hydro-mécanique”. On s’essayait à modéliser l’ensemble d’un système fermé en y intégrant tout les modèles physiques connus. Une des constatations en était que les modèles finissent par devenir très sensibles aux conditions initiales, il n’est alors plus possible de faire de la “prédiction” réaliste puisqu’il n’existe pas de moyens non-destructifs d’extraire les conditions initiales réelles (mesurées) du système avec un niveau de détail suffisant pour rester dans les limites de non-divergence des modèles.
bofbof
“”””Complétement d’accord. Je peux dans mon garage construire un modèle climatique tout seul, lui injecter des paramètres à ma sauce et il va vaillamment me sortir des résultats avec la précision que je souhaite.
Celà correspondra autant à la situation future réelle du climat que si je fais simuler le résultat du match de foot France-Australie par le jeu FIFA2014″”””
A la différence près qu’on n’entre pas n’importe quoi dans un modèle qu’on les fait tourner en modifiant les paramètres de manière à couvrir toutes les situations possibles et que ces derniers sont validés par la modélisation de situations passées et vérifiées par les observations. On peut d’ailleurs constater que les modèles collent assez bien aux observations bien que quelques fois ils les sous-estiment (fonte de la banquise arctique par exemple.)
Vous êtes dans une opposition de principe, vos arguments (si on peut appeler ça arguments) sont non recevables.
Pour les 2° c’est une évidence nous avons déjà engrangé près d’un degré, et l’inertie climatique fait que ce fait est inéluctable.
@bofbof En climatologie on s’intéresse à l’état moyen pas un état particulier, c’est pourquoi la nature chaotique du système n’affecte par les conclusions. C’est le même principe qu’un jet de dé. Le système est chaotique et il est impossible de prédire l’état final ou de retrouver l’état initial. Cependant, on peut prédire que la probabilité de tomber sur une face est de 1/6. Si le dé est pipé, le résultat sera différent.
Pour ce qui est de la validation des modèles, il y avoir à peu près la moitié de la littérature scientifique porte sur ce problème. De plus, les modèles ne font pas qu’une seul prédiction (la température moyenne), mais reproduisent aussi un grand nombre de caractéristique du climat qui sont autant de contraintes.
Vos affirmations indique clairement que vous êtes complétement ignorant du sujet.
Yvan Dutil,
Edifiant :
http://www.skyfall.fr/?p=1238#comment-107793
Le fameux consensus,la quantité est-elle une garantie de qualité:
c’est contre l’opinion générale que deux chercheurs en microbiologie clinique à l’Université d’Australie-Occidentale. ont prouvé que la bactérie Helicobacter pylori est la cause de la plupart des ulcères d’estomac, mettant fin à plusieurs décennies de doctrine médicale qui affirmait que les ulcères étaient causées par le stress, les aliments épicés et un excès d’acidité. Conjointement avec J. Robin Warren, cette découverte lui a valu le Prix Nobel de physiologie et de médecine en 2005.
@Michel fouchet
Ce que vous décrivez est simplement le fait que la vérité scientifique n’est pas une vérité absolue, mais qu’elle évolue au contraire sans cesse. C’est ce qui fait à la fois la force et la faiblesse de la science.
Par contre, la vérité scientifique repose bien, par essence même, sur l’idée de large consensus. En effet, une théorie scientifique n’est considérée comme vraie que si après un débat contradictoire, la majorité des experts du domaine se range de son côté. Ceci ne signifie pas qu’il n’y a plus de doute ou de remise en question ou que la majorité ne se trompe jamais.
Votre exemple, comme bien d’autres dans l’histoire, montre que les scientifiques sont beaucoup moins dogmatiques que ce que certains veulent nous faire croire.
Enfin, attaquer une théorie sous le prétexte que la majorité peut se tromper me parait un argument bien faible, d’autant plus que vous assimilez au passage la majorité à la quantité, et la minorité à la qualité. C’est un angle d’attaque très facile contre toute théorie quand on n’a pas d’arguments scientifiques à lui opposer.
@Michel fouchet Un autre variante de Galilée le martyr. Le problème dans ce cas est que la théorie de la cause des ulcère de l’estomac n’était pas une théorie scientifique, comme bien des théories médicales, mais basées sur une observation empirique mal quasiment anecdotique.
Rien à voir avec le transfert radiatif atmosphérique qui est connu et testé depuis plus de 50 ans,
“seule l’incertitude relative entre les trois bandes compte si on veut faire le bilan radiatif”
Faut pas exagérer…
A quelle altitude est placé votre instrument, autrement dit à quelle vitesse ?
S’il tourne vite, combien de temps ? 3 ans ?
Comment faites vous pour concaténer les jeux de donnée de deux satellites lorsque vous en remplacez un qui a rendu l’âme ?
Comment faites vous pour interpoler les données que vous n’avez pas ?
Le fait est que les chiffres du GIEC ne collent pas avec vos 0,05W/m2. D’ailleurs, ce doit être un des rare moments, ou dans un bref moment de lucidité, ils donnent des chiffres arrondis (241W/m2 etc) sans rien après la virgule.
“Pour ce qui est de la validation des modèles, il y avoir à peu près la moitié de la littérature scientifique porte sur ce problème. ”
On a pas besoin de littérature mais de règles transparentes pour décider si oui ou non un modèle est utile.
Dans les faits, tous les modèles qui arrivent à faire à peu près aussi bien qu’une droite de régression sur l’anomalie de température globale sont acceptés. Et dans la presse on vient de nous expliquer que 15 ans dans les choux, c’est pas assez et qu’il faut attendre 20 ans de plus.
Un critère simple pour moi serait de que si le modèle n’est pas capable de donner la température à Paris (oui une vrai température, pas une moyenne globale qui n’a d’intérêt pour personne) avec moins de 3K d’erreur, on peut le jeter. Et quand je parle de température, je veux dire la vrai, pas (ou très peu) moyennée. Le chapitre 9 laisse entendre que c’est très loin d’être le cas.
@Nicias
Quand on parle de littérature en science, ça signifie toutes les publications scientifiques dans un domaine donné. Ce qu’a voulu vous dire Yvan Dutil, c’est qu’une grande partie du travail des climatologues porte justement sur l’examen des modèles et leur amélioration, et c’est tout ce travail que vous semblez balayer d’un revers de main.
En effet, votre “exigence” envers un modèle de prédire la température à Paris traduit au mieux une méconnaissance du sujet, puisque, comme l’explique Sham dans son billet précédent, vous confondez météorologie et climatologie. Yvan Dutil (encore lui !), a expliqué plus haut pourquoi la nature chaotique du climat rend illusoire toute prédiction d’un état particulier à long terme, et rend au contraire nécessaire de s’intéresser à l’état moyen, mais vous ne semblez pas comprendre cet argument.
Pour prendre une analogie, c’est comme si vous disiez que les équations de la mécanique des fluides sont à jeter à la poubelle car elles ne permettent pas de prévoir la destinée individuelle d’une “particule” de fluide.
Enfin, je ne sais pas où vous avez vu que les modèles sont dans les choux depuis 15 ans et qu’ils ne font pas mieux qu’une droite de régression.
« Les climato-sceptiques pointent du doigt le fait que, par le passé, l’augmentation de la température précédait celle du CO2 (on le voit en analysant les carottes glaciaires) et cherchent à semer le doute auprès du grand public. Il n’y a rien de paradoxal dans ce phénomène de latence. »
Ça n’est pas tout à fait exact. Une récente publication a remis ce décalage en cause : http://sciences.blogs.liberation.fr/home/2013/03/le-co2-chauffait-il-y-a-18000-ans.html
@factsory intéressant, je ne connaissais pas, merci de la précision.
Ping : Arguments climato-sceptiques, deuxième |...
@Nicias Vous commencez à déraper. La spécification de l’instrument que je devais concevoir était de mesurer une différence de beaucoup moins de 1W/m2 justement parce qu’il falloir mesurer le flux différentiel entre ce qui rentre et ce qui sort. Comme d’habitude la précision était légèrement supérieure à celle des instruments précédents. Comme je le disais, c’est un spécification en différentiel pas en absolu, ce qui est énormément plus facile à faire. Il est facile de mesurer une différence de 0,05 W/m2 en flux, même si en absolu l’incertitude atteint J’ai déjà expliqué cela plus tout.
Pour ce qui est du reste de votre argumentaire, c’est un cas classique de je pousse la borne plus loin. Vous avez commencé par dire que la mesure du différentiel de flux était impossible. J’ai commencé par vous expliquer que c’était quelque chose qui se faisait de façon routinière. Vous revenez avec des chiffres en absolu alors que c’est le différentiel qui est important. Je vous réexplique à nouveau et là vous essayer de trouver une nouvelle parade en demande un explication technique plus poussée alors que vous ne comprenez pas la base de l’étape précédente.
Pour ce qui est de l’interprétation des données,c ela se fait de la façon habituelle en sciences: fusion de données, intercomparaison, réanalyse, etc. Évidemment, tout ceci est compliqué et laisse donc place à un grand complot.
@Courbure
J’ai lu plusieurs de ces publications et je sais de quoi il voulait parler.
Tous les modèles sont faux mais certains sont utiles. Prédire l’anomalie d’une moyenne mondiale de températures est inutile. Personne ne vit sous un climat mondial. Par contre il me serait utile de connaitre le résultat pour de la tuile de 10000 km2 du modèle qui concerne l’endroit ou j’habite. Et c’est ce l’AR5 commence à faire, mais c’est pas très beau à voir et encore c’est toujours trop moyenné pour faire disparaitre les erreurs. Et je comprend parfaitement qu’on me donne une moyenne sur 20 ans par exemple pour un mois de décembre. On peux, on doit moyenner dans certains cas.
“Enfin, je ne sais pas où vous avez vu que les modèles sont dans les choux depuis 15 ans et qu’ils ne font pas mieux qu’une droite de régression.”
Les climato-sceptiques sont les seuls à lire les rapports du GIEC. j’ai déjà pointé plus haut ou se trouve le graphique du GIEC qui montre que les modèles sont dans les choux depuis 15 ans.
@Yvan Dutil
“Vous revenez avec des chiffres en absolu alors que c’est le différentiel qui est important. ”
Mais ça c’est votre opinion de spécialiste de l’instrumentation, j’ai l’impression que vous essayez de me vendre un aspirateur. Ce que vous pouvez obtenir avec le dernier satellites dernier cri dont je ne connaissait pas l’existence à un endroit X à l’instant t ne nous éclaire pas sur la fiabilité sur 20 ans d’un réseau d’appareils de mesure. Je répète que l’AR5 ne donne pas le chiffre exact.
“Évidemment, tout ceci est compliqué et laisse donc place à un grand complot.”
Même Hansen fait partie du complot et pense que les mesures sont trop imprécises, l’AR5 est visiblement noyauté aussi. En fait il y a deux sortes de climatologues réchauffistes. Ceux qui croient qu’on peut mesure le déséquilibre radiatif au W près au sommet de l’atmosphère et ceux qui pensent qu’il vaux mieux le calculer en mesurant des variations de 0,001k pour calculer l’augmentation du contenu en chaleur de l’océan.
Quand les climatologues auront réussi a grand coup de wishfull thinking à montrer que la température suit le CO2, il ne restera plus qu’à trouver un mécanisme qui fait sortir le CO2 de sa boite.
Parenin et al est intéressant mais ne change rien au schmilblick que le rôle du CO2 dans les glaciations/interglaciaires reste spéculatif et à mon avis pose plus de problème qu’autre chose:
“LGM simulations tend to overestimate tropical cooling and underestimate mid-latitude cooling (Kageyama et al., 2006; Otto-Bliesner et al., 2009). They thus underestimate polar amplification which is a feature also found for the mid-Holocene (Masson-Delmotte et al., 2006; Zhang et al., 2010a) and other climatic contexts (Masson-Delmotte et al., 2010). Part of this can be attributed to uncertainties in the representation of sea-ice and vegetation feedbacks that have been shown to amplify the response at the LGM and the MH in these latitudes ”
AR5 chap 9 p 34
Milankovitch 1 CO2 0
@Nicias C’est difficile de faire mieux qu’une droite de régression quand la température augmente de façon linéaire. La raison est que le ENSO n’est pas en phase dans les modèles afin le climat. Ce qui est tout à fait normal. On peut obliger les modèles en leur imposant comme condition limite de reproduire une petite zone du Pacifique. Dans ce cas, la corrélation entre le modèles et les observations est énormément meilleure.
@Nicias
Je vous fais un petit résumé de vos différentes interventions :
– Vous donnez des explications obscures de l’effet de serre, et comme référence vous donnez un pdf. Or j’ai parcouru ce pdf, et je n’ai pas vraiment vu à quoi vous faisiez allusion.
– Vous pensez que les climatologues sont tellement bêtes (ou malhonnêtes ?) qu’ils ne savent pas tenir compte de leurs erreurs de mesure. C’est votre fameux 1W/m^2. Or, on vous explique pourquoi vous vous trompez (confusion absolu/relatif). Mais vous revenez sans cesse avec ce même argument.
– Vous pensez que les modèles devraient prévoir des températures exactes et pas des moyennes. Sinon ils sont “inutiles” d’après vous. On vous explique encore une fois pourquoi vous vous trompez, mais vous n’en tenez bien sûr pas compte.
Je ne remets pas en cause votre bonne foi, mais il me semble que malgré vos interventions qui sont techniques d’apparence, vous ne maitrisez pas vraiment ce que vous racontez.
@Courbure
“Or, on vous explique pourquoi vous vous trompez (confusion absolu/relatif)”
On ne m’a rien expliqué du tout ou en tous cas rien que je ne savais déjà à la lecture du rapport du GIEC. Les chiffres sur les incertitudes que j’ai donné sont les seuls présents dans le rapport du GIEC. Si vous pensez que qu’ils ne font qu’enfumer l’affaire, écrivez aux GIEC pour le leur signaler. Si vous pensez avec d’autres que l’incertitude est bien inférieure au W, ça sert à rien de le répéter 15 fois, faites un effort et sourcez vos affirmations.
“Vous pensez que les modèles devraient prévoir des températures exactes et pas des moyennes. Sinon ils sont « inutiles » d’après vous. On vous explique encore une fois pourquoi vous vous trompez”
On ne m’a rien expliqué du tout, au lieu de cela on a fait du stawman sur le lissage de la météo et de l’ENSO. Moi c’est pas du tout cela qui m’ennuie. Quand vous moyennez, vous perdez de l’information. Si vous avez bien lu mon passage sur le LGM (last glacial minimum), vous aurez compris que les modèles reproduisent la température globale (avec tout leur arsenal de GES et d’aérosols) mais c’est se mettre le doigt dans l’œil. Il le font en moyennant un équateur trop froid et un pôle nord trop chaud, bref en ne reproduisant pas (assez) quelque-chose qui repose sur de la physique en béton armé et des données solides: l’amplification arctique causée par les cycles de Milankovitch.
La différence de température entre le pôle et l’équateur, c’est pas de la météo ou du chaos.
@Yvan Dutil
“C’est difficile de faire mieux qu’une droite de régression quand la température augmente de façon linéaire”.
Tout à fait, je leur reproche juste d’être plus cher qu’une régression linéaire !
Attention vous dérapez, le réchauffement s’accélère et n’est pas linéaire, vous allez vous attirer des ennuis 🙂
“On peut obliger les modèles en leur imposant comme condition limite de reproduire une petite zone du Pacifique. Dans ce cas, la corrélation entre le modèles et les observations est énormément meilleure.”
Oui sans doute mais c’est un peu artificiel et il me semble que les modèles régionaux (si c’est bien de cela dont vous voulez parler) ne satisfont pas trop les climatologues. Les conditions limites, on les connait aujourd’hui, mais pour le futur il faut des modèles et les erreurs semblent être multiplicatives.
@Courbure
“Or j’ai parcouru ce pdf, et je n’ai pas vraiment vu à quoi vous faisiez allusion.”
C’est p. 32, “effet de serre dans une atmosphère stratifiée”.
@Nicias
Merci d’avoir confirmé tout ce que j’ai dit plus haut. Vous revenez toujours à la charge avec les mêmes “arguments” que vous ne maitrisez manifestement pas (comme le contenu du pdf).
On peut tout à fait critiquer le rapport du GIEC ou plus généralement le courant dominant en climatologie, et je dirais que c’est même nécessaire. Mais il faut le faire avec de vrais arguments scientifiques et non des semblants d’arguments scientifiques.
Je vais arrêter de vous faire perdre du temps (et d’en perdre moi-même par la même occasion).
Je vous laisse croire que le GIEC et la majorité des autres climatologues sont des incompétents qui pondent des rapports et des articles truffés de contradictions, d’erreurs de débutants, voire de manipulations grossières.
@Nicias Au dé`la`de vos élucubrations, il semble que votre critique porte sur la prédiction du comportement régional du réchauffement. À ce que je sache, dans l’axe nord-sud les modèles s’en sortent par mal bien pour la température, c’est pas mal la même chose au niveau régional. Là où les modèles sont faibles, c’est dans le domaines de précipitations. Utiliser la glaciations comme argument c’est pas mal faible, parce que c’est une des façons de la valider la physique des modèles.
Pour ce qui est de la contraire sur la température de l’océan basée sur la région de l’ENSO, c’est tout à fait légitime. Les modèles reproduisent bien l’ENSO, amis il n’est pas nécessairement en phase. En les forçant à suivre la phase, on obtient des simulations qui collent très bien aux observations, ce qui est une bonne indication que les modèles sont physiquement sensés.
Il est possible de faire démarrer les modèles climatiques avec les conditions actuelles, ce qui n’est pas normalement fait. Dans ce cas, les modèles gardent un pouvoir prédictifs pour les fluctuations interdécadales d’une dizaines d’années. Après, les phases ne sont plus corrélées même si le comportement global du climat est similaire.
Ping : Arguments climato-sceptiques, deuxième |...
Bjr, je voudrai rappeler une autre controverse qui a agité le monde scientifique entre le 19 ème et le 20 ème siècle: le calcul de l’âge de la Terre. En 1863, le physicien le plus respecté (Kelvin) calcule que la Terre est au plus âgée de 400 millions d’années ( par le temps de refroidissement de la croûte) puis affine son calcul en 1897: au plus 40 millions d’années ( la connaissance a progressé en 34 ans,…, hum, hum). Un géologue/zoologue amateur ( car il est médecin et théologien) réfute ABSOLUMENT ces calculs par le contre-exemple suivant: la vie et l’évolution des espèces a pris des milliards d’années(Charles Darwin). Ce contre-exemple est ignoré de la communauté des physiciens de l’époque. Finalement le congres de physique de 1931 donnera un âge de 1 à 2 milliards d’années puis 1956, 4.5 milliards d’années. Q: comment expliquer l’existence d’une forêt vieille de plus de 1000 ans sous un glacier de l’Alaska si la courbe de M. Mann est vraie ??
@Yvan Dutil
“À ce que je sache, dans l’axe nord-sud les modèles s’en sortent par mal bien pour la température”
oui, ils arrivent a reproduire un équateur plus chaud que les pôles. J’ai déjà donné les références qui permettent à tout le monde de se faire une idée de la chose: figure 9.2 et 9.3 chapitre 9 p. 156. Pas mal, ça veux dire un pole trop froid ou trop chaud selon que l’on est en hiver ou en été. A l’équateur, la température ne bouge pas et ils sont plus dans les clous.
“c’est pas mal la même chose au niveau régional”
Ce qui m’intéresse ce sont les erreurs systématiques Par exemple ils sont trop chaud sur les océans et trop froid sur les continents. Qu’ils soient trop chauds à Paris et trop froid à New-york ne m’intéresse pas vraiment même si pour un homme politique, ce peut être différent.
“Utiliser la glaciations comme argument c’est pas mal faible, parce que c’est une des façons de la valider la physique des modèles”
Je n’ai pas dit le contraire. On peut utiliser les glaciations pour voir ou les modèles sont dans l’erreur et les affiner. A vu de nez, un équateur trop froid et un pôle trop chaud me semble typiquement ce que l’on doit obtenir avec une sensibilité au CO2 (qui à un effet global contrairement à l’amplification arctique) trop élevée
“Les modèles reproduisent bien l’ENSO, mais il n’est pas nécessairement en phase”
Je ne sais pas, je n’ai pas étudié le sujet vu que personne ne sait pourquoi on passe d’un la nina à un el nino. En l’état actuel des connaissances, cela reste du bruit que je m’efforce d’ignorer. C’est même plutôt gênant que les modèles le reproduise, ça ne facilite pas la lecture des résultats. Mais ça leur permet de dire qu’en lançant une pièce suffisamment de fois, on peux obtenir une série de pile qui permettent d’avoir une pause.
“Il est possible de faire démarrer les modèles climatiques avec les conditions actuelles”
Pour une autre fois, il faut que je relise ce qui est dit sur la différence entre modèle initialisé ou non.
@René GRAU
“comment expliquer l’existence d’une forêt vieille de plus de 1000 ans sous un glacier de l’Alaska si la courbe de M. Mann est vraie”
C’est une anecdote. Cela s’explique parfaitement si le réchauffement actuel n’est pas global.
@René Gruau Comment expliquer les milliers d’autres indications que la Terre se réchauffe. Sophisme classique.
Incidemment, l’avance des glaciers c’est lié aux chute de neige et au taux de fonte. Dans certains cas, avec l’élévation des températures, le premier élément devient plus important. Il y a quelques glacier en Nouvelle-Zélande qui se comportent de cette façon.
@Nicias La répartition des variations de températures n’a pas grand chose à voir avec la sensibilité. C’est plus une question de transfert thermique nord-sud qui pourrait être mal modélisé.
Bjr Yvan Dutil: j’ai du mal à comprendre 1) votre commentaire et 2) votre explication.
En 1: je n’ai jamais fait allusion à l’absence de réchauffement donc votre commentaire à une origine obscure.
En 2 : le fait qu’il existât une forêt vers le IX ème siècle là où se trouve maintenant un glacier ( en fonte) semble indiquer que les températures à cet endroit étaient supérieures à cette époque. La courbe de Mann n’indique pas d’optimum médiéval et cette forêt ante-glacier semble être un contre-exemple.
Bonne journée !
@René GRAU Votre exemple est mauvais. Le fait qu’il y avait une forêt en dessous n’indique pas grand chose comme je l’expliquais. Pour ce qui est de l’optimum médiéval, c’est essentiellement un phénomène Européen. C’est pourquoi la reconstruction de Mann et les subséquente n’en montrent pas la présence.
@Yvan Dutil
J’ai trouvé ça dans le chapitre sur les paléoclimats:
http://img543.imageshack.us/img543/8792/wb5x.png
On a une bonne corrélation entre la température sous les tropiques et l’ECS (ce qui n’est pas vraiment étonnant).
Aux pôles vous pouvez faire du tuning sur la quantité de glace mais je ne suis pas sur du résultat puisque qu’une mer libre de glace est libre de chauffer l’atmosphère. L’objectif étant d’obtenir la bonne température moyenne.
Il faudrait que je lise les publication citées par l’AR5 mais cela ne va pas être possible dans un avenir proche.
PS: j’ai un peu de mal a comprendre comment des régions entières de la terre peuvent tout à coup chauffer sans que le reste bouge. L’optimum du moyen age est soit global, soit on trouve un mécanisme physique pour expliquer pourquoi tout à coup ça chauffe localement (et pas qu’en Europe, loin de là). Ce qui n’est pas facile sans déplacer des continents ou raser des montagnes.
La figure 5.7 chap 5 p 117 montre que les climatologues ont finalement trouvé un OM global. Par contre il y a cet horrible rajout des températures instrumentales sur la fin de la courbe pour masquer le déclin des proxy et faire croire à un réchauffement sans précédant. Le “trick” a la vie dure.
@Nicias Il faut savoir que les rapport de l’IPPC ont toujours du retard sur la littérature. La reconstruction globale la plus récente est celle du consortium Pages 2k. Si l’optimum du moyen-âge y apparait, ainsi que le petit âge glaciaire. Ces derniers ne sont pas synchroniser entre les régions. L’explication de ce genre de comportement est une modification des courants océaniques qui redistribue différemment la chaleur à la surface de la Terre.
http://www.skepticalscience.com/pages2k-confirms-hockey-stick.html
“L’explication de ce genre de comportement est une modification des courants océaniques qui redistribue différemment la chaleur à la surface de la Terre. ”
Le gulf stream partira toujours du golf du Mexique et la dérive nord atlantique finira toujours entre le Groenland et la Norvège. Pourquoi les courants se baladeraient-ils (ou faibliraient) pour valider des proxy qui ont d’énormes défaut de résolution temporelle et sont impacté par une foule de chose qui n’est pas la température, y compris des méthodes statistiques douteuses.
Je note que l’optimum de l’holocène, pendant lequel s’est formée la quasi-totalité de nos glaciers et que les modèles n’arrivent pas à reproduire, n’est pas traité dans l’AR5 alors qu’il l’était dans l’AR4.
Pages 2k est dans l’AR5.
PS: L’AR5 souffre de problème, mais il est considérablement plus fiable que les activistes de SkS.
@Nicias Les oscillations des courants océaniques sont tout à fait normales. Sur des périodes relativement courtes on observe le phénomène.
Je commence à croire que vous êtes un fumiste. D’un coté vous nous sortez des arguments sophistiqués, mais d’un autre coté vous ne comprenez même pas les arguments les plus élémentaires.
D’après ce que je vois, vos arguments sont des points tirés de sites web ou directement du AR5, amis sortis de leur contexte.
L’OM, c’est plusieurs centaines d’années. Les oscillations “courtes” (PDO ~65 ans), bien sur qu’elle existent. Mais elles n’expliquent ni l’OM ni l’actuel. Pour expliquer l’OM, vous avez besoin d’une oscillation longue qui corresponde a des observations, bref quelque chose à inventer de toutes pièces.
Voici ce qu’obtient PAGES:
http://www.nature.com/ngeo/journal/v6/n5/images/ngeo1797-f2.jpg
On observe l’OM en Arctique, en Europe et en Amèrique du nord (on es loin de l’OM restreint à l’Europe). Il est probable en Asie mais la série s’arrête trop tôt pour trancher (il fait indéniablement chaud mais on ne sait pas si c’est une bosse).
En Australie, il y a une bosse plus tardive mais la série s’arrête encore plus tôt que pour l’Asie.
Seule l’Amérique du sud pose véritablement problème, encore qu’une petite partie aujourd’hui fait partie des “warming hole”, c’est à dire des rares endroits qui ne se réchauffent pas aujourd’hui.
L’antarctique se refroidit tout le long de la période mais on s’en fout car il ne se réchauffe pas non plus lors de l’optimum actuel.
J’estime plus raisonnable de penser que ce que l’on a observé lors de l’OM est tout a fait comparable au réchauffement actuel: Un réchauffement prononcé dans l’hémisphère nord, et un réchauffement inexistant ou qui traine de la patte dans l’hémisphère sud (a cause de l’inertie des océans). Pour les incohérences, on a largement le choix des solutions (proxy pourris ou mal échantillonnés, erreurs de datation, UHI, land use change…) avant de postuler un hypothétique changement dans les courants marins parce-que l’OM gène les modèles.
Youhou, il est évident à l’oeil nu que les périodes de réchauffement ne sont pas synchronisée entre les régions (il y a des centaines d’années de décalage!). Il faut être aveugle au malhonnête intellectuellement pour ne pas le voir. Comme les effets ne sont pas globaux, seul une redistribution de la chaleur peut-être évoquée.
Il n’y a pas des centaines d’années de décalage, le pas de temps est de 25ans. A part pour les cernes d’arbres (sans doute le plus mauvais des proxy), les erreurs de datation peuvent être largement supérieures à 50 ans.
C’est un Test de Rorschach, chacun pourra y voir ce qu’il veut, une crosse de hockey ou l’OM.
Ping : Les modèles: la machine à voyager dans le temps des mathématiciens | Sham and ScienceSham and Science
Sham prétend être “sceptique” dans sa fiche personnelle, on le voit ici dans le rôle d’anti-septique (l’orthographe a intentionnellement été écorchée). Serait-il alors toujours crédible ?!
Cette histoire de CO2 est un bel exemple de manipulation intellectuelle par les média (“l’ennemi est l’homme”).
Le GIEC ment, on l’a vu au cours des différents “climategate”, mais ses adorateurs – éblouis qu’ils sont par le matraquage médiatique – croient toujours à leur idole (“il faut remettre le mensonge dans son contexte, et ainsi il se transmute en vérité !” c’est bien triste évidemment mais c’est effectivement comme ça que ça fonctionne la “science” aujourd’hui…) et la conclusion de ce mensonge
c’est que leur fameux modèle qui leur permet d’affirmer aujourd’hui avec 95% de certitude que c’est l’homme qui est responsable…
Mais de quoi ?!!!
Je laisse le GIEC parler de lui-même : (rapport SPM – Summary for Policy Makers, pré AR5 – septembre 2013) :
“Depuis que nous avons commencé en 1990 nous avons :
– faux sur l’Arctique,
– faux sur les glaces de l’Antarctique (qui augmentent),
– faux sur la température de la troposphère tropicale (qui ne monte pas),
– faux sur la température de surface (qui est stable depuis 17 ans),
– faux sur la température de la stratosphère (qui ne baisse pas),
– faux sur les ouragans (dont le nombre ni l’intensité augmentent mais continuent à baisser, en dépit de ce qu’en montrent les média !),
– faux sur les glaciers de l’Himalaya (qui refusent de fondre),
– faux sur la sensibilité climatique au CO2
– faux pour la montée des eaux (qui se poursuit tranquillement, mais 8 fois moins vite qu’il y a 14600 ans)
– faux sur le taux d’humidité atmosphérique (qui est en baisse continue depuis 60 ans)
– de plus nous sommes (toujours) dans le brouillard au sujet des nuages et parfaitement inutiles au sujet des tendances régionales.
– etc.
En au vu de tous ces constats, nous sommes fiers de pouvoir annoncer notre confiance à 95% d’avoir raison !”
Monsieur le professeur, merci de revoir votre copie ! (avec des arguments sérieux si possible).
De mon côté je n’en pose qu’un seul :
Schéma du bilan des échanges en OLR (infra-rouge, principal vecteur thermique) entre la Terre et l’espace :
http://www1.ncdc.noaa.gov/pub/data/cmb/teleconnections/olr-5b-pg.gif
(attention, le bleu signifie un bilan “positif” pour la Terre – c’est à dire qu’elle se réchauffe – et le rouge est un bilan positif vers l’espace, c’est à dire que la Terre se refroidit)
pour les explications :
http://www.ncdc.noaa.gov/teleconnections/enso/indicators/olr.php?num_months=12&view=View
Comme par hasard les températures suivent les échanges thermiques mesurés par les satellites :
http://www.woodfortrees.org/plot/hadcrut3vgl/from:1995
(pendant, bien entendu que le taux atmosphérique de CO2 continue régulièrement de monter, et en plus aujourd’hui en 2013 que l’on se trouve en plein maximum solaire)
Au plaisir de vous lire en retour…
Baobab, il est évident qui vous vous informez sur des sites dénialistes, parce que vos arguments sont soit faux, soient fallacieux, soit anciens et maintenant dépassées, soit reflètent une ignorance de ce que dit vraiment la littérature scientifiques.
Merci M. DUTIL,
Vous remettez en cause la NOAA ? le CNRS ?
ce sont des sites “dénialistes” ?!!!
Je crois bien au contraire que ce sont des organisations parfaitement alignées sur la pensée unique qui prônent la lutte contre les GES.
Mais forcément, ici ou là, certaines traces de la réalité dépassent, même si elles sont bien cachées.
Certes, le ton acide que j’utilise pour me moquer du GIEC n’a rien de scientifique, mais il n’en reste pas moins que les fait énumérés sont des faits, et les faits sont têtus.
Renseignez-vous !
Je vais prendre un exemple simple pour vous montrer dans quelle désinformation totale nous nous trouvons, à force de vouloir se faire peur : l’on prétend que le niveau des océans montent à cause du réchauffement, parce que toute cette neige qui fond ça fait peur ! (tous ces glaciers qui reculent… )
L’on sait à peu près avec certitude (on va dire qu’il y a une sorte de consensus) que l’Artique “fond” pendant que l’Antarctique continue à geler. Très bien. Il s’avère que l’Artique c’est de la banquise (donc un glaçon qui flotte) alors que l’Arctique repose sur la terre. Tout cela devrait faire conclure à l’unanimité la communauté scientifique à une baisse des eaux : que l’Artique fonde ou pas ça ne joue en rien sur le niveau de l’eau, c’est par contre lorsqu’il neige dessus que la banquise s’enfonce dans l’eau et fait monter le niveau
(et on sait à ce sujet avec une assez grande certitude que la banquise s’épaissit de 70 mètres de glace tous les 50 ans
http://www.airspacemag.com/history-of-flight/FEATURE-glaciergirl-backstory.html)
les glaciers ne représentent que 1% de la glace alors même s’ils fondent complètement ça ne changera pas grand chose au niveau de la mer.
Par contre que la banquise s’enfonce ou pas oui, ça aura un effet sensible, et si elle s’enfonce c’est à cause de la neige qui tombe dessus (donc il faut bien qu’il fasse un peu froid pour ça, non ?) et si l’Antarctique continue à geler là encore ça fera autant d’eau en moins dans les océans, donc voilà, pendant que l’océan devrait baisser on ne parle jamais des arguments simples. On utilise toujours des marégraphes mal placés, toujours des thermomètres de surface mal placés pendant qu’on ignore les mesure satellites (voir la NOAA et le OLR : c’est quand même assez clair, les IR quittent la Terre plus qu’ils ne rentrent : la Terre refroidit ! quels arguments avez-vous contre ça ? Ça vous gène ?)
PS : vous aurez certainement remarqué que le CO2 est au cœur de toutes les activités humaines. Ceci signifie que qui contrôle le CO2 contrôle l’économie.
Vous noterez que l”actuel président du GIEC a continué pendant la première année de son mandat à acheter et vendre du pétrole pour le compte de son pays, il est actuellement administrateur de la bourse carbone de Chicago. Super CV pour un type sensé lutter contre le CO2. Comme par hasard aussi, les modèles utilisés par le GIEC ne sont pas publics… (si on pouvait y avoir accès ça permettrait au moins de les tester pour voir s’ils prévoient l’actuel refroidissement de la Terre…)
Mais si vous préférez croire au loup, on s’en fiche, vous êtes parfaitement libre. Vous paierez les taxes en plus de payer la facture de fioul pour passer l’hiver ! (et en plus vous roulerez pour le lobby du nucléaire au passage). Pendant que le soleil, en 2013 passe par son maximum, il neige dès le moins de novembre, super la planète se réchauffe !!!
J’ai du mal à comprendre votre texte parce que vous mélangé Arctique et Antarctique. La fonte de la banquise dans le nord ne fait pas monter le niveau de l’eau. En fait, l’essentiel de la montée des eaux est contrôlée par la dilatation thermique et la fontes des glaciers. C’est confirmé par plusieurs mesures différentes.En passant, dans le cas de l’Antarctique, l’augmentation de la surface de la glace est dues à de la glace qui flotte sur l’eau. Dans le même ordre d’idée, le fait que la surface de glace marine d’accroit en Antractique n’invalide pas les modèles de changements climatiques parce que le mécanisme est essentiellement dû à la modification du régime des vers et la fontes des glaciers qui réduit la salinité de l’eau. Les deux sont liés aux changements climatiques.
«On utilise toujours des marégraphes mal placés, toujours des thermomètres de surface mal placés pendant qu’on ignore les mesure satellites (voir la NOAA et le OLR : c’est quand même assez clair, les IR quittent la Terre plus qu’ils ne rentrent : la Terre refroidit ! quels arguments avez-vous contre ça ? Ça vous gène ?)»
Vous partez avec des arguments faux. La maréesgraphes donnes de bonnes mesures qui sont confirmés par les satellites. Même chose pour les thermomètres qui donnent des mesures au sol et dont la validation a été faites depuis longtemps même par les sceptiques (BEST, cela vous dit quelque chose). Pour ce qui est du flux infrarouge, aux dernières nouvelles, il indiquait encore une réchauffement.
Et, évidemment, vous confondez climat et météo,
Comme je vous disais, vous vous informez sur des sites dénialistes et vous pensez que cette information est valable. Essentiellement, parce que cela fait votre affaire politiquement.
“Pour ce qui est du flux infrarouge, aux dernières nouvelles, il indiquait encore une réchauffement”
citez vos sources, je vous ai donné les miennes :
http://www1.ncdc.noaa.gov/pub/data/cmb/teleconnections/olr-5b-pg.gif
Joli graphique, mais mauvaise interprétation. C’est ce qui arrive quand on va sur des sites climatosceptiques. Ces observations sont consistantes avec les modèles.
http://xa.yimg.com/kq/groups/18383638/336597800/name/ngeo1375.pdf
Donc, un autre argument fallacieux.
Ce papier aussi explique que ces données confirment les modèles.
http://journals.ametsoc.org/doi/abs/10.1175/JCLI-D-13-00047.1
«La thèse officielle? Une foutaise!»
Spécialiste reconnu des avalanches, le Suisse Werner Munter planche nuit et jour depuis trois ans sur le réchauffement climatique. Et, pour lui, l’homme n’y est pour rien!
http://www.lematin.ch/suisse/La-these-officielle-Une-foutaise/story/19748787
Apostasie de James Lovelock, le prophète vert de Gaïa : le réchauffement climatique n’est « pas scientifique ».
http://reinformation.tv/james-lovelock-apostasie-prophete-gaia-rechauffement-climatique-scientifique-mille-60371-2/
Ping : Arguments climato-sceptiques, deuxième |...