Les différentes discussions sur mes derniers articles concernant le réchauffement climatique m’amènent à aborder de manière un peu plus détaillée la notion de “modèle”. En traitant différents exemples – les lapins, le climat et la vaccination contre la grippe – j’aimerais ici faire prendre conscience de l’importance des modèles pour faire des choix rationnels dans notre société.
Les lapins
Saviez-vous que le lapin est l’ennemi numéro un en Australie? Introduit artificiellement à la fin du 19e siècle, les pouvoirs publics cherchent par tous les moyens à contenir leur explosion démographique. Mais comment évaluer l’efficacité d’une mesure? Pour cela, il faudrait disposer d’un outil permettant de prévoir l’évolution démographique de nos lapins: un modèle mathématique!
En ce qui concerne cet exemple, modéliser revient à trouver des équations mathématiques dont les solutions représenteraient l’évolution du nombre de lapins en Australie. Dans le jargon mathématique, on parle d’équation différentielle. Par exemple, on pourrait modéliser la croissance des lapins par une équation de la sorte: dx/dt=ax. Le terme de gauche représente la dérivée par rapport au temps du nombre de lapins symbolisé par “x” – concrètement “dx/dt” nous permet de connaître l’évolution future du nombre de lapins – la lettre “a” représente la vitesse à laquelle ces petites bêtes se reproduisent.
Un tel modèle est évidemment très simpliste: les lapins ne peuvent que croître, de manière exponentielle pour être précis. On peut affiner un peu plus, par exemple en considérant l’introduction de prédateurs dans notre modèle. Cela pourrait s’écrire de la manière suivante: dx/dt=ax-bxy. Ici le produit “bxy” symbolise la probabilité qu’un lapin “x” rencontre le prédateur “y”. Plus “y” est grand, moins les lapins vont pouvoir se développer et inversement. Le mathématicien Volterra fut le premier à modéliser ce système de proie-prédateur et à en analyser les solutions. A partir de là, on recherche généralement un compromis entre complexité du modèle, c’est-à-dire son adéquation avec la réalité, et la difficulté de résolution (par ordinateur) du modèle obtenu.
Avec cet outil en main, une version améliorée d’un tel modèle permettrait de prévoir l’impact d’une mesure contre la propagation des lapins.
Le climat
Pour modéliser le climat, la principale difficulté réside dans les équations mises en jeux qui sont très complexes tout en étant bien connues des physiciens, comme par exemple les équations de Navier-Stokes qui décrivent le mouvement des fluides. Du fait de cette complexité, il n’y a généralement pas un modèle mais plusieurs modèles cherchant à reproduire le climat. Le graphique ci-dessous, extrait du dernier rapport du GIEC (AR5), montre l’évolution des différents modèles depuis les années 70. L’axe horizontal représente le temps[ref]Sur l’axe horizontal, “AR”, dans les sigles signifie, “assessment report” et F, S, T symbolisent “first”, “second”, “third”. Ensuite on se contente des chiffres: AR4, AR5.[/ref], la hauteur des cylindres, en constante augmentation, symbolise le “rapprochement” des modèles avec un phénomène climatique donné.
Comme on peut le constater, de plus en plus de phénomènes physiques sont considérés dans les modèles: l’atmosphère, les continents, les océans et la banquise, les aérosols, le cycle du carbone, les composés chimiques dans l’atmosphère et enfin la glace des continents. Mais ce n’est pas tout, pour mieux se rapprocher de la réalité, les modèles climatiques découpent la Terre en tranches (on parle alors de maillage), en éléments de volume pour être précis. Plus les volumes considérés sont petits et plus on peut modéliser de manière précise l’espace considéré sur la Terre (présence de glace, végétation, volcan, etc.). La précision est descendue à une trentaine de kilomètres d’après le dernier rapport du GIEC. Mais quid de l’efficacité de ces modèles?
L’AR5 consacre un chapitre entier sur l’analyse des modèles climatiques et de leurs limites. Les conclusions sont claires: les modèles climatiques utilisés aujourd’hui sont bien meilleurs que par le passé même si des problèmes subsistent. Analysons par exemple le graphique proposé dans ce rapport (ch. 9 p.61):
Il faut se concentrer ici sur la courbe noire qui donne les variations de la température moyenne terrestre observée et celle en rouge qui correspond à la moyenne obtenue par différents modèles. Les traits en pointillés verticaux représentent les éruptions volcaniques majeures (qui contribuent à un refroidissement). Visuellement, la corrélation modèle/réalité est assez forte. Si on regarde un peu plus loin dans le rapport, nous trouvons cette analyse plus détaillée: Simplifions la compréhension de ces graphes qui ne sont pas faciles d’accès. Nous avons devant nous trois graphiques sur 3 périodes différentes: 1998-2012, 1985-1998 et 1951-2012. Sur chaque graphique, on trouve une courbe en rouge qui représente grosso modo les températures observées et une courbe noire qui symbolise les températures prédites[ref]Plus précisément, il s’agit de l’augmentation de la température moyenne de la Terre par décade.[/ref]. On peut constater visuellement que sur une longue période (courbe de droite) la concordance entre modèle et observation est plutôt bonne. Pour des périodes plus courtes, c’est plus difficile. Sur la période 1985-1998 (courbe du milieu) les modèles sous-estiment le réchauffement tandis que pour 1998-2012 (courbe de gauche), ils le surestiment.
Ce dernier graphe fait d’ailleurs exploser les soupapes de nos climato–sceptiques qui vocifèrent à tout-va contre les modèles. Les scientifiques, quant à eux, préfèrent analyser les raisons des défaillances observées (principalement sur de courtes périodes) et les rectifier. Les lecteurs qui voudraient aller plus loin peuvent lire le Chapitre 9, p. 26 de l’AR5 qui traite précisément de ce problème et propose plusieurs pistes pour comprendre cet écart: le rapport suggère notamment de limiter l’importance de l’effet de serre sur certains modèles et de mieux tenir compte de l’impact de la vapeur d’eau et de la formation des nuages (problème constant pour les modèles).
La vaccination contre la grippe
L’utilisation des modèles ne se cantonne évidemment pas au domaine climatique. Récemment, Marc Baguelin[ref]Marc est un ami proche que j’ai déjà cité sur ce blog et qui travaille à la Public Health England en Angleterre.[/ref] a publié, dans l’excellente revue Plos Medicine, un article analysant l’impact d’une nouvelle stratégie de vaccination pour la grippe en utilisant un modèle “statistique”. Ses résultats montrent qu’en vaccinant seulement 50% des enfants de 5 à 16 ans, on peut réduire la mortalité et l’incidence de la grippe de presque 50% dans l’ensemble de la population (notamment grâce à l’immunité de groupe). En effet, le virus de la grippe tue de mille à deux milles personnes en France chaque année; c’est une maladie dangereuse, surtout pour les personnes fragilisées, qu’il ne faut pas confondre avec le rhume (le Phamarchien est là pour nous le rappeler avec son humour décapant!). Le modèle étudié permet ici d’anticiper les résultats d’une politique générale de santé et amène à plus de rationalité dans les prises de décisions politiques.
Cet article marque une belle avancée car la grippe est un virus difficile à modéliser. D’abord parce qu’il mute régulièrement; il faut donc synthétiser un nouveau vaccin chaque année en anticipant la forme que le virus aura pendant la prochaine saison. L’efficacité de ce vaccin est du coup assujettie à cette anticipation. Ensuite, pour analyser une politique de santé, il faut aussi modéliser des aspects sociologiques. Les enfants, par exemple, sont connus pour avoir beaucoup de contacts avec leur entourage, contrairement aux personnes âgées. Marc et ses collègues se sont donc basés sur 14 ans de données provenant de plusieurs sources différentes en Angleterre: des données de surveillance de la grippe fournis par les agences sanitaires mais aussi des données sociologiques.
L’efficacité du modèle, comme pour le climat, se fait en comparant les données épidémiologiques disponibles (sur les 14 années) avec les prédictions du modèle (Fig. 3 dans l’article):
En abscisse, on retrouve les 14 années sur lesquelles se base l’étude. Trois différents types de virus sont reportés, les types H1N1, H3N2 et B. En ordonnée est reportée l’incidence en milliers, attention l’échelle est différente pour chacun des trois graphiques. Sur chaque graphique, la courbe rouge représente les résultats du modèle, les observations, toujours difficiles à évaluer dans le cas de la grippe, sont représentées par les points noirs (les barres grisées représentent les intervalles de confiance). La concordance entre les deux est frappante.
Enfin, si comme moi vous détestez les seringues, sachez qu’il existe un vaccin contre la grippe qui s’administre par voie nasale…Il ne semble malheureusement pas être commercialisé en France. Dernière chose, le vaccin homéopathique n’a aucune efficacité démontrée, ne vous laissez pas avoir par les marchands de sucres.
sham (Facebook, Twitter, Google+)
PS: Pour les poitevins, je serais au planB demain soir, à 20h, pour discuter des hoax sur internet, plus d’information sur ce lien.
Je comprends mieux le silence radio depuis quelques jours 🙂
Bravo pour le travail.
La perspective sur le sujet des modèles d’un macroéconomiste:
http://mainlymacro.blogspot.com.au/2013/10/microfoundations-and-macro-wars.html
(ça demande un peu de sueur, L’auteur se souvient qu’il existe des béotiens au quatrième paragraphe).
Une ligne de fracture entre sceptiques et climatologues (orthodoxes) est entre puristes qui font des modèles reposant entièrement sur de la physique bien connue et pragmatiques qui pensent que l’on devrait prendre en compte ce qui est empiriquement établi et l’intégrer aux modèles (ou au moins en tenir compte dans l’analyse).
En étant moins puriste, on peut rajouter une oscillation dans le modèle et reproduire “la pause” et aussi avoir des modèles qui ne sont pas trop froid sur la période 84-98.
Le modèle reproduirait alors bien mieux l’anomalie de température. Le coin que les sceptiques (raisonnables) veulent enfoncer ici, c’est que si vous faites cela:
_il n’est plus très facile de parler d’accélération de la hausse des températures à la fin du 20ème siècle.
_Les modèles doivent revoir leur attribution de la pause précédente (~1940-1975) aux aérosols.
Ces deux faits impliquent une sensibilité au CO2 plus basse.
“Comme on peut le constater, de plus en plus de phénomènes physiques sont considérés dans les modèles”
Oui mais on a pas les données pour les nourrir. De plus plus vous complexifiez, moins il vous est facile de savoir ce qui ne va pas dans le modèle.
A propos de modèles justement, ces derniers peuvent également aider à comprendre le phénomène d’immunité de groupe : http://www.shanekillian.org/apps/herd.html
J’ai quelques doutes sur la véracité de l’utilisation des équations de Navier-Stokes dans des modèles qui ont des cellules de 100km de côté et donc doivent paramétrer des mouvement de fluides qui sont bien plus petits. .
Quelqu’un connait-il le sujet ?
@nicias ça répond pas vraiment à la question mais vous indique la source dont je me suis servie: http://theconversation.com/explainer-climate-modelling-3162
l’auteur est un “modéleur”, il doit être possible de le contacter si vous voulez des précisions (et vous nous raconterez ici!).
mais sinon, je ne vois pas trop où est le problème, les équations de navier stokes ne sont pas seulement vraies localement mais aussi globalement.
Merci pour l’effort. Encore un article très intéressant.
Sur le fond, il y a des points sur lesquels je suis toujours vraiment sceptique sur la façon de construire les modèles et de les valider :
Pour les simulation climatiques, le fait de “rectifier les défaillances observées” et de sous-pondérer l’effet de serre ou de sur-pondérer le rôle de la vapeur d’eau pour se rapprocher des données observées ressemble à un “tuning” de modèle qui va, au final, effectivement coller aux observations. Mais il le fera “par construction”, ce qui selon moi ne ne lui confère pas forcément la légitimité pour faire de la prédiction.
Idem pour l’exemple de la grippe. Je comprends que le modèle a été construit sur la base de multiples paramètres observés sur 14 ans.
Donc bien évidemment il va bien “prédire” ces mêmes données réelles mais, là encore, quid de sa capacité à prévoir ?
Pour reprendre le commentaire de nicias; je me place plutôt du coté des scientifiques “durs” et puristes et le fait d’ajouter arbitrairement des oscillations ou d’intégrer des schémas empiriquement établis dans les modèles me laisse effectivement sceptique sur leur capacité prédictive.
le modèle épidémiologique est éclairant, même s’il simplifie. le réseau des humains est un réseau à invariance d’échelle…. quelques noeuds ont une importance dominantes (les gros routeurs, les prostituées, les profs selon le type de germe).
mais la bascule m’a rappelé la sociophysique, ou les modèles dexplication des ghetto…
la sociophysique propose un modèle sembleble aux transitions de verre de spin, pour les opinion en avancant que sur un sujet la majorité basculera du coté qui possèle le plus d’incurables bornés.
En fait la majorité molle se fera convaincre par discussions, et les bornés eux ne se font jamais convaincre.
sinon si vous cherchez des modèles, j’ai validé sur le terrain (en finance, et autre sujets que je tairaie ici) le modèle de roland benabou :
http://www.princeton.edu/~rbenabou/papers/Groupthink%20IOM%202012_07_02%20BW.pdf
il a plein d’autres papiers et des slides…
c’est moins graphique, mais les croyances circulent via les relation de dépendance mutuelles ou hiérachiques (pas par contact ni discussion). Elles durent tant que dure la dépendence mutuelle.
dès que l’un des participant a une chance de profiter de sa lucidité, il peut ouvrir les yeux.
les modèles ne sont que des inspirations…
mon expérience professionnelle c’est qu’a trop les enrichir ils finissent par donner des résultats précisément faux, au lieu de vaguement instructifs.
C’est d’ailleurs une des lecons de nassim nicholas taleb, trop d’information fait perdre la raison, donne trop de confiance en la prévision sur la base du passé, et donc une faible résistance à l’imprévu…
genre être en manque de chasse neiges… en plein RCA. ou se noyer dans le desert lors d’un orage…
Ce qui est important pour qu’un modèle est des capacités prédictives est que le nombre de paramètres libres soit inférieur au nombres d’observations indépendantes. Cette analyse doit aussi tenir compte de l’information a priori qui est injectée dans le modèle. Ce genre de considération est très importante en télédétection atmosphérique.
@Sham
Voici ce que dit Lucia (la mécanique des fluides est sa spécialité) dans un commentaire sur Climateaudit:
“GCM’s don’t solve the Navier Stokes equations. They can’t– it’s too computationally intensive. They solved highly parameterized versions.”
Je vais m’en contenter, je suis d’accord que les équations de Navier-Stokes sont un sujet gourmand en temps.
http://climateaudit.org/2005/12/22/gcms-and-the-navier-stokes-equations/
Vous avez dit sur un autre fil: “Deuxième manipulation [climato-sceptique]: l’année 1997/1998 fut une année exceptionnellement chaude 1. Il suffit de prendre deux dates différentes sur ce même graphe pour donner une impression différente”
Que pensez vous du “cherry-picking” du GIEC de l’année 1998 comme date charnière dans un des graphes ci-dessus ?
Lorsque l’on regarde le graphique précédent, on peut raisonnablement estimer que “il suffit de prendre deux dates différentes sur ce même graphe pour donner une impression différente”, c’est a dire que si vous piochez à côté de 1998, vous vous retrouvez sans doute avec des modèles qui sont certes un peu moins trop chaud pour le a) mais qui ne sont plus trop froid pour le b).
Question subsidiaire, est-il usuel de ne représenter que la barre d’erreur pour une anomalie de température ?
@Nicias En effet, les modèles ne résolvent pas les équations de Navier-Stokes. So what comme dirais les romains. Il suffit que la forme paramétrique fasse le travail. En passant, c’est ce genre de forme paramétriques qui est le plus souvent utilisées en génie et cela est suffisant pour la majorité. des applications. Évidemment, si vous considérez que les climatologues (et les météorologues) sont des incapables et qu’ils n’ont jamais noté ce problème, en discuter est une perte de temps.
Pour ce qui est du soit-disant Cherry Picking des climatoogues, c’est des fadaises. D’une part 1988 correspond au premier rapport du GIEC il me semble. D’autre part, partir de 1988 au lieu de 1998, cela fait une différence énorme en terme statistique. En effet, les incertitudes sur la pente se réduisent avec le cube du temps. dont (2012-1988)^3=13824 alors que (1998-2012)^3=2744, soit un rapport de 5 à 1! Bref, alors que les climatosceptiques font du cherry picking de la mort afin de trouver une intervalle qui fait leur affaire, les climatologue partent d’une date loin dans le passé et non pas se loisir. Encore, de la malhonnêteté intellectuelle à fond la caisse.
quand on connait la problématique de modélisation des système chaotiques, comme le climat ou le orbites planétaires, de la subtilité du chaos classique et spatio temporel (judith curry a de très bonnes description en guest post assez ancien), et que l’on connait la subitilité des oscillations océanique et des télétéléconnexions, on sent bien que c’est certainement pas avec des modèles en élément fini qu’on arrivera a sortir un truc signifiant…
c’est un délire postmoderniste de théoricien, comme celui des économistes orthodoxes que j’ai expérimenté… même en physique quantique on ose pas encore (on y travaille) modéliser les protéines avec l’équation de schroedinger.
il faut redescendre au niveau phénoménologique, associer les connaissance sur les téléconnexions et oscillations océaniques, pour constituer un modèle basé sur les faits (ca me rappelle qqch ce mot), et pas un modèle basé sur la théorie et ajusté via mille réglages à d’approximatives historiques et des hypothèses bien pratiques transformées en prétendus forcages (genre particules)…
ce faisant en 1000 ou 10000ans soit 10 à 100 cycles on devrait voir comment les paramètres CO2 & co modifient les trajectoires, voir comment le piloter.
j’ai beaucoup plus d’espoir dans une modélisation basée sur le concept d’onde de stade comme l’avance Judith Curry… une vrai climatologue, océaniste, (ex) membre du GIEC (enfin des chercheurs “affiliés”- le giec est une administration).
quand au cherry picking, l’extension de glace de l’antarctique… passons…
il vaut mieux éviter de parler d’éthique a ce sujet parce que ca me fait penser au “tous pourris”. quand j’ai vu passer des gens qui annoncaien fièrement des bots pour spammer les opposants (des vilains sceptiques)… ou qui font des pubs avec des méchants hérétiques qui explosent enfants inclus…
tout ca me rappelle l’article de Judith Curry sur micro-étique et macro-étique… et la guerre d’algérie.
quand on a balancer une hypothèse de piratage par les russes, alors que les informaticiens on bien observé que vu la structure et le moyens utilisés c’était une fuite interne, dans le cadre d’un enregistrement en vu de répondre à un FOI Act.
expliquez moi pourquoi la sensibilité à disparu du rapport AR5…
quand a la fonte de 2012 arctique, causé par un anticyclone dislocateur et utilisé abusivement, le regel record a été passé sous silence…
discutez en avec judith curry, elle elle peut y répondre (ella des articles a ce sujet)…
je ne dis pas qu’en face c’est plus honête… c’est politique.
moi ca ne m’intéresse plus techniquement car le problème CO2, réel ou psychiatrique, va disparaitre…
mais ceux qui ont retardé cette solution ont les même méthodes que ceux qui tentent de fermer le débat ici, d’avancer l’infaillibilité des modèles face aux résultats expérimentaux, d’avancer la primauté des modèles upfront , voir fullphysics, priment sur les modèles phénoménologiques simplifiés.
je suis plus inquiet sur l’avenir des positions rationalistes qui, si elle continuent a défendre l’indéfendable dogmatique à coté du bonsens basé sur les faits. Les rationaliste je le craint vont se faire emporter comme lavoisier pendant la révolution.
ils devraient se taire et en rester a ce qui est solide… et laisser le débats aux débateurs.
j’espère juste que la victoire de la science sur le dogme, via la technologie, et malgré la communauté, va redonner confiance en la technologie et en le progrès.
j’attend la prochaine fenêtre de Maslow.
bon courage à tous en attendant. ca va secouer. avis de cycgnes noirs. que les antifragiles lêvent la main.
@Yvan Dutil
So what ?
Rien, j’étais juste curieux. J’ai un biais ici, j’aime bien comprendre ce que je lis.
“D’autre part, partir de 1988 au lieu de 1998, cela fait une différence énorme en terme statistique”
1988 n’est utilisée par personne ici. Vous avez mal lu (j’ai bien écrit 1998), probablement parce-que vous n’avez pas de sens de l’humour
“Bref, alors que les climatosceptiques font du cherry picking de la mort”
1998 est l’année la plus chaude pour les deux séries satellitaires et pour Hadcrut 3 (mais déclassée au profit de 2010 depuis hadcrut4 en 2012, les climatologues font aussi du curve fitting sur les courbes de températures).
En mathématique, on appelle ça un extremum ou un point de retournement.
“les climatologue partent d’une date loin dans le passé et n’ont pas ce loisir”
Oh si ils ont le loisir ! Ici ils ont pris 1951 comme date de départ. C’est purement arbitraire, c’est la première année de la deuxième moitié du 20ème siècle. Un critère surement plus solide que l’optimum !
une des raison qui me fait douter de tout ce sont les nombreuses preuves de violation de microéthique.
la dernière en date relévé là:
http://judithcurry.com/2013/10/22/chasing-ice/
sinon sur la valeur du consensus
http://www.elforsk.se/Global/Trycksaker%20och%20broschyrer/elforsk_perspektiv_nr2_2013.pdf
les faits… pas les modèles.
de toute façon le problème est résolu s’il existe.
il faudra juste que les rationaliste ne se soient pas ridiculisés avant, laissant tout les illuminés, libres énergistes, alter-thérapistes, et poly-paniqueurs apocalypticiens, se repaitres du cerveaux des citoyens ecoeurés par les mensonges consensuels.
J’ai bon espoir que tout rentre dans l’ordre grace au retour du progrès technologique, et à une fenêtre de maslow. après tout c’est pas la première fois qu’une institution de pensée sacrée nous envoie dans le mur.
les humains sont antifragiles… ceux qui ne le sont pas sont morts.
@AlainCo Je pense que vous ne comprenez pas de ce quoi vous parler. Que le système soit chaotique n’a pas d’importance quand on s’intéresse aux moyenne. Et, effectivement les téléconnections sont modélisées par les modèles.
Évidemment, quand un gars s’accroche au complot de la fusion froide, il ne faut pas s’attendre à un grosse maître des concepts physique de base.
@nicias j’ai effectivement mal lu. Mais, si vous commencé quelques années avant 1998, la pente ne change pas du tout. Le simple fait que les climatosceptiques partent de cette date montrent qu’ils n’ont pas un grand niveau de crédibilité
@BofBof “Idem pour l’exemple de la grippe. Je comprends que le modèle a été construit sur la base de multiples paramètres observés sur 14 ans.
Donc bien évidemment il va bien « prédire » ces mêmes données réelles mais, là encore, quid de sa capacité à prévoir ?”
Autant que je sache aucun modèle de la grippe aujourd’hui ne peut prédire ce qui se passera à long terme (par long terme je parle de l’année épidémiologique suivante). La raison est que la façon dont l’immunité croisé se constitue au niveau population est mal compris. C’est un problème immunologique plutôt que de modélisation. En plus il faut prendre en compte l’évolution des souches virales, un problème également mal compris (même si la science fait de gros progrès la dessus).
En revanche le type de modèle présenté dans le papier dont parle Sham est assez bon pour prédire ce qui se passe au cours de l’épidémie après avoir “appris” les paramètres épidémiologiques (qui se réduisent à un petit nombre). La même équipe avait publié durant la pandémie un papier prédisant le cours de l’épidémie assez précisemment. C’est sur ce postulat de capacité de prédiction à court terme que se base la justification de tester des scenarios alternatifs de vaccination au sein d’une même saison.
@yann dutil
Je pense que vous n’avez pas compris ce que sont ces modèles.
Il n’arrivent même pas correctement à modéliser el nino, et le reste nada…
allez demande à judith curry, c’est son job…
pour le chaos, visiblement vous pensez linéaire.
lisez nassim nicholas taleb… les non linéarité sont la clé des soucis et des espoirs.
mais bon, tout ca c’est toute une éducation linéaire à refaire.
on peut effectivement faire des prévisions sur les sytèmes chamotiques sur des moments particuliers qui ne subissent pas l’effet papillon.
mais ces momenst ne sont pas de moyennes, mais certains paramètres des orbites chaotiques…
si vous suivez sur des millions d’années les orbites des planètes (système multi-corps instable) vous pourrez prévoir quelque temps la phase, mais rapidement seulement l’orientation du grand axe et l’excentricité, puis uniquement l’excentricité…
et parfois vous ne pourres plus prévoir qu’une phase chaotique avec une poignées de sorties possibles…
prévoir la température moyenne est aussi vain que de prévoir la position moyenne de laterre… c’est pas un moment pertinent…
les moments pertinents sont des paramètre de l’onde de stade (si cette théorie embryonnaire est confirmée, sinon une équivalente ).
quand au chaos spatio temporel, judith avait publié il y a longtemps des articles d’amis sur le sujet…
le meilleur exemple c’est les turbulences d’une rivière d’eau vive… ce que les kayakiste appreine à anticiper…
les basculements, les instabilité,les cycles…
il faudrait reprendre la climato a ce qu’elle était avant la crise de confiance en soi du GIEC.
@Yvan Dutil
Est ce que vous comprenez ce qu’est un extremum ou un point d’inflexion ?
Évidement si vous lissez tout pour chercher le signal du CO2, cela n’existe pas
“Le simple fait que les climatosceptiques partent de cette date montrent qu’ils n’ont pas un grand niveau de crédibilité”
Le GIEC l’a pourtant utilisé. Arrêtez de faire du chichi sur 1998. Pas besoin d’être plus royaliste que le roi. La pause est là et elle est partie pour durer avec la PDO sans compter le retournement à venir de l’AMO vers 2020. Faudra vous en accommoder, le plus tôt sera le mieux.
@Capitaine Haddock
“En revanche le type de modèle présenté dans le papier dont parle Sham est assez bon pour prédire ce qui se passe au cours de l’épidémie après avoir « appris » les paramètres épidémiologiques”
Complètement d’accord.
Théoriquement on doit pouvoir sauver des vies et des milliards, il faut juste une bonne exploitation du modèle par les politiques et les administrations.
@Capitaine Haddock
oui,
il faut aussi tenir compte de la nature du réseau.
Le réseau réel est un réseau à invariance d’échelle, pas un réseau à dimension déterminée.
en clair, comme sur les routeurs internet, facebook, les citation des cites web, ou des papiers scientifiques, il y a une poignée de noeuds connectés à une population énorme chacun, et une énorme proportion de noeuds reliés à une poignées de voisins chacun.
la simulation, comme le modèle (voir celui de benabou que je cite) n’est pas là pour prévoir mais pour comprendre la structure du problème et rechercher où agir…
ici identifier les super noeud (routeurs centraux, prostituées, professeurs, leaders d’opinions) et y concentre l’effort principal (vaccination, destructions, sensibilisation, publicité).
outre les superréseaux à invariance d’échelle, il faut aussi consulter la théorie de la percollation.
elle a été ainsi utilisée habilement pour expliquer ce que serait une bonne manière de lutter contre le terrorisme:
– ne pas se focaliser sur la poignée de pions actifs
– se focaliser sur le réseau passifs de soutin par aide ou non opposition
– lutter contre l’usage de “drapeaux justificatifs” qui peuvent être utilisés pour obtenir une aide (eg résoudre les injustices, les conflits, les bavures). le plus gros facteur est la dimension du réseau, pas la perméabilité des noeuds.
– lutter contre la perméabilité à soutenir la violence (développer la micro-éthique face à la macro-éthique… tiens ca rebondit sur le climat).
http://www.pourlascience.fr/ewb_pages/f/fiche-article-terrorisme-et-percolation-24347.php
http://www.uvm.edu/~pdodds/teaching/courses/2009-08UVM-300/docs/others/2003/galam2003.pdf
Nb: je me souvenais pas que c’était Galam… encore lui !
comme quoi épidémie, climat, FF, finances on retrouve des pattern communes…
illusions, percolations, dimensions non entières , modélisation, chaos, brisures de symétries…
les frontière de la science moderne.
Ping : Les modèles: la machine à voyager...
@Nicias : effectivement, on ne peut pas résoudre directement avec précision tous les mouvements de l’écoulement car la taille de ces boites est bien trop grande par rapport à la taille des plus petits tourbillons (voir Echelle de Kolmogorov). Cela dit, même avec des boites de 1m de côté on ne peut pas non plus ! Pour les simulations d’écoulements autour d’avions, on pense avoir la puissance suffisante à une résolution directe en 2080 je crois…
On utilise donc des modèles de turbulence plus ou moins évolués qui ajoutent des termes dans les équations de Navier-Stokes et souvent de nouvelles équations. Mots clés : LES, RANS… En gros, on considère l’influence moyennée des tourbillons pour chaque volume de calcul. Dans certains modèles, cela revient par exemple à augmenter la viscosité locale du fluide.
La modélisation de la turbulence est tout aussi importante d’un point de vue appliqué que complexe. On dispose actuellement d’énormément de modèles qui sont adaptés à certaines situations seulement. Et quand on couple tout ça à de la thermique où à la présence de plusieurs fluides, c’est encore plus compliqué ! Les chercheurs ont encore de quoi chercher longtemps 😀
@Zeru
“Pour les simulations d’écoulements autour d’avions, on pense avoir la puissance suffisante à une résolution directe en 2080 je crois… “”
ça fait un gros paquet de doublement de la puissance de calcul !
En attendant, on peut faire des maquettes et les mettre dans des souffleries. Si on en construit une suffisamment grosse, on doit pouvoir mettre la Terre dedans.
pour ceux qui s’intéressent aux modèles , notamment climatiques plusieurs articles
Judith curry qui participe a un workshop sur le sujet
http://judithcurry.com/2013/10/31/workshop-on-the-roles-of-climate-models/
après divers articles critiques dont
http://judithcurry.com/2013/10/30/implications-for-climate-models-of-their-disagreement-with-observations/
plus généralement sur la folie des modèles
http://freakonomics.com/2013/10/30/more-predictions-from-bad-to-worse/
“Our “Folly of Prediction” podcast made these basic points:
Fact: Human beings love to predict the future.
Fact: Human beings are not very good at predicting the future.
Fact: Because the incentives to predict are quite imperfect — bad predictions are rarely punished — this situation is unlikely to change.”
un exemple de mauvaise modélisation guidée par le désir d’imposer une vision
http://neinuclearnotes.blogspot.fr/2013/10/why-mit-study-on-energy-water-use-and.html
enfin en revenant sur la climato et ma vision de la pertinence de l’onde de stade, cette méthode a été reprise par un climatologue chinois réputé pour prévoir une baisse des températures à venir
http://www.techniques-ingenieur.fr/actualite/environnement-securite-energie-thematique_191/des-scientifiques-de-l-academie-des-sciences-chinoise-annoncent-un-refroidissement-du-climat-article_85366/
enfin coté bétisier, un professeur de finance qui utilise black&scholes comme exemple de grande découverte
http://www.ft.com/intl/cms/s/2/5aef99a8-37f2-11e3-8668-00144feab7de.html#axzz2jIbocDck
sazuf que ces modèles qui négligent des facteurs non linéaire pourtant connus, a coulé le fond d’un des auteur (LTCM), et est a l’origine de la folie des subprime, qui pourtant était décrite depuis 2004 par Roubini avec des méthodes plus artisanales.
en espérant que ca aide a se faire une idée sur la pertinence et les risques liés aux modèles.
modèles oui, mais simples et calés sur les faits, surtout ceux qui déplaisent et ont un grand impact.
et surtout être certain qu’on va se planter de toute façon, et donc garder de la marge.
c’est la théorie du black swan.
Ping : Le vaccin contre la grippe: trier entre l’information et la désinformation | Sham and ScienceSham and Science
Il s’en dit des bêtises, Nicias est au sommet de sa forme…
En passant, le premier rapport du GIEC c’est 1990, 1988 c’est l’année de création de cet torganisme.
Si vous voulez comprendre les modèles lisez Le Treut…