Recrutement des enseignants-chercheurs : l’endorecrutement, c’est mal

Quand un docteur d’une Université est recruté par cette même Université, on parle de localisme ou bien, de plus en plus, d’endorecrutement. Le Ministère vient de publier les résultats de la campagne 2012 de recrutement : 21% d’endorecrutement pour les Maître de Conférences (p. 37). Proportion assez stable dans le temps depuis 2008. Un docteur sur cinq, en gros.

Pour nombre de commentateurs, l’endorecrutement, c’est mal. Pour preuve, le petit jeu auquel s’est livré Sophie Roux : tapez “localisme universitaire” sur Google, vous trouverez “fléau”, “plaie”, “tare”, “mal endémique”, “clientélisme”, “népotisme pervers”. Cependant, comme elle l’indique dans son (excellent) article, le débat sur le sujet manque sérieusement de preuves empiriques. 20-25% d’endorecrutement, c’est beaucoup? C’est peu? Quelle(s) incidence(s) en termes de performance du système de l’Enseignement Supérieur et de la Recherche?

Je ne vais pas répondre à toutes ces questions, mais simplement avancer un ou deux chiffres pas inintéressants. J’avais déjà parlé du premier, tiré  d’un article que j’ai co-écrit sur le sujet, qui exploite les données issues des enquêtes Générations du Cereq : la mobilité géographique (changement de Région) des docteurs de la génération 1998 est de 41% pour les docteurs travaillant trois ans après dans l’ESR, contre 27,9% pour les docteurs travaillant hors ESR. Dans ce billet posté récemment, vous pourrez vérifier (voir le graphique du billet) que c’est toujours le cas pour les générations diplômées en 2001, 2004 et 2007.

Pour aller un cran plus loin dans la recherche d’éléments empiriques, j’ai analysé les résultats d’une enquête faite auprès des doctorants ayant bénéficié d’un financement CIFRE. Ce type de contrat lie un doctorant, un laboratoire de recherche et une entreprise (ou une institution). L’ANRT a enquêté les docteurs CIFRE de la période 2000-2011 en s’interrogeant sur leur insertion professionnelle. 1973 personnes ont répondu. Dans le graphique en bas de la page 14, vous découvrirez que 35% des répondants, suite à l’obtention de leur doctorat, ont été recrutés dans l’entreprise partenaire de la CIFRE ; 11% dans le laboratoire partenaire et 54% dans une autre entité.

En clair, le taux d’endorecrutement de 20-25% observé France entière dans l’Enseignement Supérieur est sensiblement inférieur à celui observé dans les entreprises partenaires d’une CIFRE, de 10 à 15 points au-dessus.

Petit exercice intellectuel à destination des collègues, pour finir : imaginez que vous croisez lors d’un colloque un jeune docteur, qui vous annonce que, suite à sa thèse (financement classique), il vient d’être recruté par son Université d’origine. Je pense que vous ne serez pas loin d’avoir tous un sentiment plutôt, voire très, négatif. Imaginez maintenant qu’il s’agisse d’un docteur ayant bénéficié d’une CIFRE et ayant travaillé dans un grand groupe, disons chez EADS. Il vous annonce qu’EADS l’a embauché. Je parie que votre sentiment sera d’emblée très positif…

NB : comme dit à de nombreuses reprises, il ne s’agit pas pour moi de défendre le recrutement local, je ne suis ni pour, ni contre. Je plaide pour qu’on puisse recruter la bonne personne au bon moment et au bon endroit. Que l’on donne donc les moyens aux Universités de mettre en place des processus de recrutement dignes de ce nom, qui vont au-delà de l’examen d’une dizaine de minutes des dossiers et d’auditions d’une vingtaine de minutes pour recruter à vie une personne…

Le qualifié, l’évaporé, le faux évaporé et le quasi-évaporé…

Rappel des épisodes précédents et élargisemment de la problématique : Pour être recruté dans l’enseignement supérieur en France, il faut passer par une phase nationale de qualification, puis candidater sur les postes ouverts au concours dans les différentes Universités.

Baptiste Coulmont a montré dans cet article que dans l’ensemble des personnes qualifiées,  certaines ne candidataient pas. Sur la campagne 2012, le taux d’évaporés est de 43,5%. Taux qui monte avec le temps, puisqu’il n’était que de 34% en 2007. J’avais un peu complété dans mon billet précédent pour montrer que ce taux d’évaporation était lié positivement au taux de qualification (plus une section qualifie de personnes, plus la proportion d’évaporés augmente) et du taux de pression (plus le rapport candidats/postes est élevé, plus il y a d’évaporés). On observe également des effets disciplinaires (plus d’évaporés en Sciences et Pharmacie).

Ce matin, Gaia Universitas reprend ce chiffre pour alimenter un autre débat : faut-il supprimer la qualification, comme le suggère le rapport Berger? Les phases de qualification mobilisent en effet de nombreux collègues qui pourraient sans doute être plus utiles à faire de la recherche, à préparer des cours, à expertiser des projets de recherche, etc. Quand on constate que 43,5% des qualifiés ne candidatent même pas, on se dit que franchement…

Hier soir, enfin, Baptiste Coulmont a posté un message twitter en exploitant un autre chiffre du même document du Ministère :

Ce à quoi Mixlamalice répond :

Si on garde en tête la question de la suppression de la qualification, ça en rajoute une couche : non seulement une bonne part des qualifiés ne candidatent jamais, mais une bonne part de ceux qui candidatent ne sont jamais recrutés… Ça commence à faire cher pour pas grand chose…

Cependant, je pense qu’il faut être prudent avec ces chiffres. D’où ce petit billet, qui exploite un autre tableau du Ministère, celui sur la cohorte des qualifiés de 2008, suivis jusqu’en 2012 (tableau utilisé par Baptiste Coulmont pour son message twitter).

43,5% d’évaporés?

Les chiffres que Baptiste Coulmont et moi-même avons utilisé dans nos premiers billets concernent la cohorte des qualifiés de 2013. On obtient effectivement un taux d’évaporation de 43,5% pour l’ensemble des sections CNU. Petit complément en passant, ce taux varie fortement selon les sections :

Section taux d’évaporation
Lettres 28,3%
Droit 22,8%
Pharmacie 50,8%
Sciences 50,7%

Comme on le voit, il est fort en Sciences et Pharmacie, bien plus faible en Lettres et Droit. Dans tous les cas, il y a une limite à ces chiffres : si certains qualifiés n’ont pas candidaté cette année, rien ne nous dit qu’ils ne vont pas candidater l’an prochain… Les données sur la cohorte 2008 nous aident à aller plus loin.

Si on regarde les chiffres de cette cohorte, on peut d’abord refaire le même calcul que pour la génération 2013 : combien de qualifiés 2008 n’ont pas candidaté en 2008? On obtient un chiffre de 35%.

Mais les chiffres sur la cohorte nous permettent de dénombrer les personnes qui certes n’ont pas candidaté en 2008, mais qui ont candidaté en 2009, 2010, 2011 ou 2012 (une qualification est en effet valable quatre ans). Les vrais évaporés sont ceux qui, qualifiés en 2008, n’ont jamais candidaté sur toute la période de validité de leur qualification. Les autres sont des faux évaporés. Le taux d’évaporés n’est alors plus de 35%, mais de 21%, ce qui est nettement plus faible…

Comment expliquer que des qualifiés en 2008 ne candidatent pas en 2008, mais en 2009 ou après? Je pense que certains docteurs, au moment où ils tentent la qualification, sont déjà engagés dans des contrats de type post-doctorat. Même s’ils obtiennent la qualification, ils terminent d’abord leur post-doc d’un à deux ans et candidatent au retour. Dans certaines disciplines, le passage par la case post-doc est d’ailleurs obligatoire. Peut-être y-a-t-il d’autres explications, je suis preneur.

L’Université ne recrute pas ses docteurs?

On peut regarder les mêmes chiffres autrement, pour se concentrer sur les recrutés. Dans l’ensemble des qualifiés 2008, seuls 34,2% sont recrutés avant 2013. Est-ce à dire, comme le suggère @mixlamalice, que l’Université n’aime pas ses docteurs? Là encore, les choses me semblent plus compliquées…

D’abord, ce chiffre concerne les qualifiés Professeurs et Maîtres de Conférences. Il est en fait un peu plus faible si on se concentre sur la catégorie des Maîtres de Conférences : il est de 31%. Mais attention, les vrais évaporés sont comptabilisés! Si on exclut (logiquement) les personnes qui ne candidatent jamais, le ratio n’est pas de 31%, mais de 39%, ce qui est un peu mieux…

On peut même sans doute aller un cran plus loin : en plus de la distinction entre vrais évaporés et faux évaporés, je propose d’introduire la catégorie des quasi-évaporés : des personnes qualifiées, qui candidatent une fois en 2008, ne sont pas retenus et ne candidatent jamais ensuite. On peut considérer que ces personnes ont trouvé un emploi hors Université qui leur convient plutôt, puisqu’ils ne retentent pas leur chance. Je sais, ça peut être plus compliqué, mais cette hypothèse n’est pas aberrante. Difficile en tout cas de considérer que l’Université ne veut pas d’eux… Si l’on rapporte le nombre de recrutés non plus à l’ensemble des qualifiés mais à cet ensemble moins les vrais évaporés et les quasi-évaporés, le chiffre monte alors à 49%. En procédant de même pour les personnes candidatant deux fois de suite et ne candidatant plus ensuite, il monte à 55%.

Bref, des conclusions à nuancer parfois et une incitation forte à poursuivre l’analyse (les comportements de la cohorte 2008 sont sans doute très différents selon les disciplines). Dans cette perspective, Baptiste Coulmont a demandé au Ministère s’il pouvait mettre à notre disposition des données individuelles anonymisées, pour mieux cerner cette question de l’évaporation. J’espère sincèrement qu’ils vont accepter. Ce serait ballot que le Ministère de l’Enseignement Supérieur et de la Recherche nous empêche de développer de nouvelles connaissances, surtout lorsqu’il s’agit de mieux comprendre le comportement d’acteurs dont ils financent en grande partie le doctorat…

L’évaporation académique : les qualifiés non postulants

Billet intéressant de Baptiste Coulmont sur l’évaporation académique. Petite explication : pour décrocher un poste à l’Université, il faut, avant de postuler, passer par une phase de qualification en déposant un dossier auprès du CNU. Si on est qualifié, on peut candidater là où des postes sont ouverts.

Baptiste Coulmont a collecté des statistiques sur le site du Ministère sur le nombre de candidats à la qualification, le nombre de personnes qualifiées, le nombre de personnes qui candidatent une fois qualifiées et le nombre de poste, le tout par section disciplinaire. A partir de ces chiffres, il est possible de calculer différents ratio :

  • le taux de qualification, rapport entre le nombre de personnes qualifiées et le nombre de candidats à la qualification,
  • le taux d’évaporation, rapport entre le nombre de candidats qualifiés qui ne postulent pas ensuite et le nombre total de candidats qualifiés,
  • le taux de pression, rapport entre le nombre de candidats qualifiés postulant et le nombre de postes ouverts.

En quelques graphiques, Baptiste Coulmont montre que le taux d’évaporation est corrélé postivement au taux de qualification : les sections les plus “laxistes” sont celles pour lesquelles l’évaporation est la plus forte. Il est également corrélé positivement au taux de pression : plus le ratio candidats/postes est fort, plus l’évaporation est forte, des personnes qualifiées ne prennent sans doute pas la peine de postuler lorsqu’ils savent que les chances de décrocher un poste sont particulièrement faibles. Il semble cependant que le lien soit plus fort entre taux d’évaporation et taux de qualification qu’entre taux d’évaporation et taux de pression, ce que je me suis empressé de vérifier en construisant une petite matrice des corrélations :

tx_evap tx_qua~f tx_pre~n
tx_evap 1.0000
tx_qualif 0.7156 1.0000
tx_pression 0.4604 0.4759 1.0000

Intuition vérifié, le coefficient est sensiblement plus fort. Cependant, à bien y regarder, il y a une section atypique dans l’ensemble des sections disciplinaires : la section 72 (Epistémologie, histoire des sciences et des techniques). Elle prend des valeurs “aberrantes”, aussi vaut-il mieux l’exclure des calculs (Baptiste Coulmont l’a d’ailleurs enlevée pour construire ses graphiques). On obtient cette nouvelle matrice :

tx_evap tx_qua~f tx_pre~n
tx_evap 1.0000
tx_qualif 0.7357 1.0000
tx_pression 0.6439 0.4850 1.0000

L’écart se réduit sensiblement. On note également que la corrélation entre taux de qualification et taux de pression reste assez faible.

Dans son graphique le plus abouti, Baptiste Coulmont représente les trois indicateurs :

En abscisse ce que j’appelle le taux de pression, en ordonnée le taux d’évaporation, les codes couleurs permettent de différencier les taux de qualification.

Pour aller un cran plus loin, j’ai testé une petite régression avec comme variable expliquée le taux d’évaporation et en variables explicatives le taux de qualification et le taux de pression. J’ai également introduit une variable par grande discipline (Droit, Lettres, Sciences, Pharmacie), pour savoir s’il existait, au-delà de ces taux, des spécificités disciplinaires. La section 72 est toujours exclue des calculs. On obtient ceci :

Coefficient Ecart-type
tx_qualif 0,383 0,123 ***
tx_pression 0,012 0,003 ***
Lettres référence
Droit -0,063 0,055
Pharmacie 0,121 0,067 *
Sciences 0,084 0,039 **
Constante 0,011 0,076

Le modèle est plutôt bon, il explique près de 70% de la variance des taux d’évaporation. Les deux taux (taux de qualification et taux de pression) influent positivement sur le taux d’évaporation. On remarque également que par rapport aux sections “Droit”, les sections “Sciences” et “Pharmacie” influent positivement sur le taux d’évaporation. Pas de différence entre Droit et Lettres, en revanche.

J’ai testé le même modèle en introduisant une nouvelle variable pour intégrer la taille des sections. J’ai simplement ajouté le nombre de personnes qualifiées pour intégrer cet élément. Les résultats sur les autres variables sont peu modifiés, la variable introduite est elle-même significative et joue négativement : plus une section est grande, moins le taux d’évaporation est élevé.

Coefficient Ecart-type
tx_qualif 0,381 0,119 ***
tx_pression 0,011 0,003 ***
qualif -0,0003 0,000 **
Lettres référence
Droit -0,068 0,053
Pharmacie 0,122 0,065 *
Sciences 0,133 0,045 ***
Constante 0,056 0,077

Je ne pense pas qu’on puisse aller plus loin dans l’analyse avec les statistiques disponibles, mais comme suggéré dans le document du Ministère, une analyse plus poussée de ce phénomène d’évaporation ne serait pas inintéressant, une enquête auprès d’une cohorte de personnes concernées serait sans doute la meilleure stratégie dans ce sens.

Risque de pauvreté des enfants : la France vire en tête!

Eurostat vient de publier une note sur le risque de pauvreté et d’exclusion sociale dans l’Union à 27. On y découvre notamment, pour 2011,  le pourcentage d’enfants menacés de risque de pauvreté monétaire en fonction du lieu de naissance des parents (parents nés dans le pays de résidence vs. au moins un parent né à l’étranger).

Les chiffres pour la France ne sont pas inintéressants : 14,1% d’enfants menacés de risque monétaire quand les deux parents sont nés en France, mais 39,3% quand un des parents est né à l’étranger. Les moyennes pour l’UE27 sont respectivement de 18,3% et 31,5%.

Je me suis donc empressé de récupérer les données du tableau et de faire quelques calculs, en rapportant notamment les deux valeurs. Voici ce que j’obtiens :

Pays nés dans le pays de résidence au moins un parent né à l’étranger ratio
UE27 18,3 31,5 1,7
Belgique 12,1 33,9 2,8
Danemark 7,8 24,8 3,2
Allemagne 14,2 24,8 1,7
Estonie 19,7 16,9 0,9
Grèce 19,8 43,1 2,2
Espagne 23,2 45,5 2,0
France 14,1 39,3 2,8
Italie 24,4 33,5 1,4
Chypre 8,9 22 2,5
Lettonie 24,6 25,3 1,0
Lituanie 23,3 37,3 1,6
Luxembourg 11,4 24,5 2,1
Hongrie 22,9 21,4 0,9
Malte 21,3 17,9 0,8
Pays-Bas 10,9 29,6 2,7
Autriche 8,4 28,1 3,3
Portugal 20,6 26,7 1,3
Slovénie 12,8 23,8 1,9
Finlande 10 26,6 2,7
Suède 9,5 29,1 3,1
Royaume-Uni 16,2 23,2 1,4
Islande 10,2 18,7 1,8
Norvège 5,7 25,3 4,4
Suisse 12 22,7 1,9

Si on regarde la deuxième colonne, on s’aperçoit que la France a un des “scores” les plus mauvais : 3ème pays, derrière l’Espagne et la Grèce. Il ne fait pas très bon avoir un parent né hors de France, en France…

Mais ce n’est pas tout : je me suis amusé à regarder la position de la France sur la troisième colonne. De manière plutôt intéressante, on constate que les pays du Nord de l’Europe ont des ratios pourris élevés. La Norvège vire en tête, le Danemark est 3ème et la Suède 4ème (l’Autriche s’intercale en 2ème position). La France n’est pas loin derrière, en 6ème place, juste derrière la Belgique.

Pour combiner les deux informations, j’ai simplement ajouté le classement des pays sur les deux indicateurs. Pour la France, par exemple, on obtient un score de 9 : elle est 3ème sur le premier classement et 6ème sur le deuxième, d’où 6+3=9. On peut alors calculer le rang des pays sur ces nouveaux chiffres : la France arrive brillamment en tête, suivie de la Belgique et de la Grèce.

Qu’est-ce que cela veut dire? Que la France protège mal les enfants dont un parent est né à l’étranger du risque de pauvreté monétaire, c’est l’un des pires pays d’Europe, d’ailleurs. Et comme elle protège bien, dans le même temps, les enfants dont les deux parents sont nés en France de ce même risque, la situation non seulement absolue mais aussi relative des enfants dont un des parents est né hors de France est la pire de l’UE à 27. Oui, vous avez bien lu : la pire…

Made in France et Made in Monde : de nouveaux chiffres

J’en ai parlé à plusieurs reprises (ici, et ) , la comptabilité traditionnelle des échanges extérieurs masque très largement la tendance croissante à la fragmentation des processus productifs. Petite illustration : une entreprise localisée en France exporte une voiture vers l’Allemagne, d’une valeur de 100. Dans la comptabilité traditionnelle, on comptera +100 pour les exportations françaises vers l’Allemagne dans le secteur automobile. Considérons maintenant la fragmentation des processus productifs : pour fabriquer cette voiture, l’entreprise importe des composants d’autres pays, par exemple des pays d’Europe Centrale et Orientale, disons de Slovaquie. Supposons que ces composants importés soient d’une valeur de 40. Une comptabilité en valeur ajoutée affectera +60 d’exportations de la France vers l’Allemagne et +40 d’exportations de la Slovaquie vers l’Allemagne. Supposons en outre que pour fabriquer cette voiture, l’entreprise achète des services à des entreprises localisées en France (design, recherche, communication, etc.), disons pour une valeur de +20. Dans la comptabilité traditionnelle, on compte +100 d’exportations de la France vers l’Allemagne dans le secteur automobile. Dans la comptabilité en valeur ajoutée, on comptera +60 d’exportations, dont +40 pour le secteur automobile et +20 pour les secteurs des services aux entreprises. On le voit, notre perception de la géographie des échanges et des secteurs exportateurs peut en être sensiblement modifiée.

L’OCDE et l’OMC se sont emparés du sujet depuis quelques temps. Ils viennent de mettre en ligne des données très intéressantes sur le sujet (merci à Xavier Desray pour l’info!), ainsi que des synthèses par pays. Ce document, notamment, montre ce que cela change pour la France : le déficit commercial vis-à-vis des Etats-Unis est sensiblement réduit, passant de 27 à 18 milliards de dollars. Idem, dans une moindre mesure, avec la Chine : le déficit passe de 12,3 milliards de dollars avec la comptabilité traditionnelle à 9,8 milliards avec la comptabilité en valeur ajoutée.

Une analyse non plus géographique mais sectorielle permet de souligner un autre point essentiel, qui ne va pas trop plaire aux obsédés de l’industrie mais que voulez-vous, c’est la vie : la France exporte essentiellement des services, qui sont incorporés dans les biens manufacturés. Dans l’ensemble des exportations brutes, la part des services est de 55%.

S’agissant des Etats-Unis, son déficit vis-à-vis de la Chine est réduit de 25%, au profit de l’Allemagne, du Japon et de la Corée du Sud. Les services pèsent 56% des exportations. Quant à l’Allemagne, son déficit commercial vis-à-vis des Etats-Unis se transforme en excédent avec cette nouvelle comptabilité. Les services pèsent également beaucoup dans leurs exportations, avec une part de 49%.

Ce serait bien que les politiques français, à l’échelle nationale comme à l’échelle régionale, s’emparent de ces chiffres et modifient leurs politiques : plutôt que de prôner à longueur de discours le Made in France et de mettre en place des observatoires des relocalisations qui ne serviront strictement à rien, ils devraient prendre acte de cette fragmentation des processus productifs et s’interroger sur le positionnement des entreprises françaises dans les chaînes de valeur ajoutée déployées à l’échelle mondiale. Quels sont nos avantages comparatifs? Comment les renforcer? Comment se rendre indispensable sur certains créneaux, afin de pérenniser ces avantages? Dans le même sens, je leur conseille d’analyser l’ensemble des secteurs, de regarder d’un oeil neuf le secteur des services, de sortir de leur obsession pour l’industrie.

Je sais : c’est pas gagné…

Ai-ce que le nivo bèsse?

Document intéressant de l’Insee sur l’évolution des difficultés à l’écrit et en calcul de différentes classes d’âge.

A l’écrit, les compétences s’améliorent, pour preuve ce graphique (en abscisse, les années de naissance) :

Amélioration qui s’explique notamment par le “développement de l’accès à l’enseignement secondaire : très faible pour les générations nées avant-guerre, il s’est généralisé dans les années 1960.”

Côté calcul, c’est moin bon :

On remarque d’abord que l’évolution des scores entre 2004 et 2011 par classe d’âge est très négative pour les plus anciens, ce que l’Insee interprète comme le signe du veillissement de de l’éloignement progressif du système scolaire. Pour les générations les plus récentes, la dégradation s’expliquerait par “l’usage de plus en plus répandu d’outils micro-informatiques dans la vie quotidienne (ordinateur, calculatrice, smartphone…) [qui] amoindrit sans doute chez les plus jeunes l’intérêt à maîtriser parfaitement les règles de base du calcul”. Côté calcul, les jeunes sont rationnels, donc.

En complément, je renvoie à ce vieux billet (2006), qui explique par un petit exemple le décalage entre l’évolution du niveau perçu par les enseignants à chaque niveau d’étude et l’évolution globale du niveau de la population. Le coupable? La massification de l’enseignement.

Et je reposte ces quelques citations qui traversent l’histoire de France (source) :

“Le niveau baisse, mais les coûts de l’école augmentent” (Un député fribourgeois, La Liberté 29.10.2001).
«Nous sommes préoccupés du maigre résultat obtenu, dans les examens, par l’analphabétisme secondaire… »«La décadence est réelle, elle n’est pas une chimère: il est banal de trouver vingt fautes d’orthographe dans une même dissertation des classes terminales.» (Noël, Deska, 1956).
«Avec les copies d’une session de baccalauréat, on composerait un sottisier d’une grande richesse…»«L’enseignement secondaire se primarise…» (Lemonnier, 1929).
«J’estime que les trois quarts des bacheliers ne savent pas l’orthographe.» (Bérard, 1899).
«D’où vient qu’une partie des élèves qui ont achevé leurs études, bien loin d’être habiles dans leur langue maternelle, ne peuvent même pas écrire correctement l’orthographe?» (Lacombe, 1835)

Et le cumul des mandats, au fait?

Nouveau petit travail sur les données par député du site NosDéputés.fr (épisode 1 ici, épisode 2 là), en se focalisant cette fois sur la question du cumul des mandats. L’idée est la suivante : quelles sont les caractéristiques des députés qui influent sur leur tendance à cumuler plusieurs mandats?

Pour répondre à cette question, j’ai d’abord fusionné la base des députés actuels et celle des députés de la législature précédente, afin d’avoir plus d’observations et de mettre en évidence d’éventuelles différences (j’ai bien sûr repéré les doublons, c’est-à-dire les députés présents sur les deux périodes, pour ne pas les compter deux fois). J’ai ensuite construit une variable “cumulard”, égale à 1 si le député en question détient plus d’un mandat et à 0 sinon.

D’où ce premier petit tableau :

(%) 2007-2012 2012- Total
non cumulard 14.5 16.6 15.5
cumulard 85.5 83.5 84.5
Total 100.0 100.0 100.0

En moyenne, 84,5% de cumulards… Très légère baisse pour la “promo” en cours…

J’ai ensuite testé un petit modèle (modèle probit binaire), avec, comme variable explicatives : i) le sexe, ii) l’âge (et l’âge au carré en cas de relation non linéaire), iii) une variable “député 2012” pour différencier la législature actuelle de la précédente, iv) une variable “sortant” pour identifier les députés réélus, v) une variable “Ile de France”, pour différencier les députés de la capitale des autres députés, vi) le groupe d’appartenance, avec comme groupe de référence le groupe SRC.

L’enjeu est de voir si certaines variables influent sur la probabilité de cumuler. Résultats :

effet marginal
homme 5.80% **
age 2.74% ***
age² -0.02% ***
député 2012 1.53%
sortant 4.90% *
idf 0.17%
src modalité de référence
ecolo -26.84% ***
gdr -2.10%
nc 7.77%
rrdp 9.03%
udi -3.51%
ump 2.80%
autres -35.29% ***
nb. Obs 903
LR Chi2(13) 65.33 ***

Commentaires (seules les variables étoilées sont significatives, d’autant plus qu’il y a d’étoiles) :

* le fait d’être un homme plutôt qu’une femme augmente la probabilité de cumuler de 5,8 points de pourcentage. Effet de genre, donc,

* l’âge joue également, mais de manière non linéaire : le signe négatif devant la variable “age au carré” signifie qu’on a une courbe en cloche, autrement dit que la probabilité de cumuler augmente avec l’âge jusqu’à un certain seuil, puis diminue ensuite. Compte-tenu de la valeur des coefficients, on peut calculer le point de retournement : en l’occurrence, 57,4 ans (j’ai arrondi les coefficients dans le tableau, on trouve ce point de retournement avec les valeurs exactes),

* pas de différence significative entre nouvelle promo et ancienne promo. En revanche, le fait d’être sortant augmente de près de 5 points de pourcentage la probabilité de cumuler,

* pas d’effet géographique Ile de France. J’ai en revanche testé une autre version du modèle avec une variable par région, deux “régions” ressortent, avec un effet négatif sur la probabilité de cumuler : les députés “Français hors de France”, qui réduisent de plus de 60% la probabilité de cumuler (hypothèse d’interprétation politiquement incorrecte : on a casé là des gens inéligibles ailleurs) et les députés de Poitou-Charentes, qui réduisent cette même probabilité de plus de 20% (hypothèse d’interprétation évidente : les picto-charentais sont des gens biens),

* s’agissant des groupes d’appartenance, effet significatif d’appartenir à un “autre groupe”, qui est un groupe hétérogène, composé des non inscrits et de députés dont l’appartenance à un groupe n’est pas renseignée dans la base. Difficile à interpréter, donc. En revanche, un autre effet très significatif est le fait d’appartenir au groupe écolo, avec une baisse de près de 27 points de pourcentage de la probabilité de cumuler. Aucune différence significative entre les autres groupes.

Conclusion définitive : ça manque de jeunes femmes écolos picto-charentaises, dans l’hémicycle…

PS : sur le sujet du cumul des mandats, lecture incontournable découverte via un commentaire d’un précédent billet (merci Gabriel!), cet Opus de Laurent Bach.

L’économie mondiale en 2050

Goldman Sachs se livre régulièrement à un exercice intéressant : des prévisions de croissance économique à l’horizon 2050, pour un certain nombre de pays, l’accent étant mis sur l’évolution différenciée entre le club des six pays les plus développés (G6), composé des Etats-Unis, du Japon, de l’Allemagne, de la France, du Royaume-Uni et de l’Italie, et les grands pays émergents, à savoir le Brésil, la Russie, l’Inde et la Chine (BRIC).

Premier exercice du genre, à ma connaissance, en 2003, résultats synthétisés dans ce document. Ils ont récidivé récemment (décembre 2011), en actualisant l’analyse, résultats ici. Bien sûr, les prévisions reposent sur différentes hypothèses (forme de la fonction de production, évolution démographique, taux de participation, investissement, progrès technique, etc.), mais les simulations faites sur la période passée sont plutôt convaincantes. Il ne s’agit de toute façon pas de déterminer la valeur du PIB pour tel ou tel pays à la virgule près, mais plutôt d’identifier des tendances.

Dans un premier temps, on peut s’amuser à se faire peur, en se focalisant sur le PIB des pays. On obtient alors ce premier graphique :

En 2050, le leader économique mondial, si l’on considère que le leadership est mesuré par le poids dans le PIB mondial, est la Chine. L’Inde est troisième, le Brésil quatrième et la Russie cinquième. La France, cinquième en 2010, rétrograde au dixième rang. On notera que, selon les projections de Goldman Sachs, la France est derrière l’Allemagne en 2010 mais devant l’Allemagne en 2050…

Même idée, sur un temps plus long, dans ce tableau :

Raisonner sur le PIB n’a cependant qu’un intérêt très limité du point de vue économique : c’est un indicateur de la taille des pays, pas du niveau de vie des habitants. Il convient donc plutôt de regarder les estimations faites sur une autre variable, le PIB par habitant. On obtient alors ce nouveau graphique :

Plusieurs remarques : i) les pays développés restent en tête du classement, avec quelques évolutions en leur sein (recul du Japon, progression du Royaume-Uni), ii) chez les BRIC, c’est la Russie qui progresse le plus, elle passe même devant l’Italie, iii) la forme générale du graphique laisse deviner un processus de convergence entre les pays, les écarts étant plus faibles.

Ce dernier point est confirmé par un dernier graphique :

Les deux graphiques montrent, chacun à sa manière, que le monde devient de moins en moins inégalitaire, conclusion plutôt rassurante.

Au final, la dynamique économique fait grimper dans le classement du PIB les pays dont la population pèse le plus dans la population mondiale, ce qui est une bonne chose : dans un monde égalitaire, après tout, chaque pays devrait peser dans le PIB ce qu’il pèse dans la population. Ceci ne se fait pas au détriment des pays de plus petite taille et/ou des pays développés, puisque les niveaux de vie de l’ensemble des habitants de la planète augmentent. La dynamique économique n’est pas un jeu à somme nulle mais, potentiellement, un jeu à somme positive. C’est aussi ce que montrent ces graphiques.

Le rapport Gallois, c’est quoi?

Le rapport Gallois, c’est :

  • 20 propositions consensuelles droite/gauche, plutôt techniques et donc jamais commentées, pour l’essentiel sur la compétitivité hors coût, déjà partiellement ou totalement mises en oeuvre, qui produiront des effets au mieux dans plusieurs années, certes utiles (on pourrait discuter dans le détail, mais je passe), mais non à même de dynamiser l’économie française à court terme (propositions 1 à 3 puis 6 à 22),
  • une proposition écologiquement incorrecte sur le gaz de schiste rejetée par le gouvernement (proposition n°5), je ne développe pas, donc,
  • une proposition (la proposition n°4), qui a focalisé toute l’attention des médias avant et après la sortie du rapport, qui a provoqué le quasi-orgasme quasi-évanouissement de l’ensemble des patrons du Medef. Je la cite :

“créer un choc de compétitivité en transférant une partie significative des charges sociales jusqu’à 3,5 SMIC – de l’ordre de 30 milliards d’euros, soit 1,5 % du PIB – vers la fiscalité et la réduction de la dépense publique. Ce transfert concernerait pour 2/3 les charges patronales, et pour 1/3 les charges salariales.”

 Les économistes se sont logiquement focalisés sur cette dernière proposition (je cite des économistes comme il faut, des économistes que le gouvernement aimerait faire entrer au CAE je pense). Conclusion implacable : c’est du grand n’importe quoi. Philippe Martin et Pierre-Olivier Gourinchas, dans une tribune pour Libération, montrent que cette mesure s’apparente à une forme de dévaluation qui va à l’évidence peser sur le pouvoir d’achat des français, et que les autres mesures visant à améliorer la compétitivité hors coût, certes utiles pour la croissance de long terme, n’auront pas d’effet à court terme sur la croissance et l’emploi.  Pierre-Cyril Hautecoeur enfonce le clou sur le même point, dans Le Monde, en se désespérant des stratégies calamiteuses que tous les pays européens sont en train de mettre en oeuvre. Alexandre Delaigue les avait devancé sur le même sujet, dans ce billet (il y a de légères variations dans leurs analyses, mais ils convergent sur l’essentiel).

D’autres décentrent le débat : Thomas Piketty s’énerve dans Le Monde en reposant la question de la réforme fiscale, pour rappeler notamment, à juste titre, qu’une réforme fiscale n’a pas pour seul objectif de “renforcer les exportations pour 2013”. Alexandre Delaigue décentre autrement le propos sur Francetvinfo, en expliquant que ce rapport vaut moins par son contenu que par son rôle de “légitimation externe” de politiques que le gouvernement voulait mettre en oeuvre et en se désespérant du fait, qu’une fois de plus, les vrais sujets ne sont pas abordés.

Karine Berger, économiste proche du PS (puisqu’ayant participé à la rédaction du programme économique de François Hollande), a déclaré, le jour de la remise du rapport Gallois et la veille du séminaire gouvernemental (auquel elle a participé), qu’elle retiendrait vingt des vingt-deux propositions du rapport Gallois. Les vingt premières propositions dont je parlais. Visiblement, elle n’a pas été entendue. D’où son communiqué, qui vise à faire évoluer quelque peu le gouvernement lors du débat parlementaire. Courage…

Mon point de vue : i) valider les vingt propositions de Louis Gallois, ça ne mange pas de pain, ii) brancher une réforme fiscale telle que décrite par Piketty et al., plutôt que cette proposition n°4, inepte, iii) mettre au coeur de la stratégie de développement économique, enfin, les politiques relevant plutôt, traditionnellement, de l’économie du travail (politiques de formation, initiale et continue ; politiques visant à améliorer la mobilité professionnelle et géographique, etc.).

Pour conclure. Je ne suis pas naïf : ce que disent les économistes est rarement entendu, car il y a d’autres rationalités qui comptent, à commencer par la rationalité politique. Que les choix du gouvernement soient perpendiculaires aux enseignements de l’expertise économique n’est donc pas surprenant. Mais, sur ce coup là, je pense qu’ils sont aussi politiquement perdants…

Que valent les revues scientifiques? ou “Dis-moi la taille de ton sexe, je te dirai qui tu es”.

L’étude largement médiatisée sur l’expérience de Gilles-Eric Séralini, professeur de biologie moléculaire à l’université de Caen, avait commencé à m’interpeller. Pas mal de buzz dans le milieu de la recherche. Avec, au final, des doutes plus que sérieux sur la méthodologie employée et les conclusions tirées par le chercheur. Une des meilleures analyses sur le sujet, trouvée via @freakonometrics, est sans doute celle-là. Pour le dire vite, les résultats de l’expérience ne sont pas statistiquement significatifs. En gros, on ne peut rien conclure de cette étude sur la dangerosité de l’alimentation OGM. Ça ne veut pas dire que ce n’est pas dangereux, ça ne veut pas dire que c’est dangereux, ça veut dire qu’on n’en sait rien. Question ouverte par certains chercheurs, sur twitter : certes, mais si l’on passait au crible de l’analyse statistique l’ensemble des articles de biologie publiés dans des revues à comité de lecture, la moitié passerait à la trappe. Argument non suffisant pour accepter l’étude, mais qui jette un froid un peu plus large, je dirais.

Et là, ce soir, je découvre l’étude de Richard Lynn, publiée dans la revue Personality and Individual Differencies editée par Elsevier, revue référencée, au moins dans la rubrique psychologie, par la très sérieuse Agence d’Evaluation de la Recherche et de l’Enseignement Supérieur (AERES). L’article est ici (accès payant). Avec une comparaison, à l’échelle mondiale, de la taille des pénis en érection et des stats par pays (pour une synthèse en français, voir ici. J’ai des stats sur le nombre de clics des liens que j’insère, je suis sûr que le lien précédent va battre des records). Sauf que les données sont pourries, la méthodologie douteuse, les résultats bidons.

Forcément, le chercheur que je suis, ça l’interpelle (j’euphémise). Deux articles publiés dans des revues à comité de lecture, autrement dit des articles évalués par 2, 3, 4, 5 chercheurs réputés compétents (le nombre dépend des revues), articles qui s’avèrent après coup plus que douteux, ça fait mal.

Que faut-il en déduire? Que le processus d’évaluation par les pairs (les chercheurs évaluent d’autres chercheurs) n’est pas infaillible. Il y a de mauvais articles dans des “bonnes” revues (tout comme il y a de bons articles dans des revues “mal classées”, car certains chercheurs s’auto-censurent, pensant ne pas pouvoir accéder aux meilleurs supports). Que ceci ne signifie pas que le processus est à rejeter totalement : aucun système n’est infaillible, l’évaluation par les pairs est sans doute le moins mauvais système. Il ne faut pas l’idéaliser, c’est tout.

Je prolonge un peu la réflexion, car j’ai pu participer ces dernières années à plusieurs concours de recrutement de Maître de Conférences, de Professeurs des Universités, de Chargé de Recherche ou Directeurs de Recherche de différentes institutions. Principalement en économie, mon expérience ne valant donc que pour cette discipline. L’économie, la science des choix, je rappelle.

J’ai été à plusieurs fois surpris (j’euphémise encore) par l’attitude de certains collègues, qui se contentaient, pour évaluer les candidats, de regarder le classement des revues dans lesquelles ils avaient publiés. Pas le temps de lire les articles ou autres productions, de toute façon. Avec une tendance à internaliser les normes les plus récentes assez sidérante. Capacité de réflexivité tendant asympotiquement vers zéro.

Sans doute certains auraient-ils pu plaider pour le recrutement d’un Gilles-Eric Séralini ou d’un Richard Lynn à l’aune du rang de leurs publications : après tout, ils ont publié dans de bonnes revues, et ils devraient avoir un nombre de citations phénoménal, l’un comme l’autre…