L’évaporation académique : les qualifiés non postulants

Billet intéressant de Baptiste Coulmont sur l’évaporation académique. Petite explication : pour décrocher un poste à l’Université, il faut, avant de postuler, passer par une phase de qualification en déposant un dossier auprès du CNU. Si on est qualifié, on peut candidater là où des postes sont ouverts.

Baptiste Coulmont a collecté des statistiques sur le site du Ministère sur le nombre de candidats à la qualification, le nombre de personnes qualifiées, le nombre de personnes qui candidatent une fois qualifiées et le nombre de poste, le tout par section disciplinaire. A partir de ces chiffres, il est possible de calculer différents ratio :

  • le taux de qualification, rapport entre le nombre de personnes qualifiées et le nombre de candidats à la qualification,
  • le taux d’évaporation, rapport entre le nombre de candidats qualifiés qui ne postulent pas ensuite et le nombre total de candidats qualifiés,
  • le taux de pression, rapport entre le nombre de candidats qualifiés postulant et le nombre de postes ouverts.

En quelques graphiques, Baptiste Coulmont montre que le taux d’évaporation est corrélé postivement au taux de qualification : les sections les plus « laxistes » sont celles pour lesquelles l’évaporation est la plus forte. Il est également corrélé positivement au taux de pression : plus le ratio candidats/postes est fort, plus l’évaporation est forte, des personnes qualifiées ne prennent sans doute pas la peine de postuler lorsqu’ils savent que les chances de décrocher un poste sont particulièrement faibles. Il semble cependant que le lien soit plus fort entre taux d’évaporation et taux de qualification qu’entre taux d’évaporation et taux de pression, ce que je me suis empressé de vérifier en construisant une petite matrice des corrélations :

tx_evap tx_qua~f tx_pre~n
tx_evap 1.0000
tx_qualif 0.7156 1.0000
tx_pression 0.4604 0.4759 1.0000

Intuition vérifié, le coefficient est sensiblement plus fort. Cependant, à bien y regarder, il y a une section atypique dans l’ensemble des sections disciplinaires : la section 72 (Epistémologie, histoire des sciences et des techniques). Elle prend des valeurs « aberrantes », aussi vaut-il mieux l’exclure des calculs (Baptiste Coulmont l’a d’ailleurs enlevée pour construire ses graphiques). On obtient cette nouvelle matrice :

tx_evap tx_qua~f tx_pre~n
tx_evap 1.0000
tx_qualif 0.7357 1.0000
tx_pression 0.6439 0.4850 1.0000

L’écart se réduit sensiblement. On note également que la corrélation entre taux de qualification et taux de pression reste assez faible.

Dans son graphique le plus abouti, Baptiste Coulmont représente les trois indicateurs :

En abscisse ce que j’appelle le taux de pression, en ordonnée le taux d’évaporation, les codes couleurs permettent de différencier les taux de qualification.

Pour aller un cran plus loin, j’ai testé une petite régression avec comme variable expliquée le taux d’évaporation et en variables explicatives le taux de qualification et le taux de pression. J’ai également introduit une variable par grande discipline (Droit, Lettres, Sciences, Pharmacie), pour savoir s’il existait, au-delà de ces taux, des spécificités disciplinaires. La section 72 est toujours exclue des calculs. On obtient ceci :

Coefficient Ecart-type
tx_qualif 0,383 0,123 ***
tx_pression 0,012 0,003 ***
Lettres référence
Droit -0,063 0,055
Pharmacie 0,121 0,067 *
Sciences 0,084 0,039 **
Constante 0,011 0,076

Le modèle est plutôt bon, il explique près de 70% de la variance des taux d’évaporation. Les deux taux (taux de qualification et taux de pression) influent positivement sur le taux d’évaporation. On remarque également que par rapport aux sections « Droit », les sections « Sciences » et « Pharmacie » influent positivement sur le taux d’évaporation. Pas de différence entre Droit et Lettres, en revanche.

J’ai testé le même modèle en introduisant une nouvelle variable pour intégrer la taille des sections. J’ai simplement ajouté le nombre de personnes qualifiées pour intégrer cet élément. Les résultats sur les autres variables sont peu modifiés, la variable introduite est elle-même significative et joue négativement : plus une section est grande, moins le taux d’évaporation est élevé.

Coefficient Ecart-type
tx_qualif 0,381 0,119 ***
tx_pression 0,011 0,003 ***
qualif -0,0003 0,000 **
Lettres référence
Droit -0,068 0,053
Pharmacie 0,122 0,065 *
Sciences 0,133 0,045 ***
Constante 0,056 0,077

Je ne pense pas qu’on puisse aller plus loin dans l’analyse avec les statistiques disponibles, mais comme suggéré dans le document du Ministère, une analyse plus poussée de ce phénomène d’évaporation ne serait pas inintéressant, une enquête auprès d’une cohorte de personnes concernées serait sans doute la meilleure stratégie dans ce sens.

Risque de pauvreté des enfants : la France vire en tête!

Eurostat vient de publier une note sur le risque de pauvreté et d’exclusion sociale dans l’Union à 27. On y découvre notamment, pour 2011,  le pourcentage d’enfants menacés de risque de pauvreté monétaire en fonction du lieu de naissance des parents (parents nés dans le pays de résidence vs. au moins un parent né à l’étranger).

Les chiffres pour la France ne sont pas inintéressants : 14,1% d’enfants menacés de risque monétaire quand les deux parents sont nés en France, mais 39,3% quand un des parents est né à l’étranger. Les moyennes pour l’UE27 sont respectivement de 18,3% et 31,5%.

Je me suis donc empressé de récupérer les données du tableau et de faire quelques calculs, en rapportant notamment les deux valeurs. Voici ce que j’obtiens :

Pays nés dans le pays de résidence au moins un parent né à l’étranger ratio
UE27 18,3 31,5 1,7
Belgique 12,1 33,9 2,8
Danemark 7,8 24,8 3,2
Allemagne 14,2 24,8 1,7
Estonie 19,7 16,9 0,9
Grèce 19,8 43,1 2,2
Espagne 23,2 45,5 2,0
France 14,1 39,3 2,8
Italie 24,4 33,5 1,4
Chypre 8,9 22 2,5
Lettonie 24,6 25,3 1,0
Lituanie 23,3 37,3 1,6
Luxembourg 11,4 24,5 2,1
Hongrie 22,9 21,4 0,9
Malte 21,3 17,9 0,8
Pays-Bas 10,9 29,6 2,7
Autriche 8,4 28,1 3,3
Portugal 20,6 26,7 1,3
Slovénie 12,8 23,8 1,9
Finlande 10 26,6 2,7
Suède 9,5 29,1 3,1
Royaume-Uni 16,2 23,2 1,4
Islande 10,2 18,7 1,8
Norvège 5,7 25,3 4,4
Suisse 12 22,7 1,9

Si on regarde la deuxième colonne, on s’aperçoit que la France a un des « scores » les plus mauvais : 3ème pays, derrière l’Espagne et la Grèce. Il ne fait pas très bon avoir un parent né hors de France, en France…

Mais ce n’est pas tout : je me suis amusé à regarder la position de la France sur la troisième colonne. De manière plutôt intéressante, on constate que les pays du Nord de l’Europe ont des ratios pourris élevés. La Norvège vire en tête, le Danemark est 3ème et la Suède 4ème (l’Autriche s’intercale en 2ème position). La France n’est pas loin derrière, en 6ème place, juste derrière la Belgique.

Pour combiner les deux informations, j’ai simplement ajouté le classement des pays sur les deux indicateurs. Pour la France, par exemple, on obtient un score de 9 : elle est 3ème sur le premier classement et 6ème sur le deuxième, d’où 6+3=9. On peut alors calculer le rang des pays sur ces nouveaux chiffres : la France arrive brillamment en tête, suivie de la Belgique et de la Grèce.

Qu’est-ce que cela veut dire? Que la France protège mal les enfants dont un parent est né à l’étranger du risque de pauvreté monétaire, c’est l’un des pires pays d’Europe, d’ailleurs. Et comme elle protège bien, dans le même temps, les enfants dont les deux parents sont nés en France de ce même risque, la situation non seulement absolue mais aussi relative des enfants dont un des parents est né hors de France est la pire de l’UE à 27. Oui, vous avez bien lu : la pire…

Made in France et Made in Monde : de nouveaux chiffres

J’en ai parlé à plusieurs reprises (ici, et ) , la comptabilité traditionnelle des échanges extérieurs masque très largement la tendance croissante à la fragmentation des processus productifs. Petite illustration : une entreprise localisée en France exporte une voiture vers l’Allemagne, d’une valeur de 100. Dans la comptabilité traditionnelle, on comptera +100 pour les exportations françaises vers l’Allemagne dans le secteur automobile. Considérons maintenant la fragmentation des processus productifs : pour fabriquer cette voiture, l’entreprise importe des composants d’autres pays, par exemple des pays d’Europe Centrale et Orientale, disons de Slovaquie. Supposons que ces composants importés soient d’une valeur de 40. Une comptabilité en valeur ajoutée affectera +60 d’exportations de la France vers l’Allemagne et +40 d’exportations de la Slovaquie vers l’Allemagne. Supposons en outre que pour fabriquer cette voiture, l’entreprise achète des services à des entreprises localisées en France (design, recherche, communication, etc.), disons pour une valeur de +20. Dans la comptabilité traditionnelle, on compte +100 d’exportations de la France vers l’Allemagne dans le secteur automobile. Dans la comptabilité en valeur ajoutée, on comptera +60 d’exportations, dont +40 pour le secteur automobile et +20 pour les secteurs des services aux entreprises. On le voit, notre perception de la géographie des échanges et des secteurs exportateurs peut en être sensiblement modifiée.

L’OCDE et l’OMC se sont emparés du sujet depuis quelques temps. Ils viennent de mettre en ligne des données très intéressantes sur le sujet (merci à Xavier Desray pour l’info!), ainsi que des synthèses par pays. Ce document, notamment, montre ce que cela change pour la France : le déficit commercial vis-à-vis des Etats-Unis est sensiblement réduit, passant de 27 à 18 milliards de dollars. Idem, dans une moindre mesure, avec la Chine : le déficit passe de 12,3 milliards de dollars avec la comptabilité traditionnelle à 9,8 milliards avec la comptabilité en valeur ajoutée.

Une analyse non plus géographique mais sectorielle permet de souligner un autre point essentiel, qui ne va pas trop plaire aux obsédés de l’industrie mais que voulez-vous, c’est la vie : la France exporte essentiellement des services, qui sont incorporés dans les biens manufacturés. Dans l’ensemble des exportations brutes, la part des services est de 55%.

S’agissant des Etats-Unis, son déficit vis-à-vis de la Chine est réduit de 25%, au profit de l’Allemagne, du Japon et de la Corée du Sud. Les services pèsent 56% des exportations. Quant à l’Allemagne, son déficit commercial vis-à-vis des Etats-Unis se transforme en excédent avec cette nouvelle comptabilité. Les services pèsent également beaucoup dans leurs exportations, avec une part de 49%.

Ce serait bien que les politiques français, à l’échelle nationale comme à l’échelle régionale, s’emparent de ces chiffres et modifient leurs politiques : plutôt que de prôner à longueur de discours le Made in France et de mettre en place des observatoires des relocalisations qui ne serviront strictement à rien, ils devraient prendre acte de cette fragmentation des processus productifs et s’interroger sur le positionnement des entreprises françaises dans les chaînes de valeur ajoutée déployées à l’échelle mondiale. Quels sont nos avantages comparatifs? Comment les renforcer? Comment se rendre indispensable sur certains créneaux, afin de pérenniser ces avantages? Dans le même sens, je leur conseille d’analyser l’ensemble des secteurs, de regarder d’un oeil neuf le secteur des services, de sortir de leur obsession pour l’industrie.

Je sais : c’est pas gagné…

Ai-ce que le nivo bèsse?

Document intéressant de l’Insee sur l’évolution des difficultés à l’écrit et en calcul de différentes classes d’âge.

A l’écrit, les compétences s’améliorent, pour preuve ce graphique (en abscisse, les années de naissance) :

Amélioration qui s’explique notamment par le « développement de l’accès à l’enseignement secondaire : très faible pour les générations nées avant-guerre, il s’est généralisé dans les années 1960. »

Côté calcul, c’est moin bon :

On remarque d’abord que l’évolution des scores entre 2004 et 2011 par classe d’âge est très négative pour les plus anciens, ce que l’Insee interprète comme le signe du veillissement de de l’éloignement progressif du système scolaire. Pour les générations les plus récentes, la dégradation s’expliquerait par « l’usage de plus en plus répandu d’outils micro-informatiques dans la vie quotidienne (ordinateur, calculatrice, smartphone…) [qui] amoindrit sans doute chez les plus jeunes l’intérêt à maîtriser parfaitement les règles de base du calcul ». Côté calcul, les jeunes sont rationnels, donc.

En complément, je renvoie à ce vieux billet (2006), qui explique par un petit exemple le décalage entre l’évolution du niveau perçu par les enseignants à chaque niveau d’étude et l’évolution globale du niveau de la population. Le coupable? La massification de l’enseignement.

Et je reposte ces quelques citations qui traversent l’histoire de France (source) :

« Le niveau baisse, mais les coûts de l’école augmentent » (Un député fribourgeois, La Liberté 29.10.2001).
«Nous sommes préoccupés du maigre résultat obtenu, dans les examens, par l’analphabétisme secondaire… »«La décadence est réelle, elle n’est pas une chimère: il est banal de trouver vingt fautes d’orthographe dans une même dissertation des classes terminales.» (Noël, Deska, 1956).
«Avec les copies d’une session de baccalauréat, on composerait un sottisier d’une grande richesse…»«L’enseignement secondaire se primarise…» (Lemonnier, 1929).
«J’estime que les trois quarts des bacheliers ne savent pas l’orthographe.» (Bérard, 1899).
«D’où vient qu’une partie des élèves qui ont achevé leurs études, bien loin d’être habiles dans leur langue maternelle, ne peuvent même pas écrire correctement l’orthographe?» (Lacombe, 1835)

Et le cumul des mandats, au fait?

Nouveau petit travail sur les données par député du site NosDéputés.fr (épisode 1 ici, épisode 2 là), en se focalisant cette fois sur la question du cumul des mandats. L’idée est la suivante : quelles sont les caractéristiques des députés qui influent sur leur tendance à cumuler plusieurs mandats?

Pour répondre à cette question, j’ai d’abord fusionné la base des députés actuels et celle des députés de la législature précédente, afin d’avoir plus d’observations et de mettre en évidence d’éventuelles différences (j’ai bien sûr repéré les doublons, c’est-à-dire les députés présents sur les deux périodes, pour ne pas les compter deux fois). J’ai ensuite construit une variable « cumulard », égale à 1 si le député en question détient plus d’un mandat et à 0 sinon.

D’où ce premier petit tableau :

(%) 2007-2012 2012- Total
non cumulard 14.5 16.6 15.5
cumulard 85.5 83.5 84.5
Total 100.0 100.0 100.0

En moyenne, 84,5% de cumulards… Très légère baisse pour la « promo » en cours…

J’ai ensuite testé un petit modèle (modèle probit binaire), avec, comme variable explicatives : i) le sexe, ii) l’âge (et l’âge au carré en cas de relation non linéaire), iii) une variable « député 2012 » pour différencier la législature actuelle de la précédente, iv) une variable « sortant » pour identifier les députés réélus, v) une variable « Ile de France », pour différencier les députés de la capitale des autres députés, vi) le groupe d’appartenance, avec comme groupe de référence le groupe SRC.

L’enjeu est de voir si certaines variables influent sur la probabilité de cumuler. Résultats :

effet marginal
homme 5.80% **
age 2.74% ***
age² -0.02% ***
député 2012 1.53%
sortant 4.90% *
idf 0.17%
src modalité de référence
ecolo -26.84% ***
gdr -2.10%
nc 7.77%
rrdp 9.03%
udi -3.51%
ump 2.80%
autres -35.29% ***
nb. Obs 903
LR Chi2(13) 65.33 ***

Commentaires (seules les variables étoilées sont significatives, d’autant plus qu’il y a d’étoiles) :

* le fait d’être un homme plutôt qu’une femme augmente la probabilité de cumuler de 5,8 points de pourcentage. Effet de genre, donc,

* l’âge joue également, mais de manière non linéaire : le signe négatif devant la variable « age au carré » signifie qu’on a une courbe en cloche, autrement dit que la probabilité de cumuler augmente avec l’âge jusqu’à un certain seuil, puis diminue ensuite. Compte-tenu de la valeur des coefficients, on peut calculer le point de retournement : en l’occurrence, 57,4 ans (j’ai arrondi les coefficients dans le tableau, on trouve ce point de retournement avec les valeurs exactes),

* pas de différence significative entre nouvelle promo et ancienne promo. En revanche, le fait d’être sortant augmente de près de 5 points de pourcentage la probabilité de cumuler,

* pas d’effet géographique Ile de France. J’ai en revanche testé une autre version du modèle avec une variable par région, deux « régions » ressortent, avec un effet négatif sur la probabilité de cumuler : les députés « Français hors de France », qui réduisent de plus de 60% la probabilité de cumuler (hypothèse d’interprétation politiquement incorrecte : on a casé là des gens inéligibles ailleurs) et les députés de Poitou-Charentes, qui réduisent cette même probabilité de plus de 20% (hypothèse d’interprétation évidente : les picto-charentais sont des gens biens),

* s’agissant des groupes d’appartenance, effet significatif d’appartenir à un « autre groupe », qui est un groupe hétérogène, composé des non inscrits et de députés dont l’appartenance à un groupe n’est pas renseignée dans la base. Difficile à interpréter, donc. En revanche, un autre effet très significatif est le fait d’appartenir au groupe écolo, avec une baisse de près de 27 points de pourcentage de la probabilité de cumuler. Aucune différence significative entre les autres groupes.

Conclusion définitive : ça manque de jeunes femmes écolos picto-charentaises, dans l’hémicycle…

PS : sur le sujet du cumul des mandats, lecture incontournable découverte via un commentaire d’un précédent billet (merci Gabriel!), cet Opus de Laurent Bach.

L’économie mondiale en 2050

Goldman Sachs se livre régulièrement à un exercice intéressant : des prévisions de croissance économique à l’horizon 2050, pour un certain nombre de pays, l’accent étant mis sur l’évolution différenciée entre le club des six pays les plus développés (G6), composé des Etats-Unis, du Japon, de l’Allemagne, de la France, du Royaume-Uni et de l’Italie, et les grands pays émergents, à savoir le Brésil, la Russie, l’Inde et la Chine (BRIC).

Premier exercice du genre, à ma connaissance, en 2003, résultats synthétisés dans ce document. Ils ont récidivé récemment (décembre 2011), en actualisant l’analyse, résultats ici. Bien sûr, les prévisions reposent sur différentes hypothèses (forme de la fonction de production, évolution démographique, taux de participation, investissement, progrès technique, etc.), mais les simulations faites sur la période passée sont plutôt convaincantes. Il ne s’agit de toute façon pas de déterminer la valeur du PIB pour tel ou tel pays à la virgule près, mais plutôt d’identifier des tendances.

Dans un premier temps, on peut s’amuser à se faire peur, en se focalisant sur le PIB des pays. On obtient alors ce premier graphique :

En 2050, le leader économique mondial, si l’on considère que le leadership est mesuré par le poids dans le PIB mondial, est la Chine. L’Inde est troisième, le Brésil quatrième et la Russie cinquième. La France, cinquième en 2010, rétrograde au dixième rang. On notera que, selon les projections de Goldman Sachs, la France est derrière l’Allemagne en 2010 mais devant l’Allemagne en 2050…

Même idée, sur un temps plus long, dans ce tableau :

Raisonner sur le PIB n’a cependant qu’un intérêt très limité du point de vue économique : c’est un indicateur de la taille des pays, pas du niveau de vie des habitants. Il convient donc plutôt de regarder les estimations faites sur une autre variable, le PIB par habitant. On obtient alors ce nouveau graphique :

Plusieurs remarques : i) les pays développés restent en tête du classement, avec quelques évolutions en leur sein (recul du Japon, progression du Royaume-Uni), ii) chez les BRIC, c’est la Russie qui progresse le plus, elle passe même devant l’Italie, iii) la forme générale du graphique laisse deviner un processus de convergence entre les pays, les écarts étant plus faibles.

Ce dernier point est confirmé par un dernier graphique :

Les deux graphiques montrent, chacun à sa manière, que le monde devient de moins en moins inégalitaire, conclusion plutôt rassurante.

Au final, la dynamique économique fait grimper dans le classement du PIB les pays dont la population pèse le plus dans la population mondiale, ce qui est une bonne chose : dans un monde égalitaire, après tout, chaque pays devrait peser dans le PIB ce qu’il pèse dans la population. Ceci ne se fait pas au détriment des pays de plus petite taille et/ou des pays développés, puisque les niveaux de vie de l’ensemble des habitants de la planète augmentent. La dynamique économique n’est pas un jeu à somme nulle mais, potentiellement, un jeu à somme positive. C’est aussi ce que montrent ces graphiques.

Le rapport Gallois, c’est quoi?

Le rapport Gallois, c’est :

  • 20 propositions consensuelles droite/gauche, plutôt techniques et donc jamais commentées, pour l’essentiel sur la compétitivité hors coût, déjà partiellement ou totalement mises en oeuvre, qui produiront des effets au mieux dans plusieurs années, certes utiles (on pourrait discuter dans le détail, mais je passe), mais non à même de dynamiser l’économie française à court terme (propositions 1 à 3 puis 6 à 22),
  • une proposition écologiquement incorrecte sur le gaz de schiste rejetée par le gouvernement (proposition n°5), je ne développe pas, donc,
  • une proposition (la proposition n°4), qui a focalisé toute l’attention des médias avant et après la sortie du rapport, qui a provoqué le quasi-orgasme quasi-évanouissement de l’ensemble des patrons du Medef. Je la cite :

« créer un choc de compétitivité en transférant une partie significative des charges sociales jusqu’à 3,5 SMIC – de l’ordre de 30 milliards d’euros, soit 1,5 % du PIB – vers la fiscalité et la réduction de la dépense publique. Ce transfert concernerait pour 2/3 les charges patronales, et pour 1/3 les charges salariales. »

 Les économistes se sont logiquement focalisés sur cette dernière proposition (je cite des économistes comme il faut, des économistes que le gouvernement aimerait faire entrer au CAE je pense). Conclusion implacable : c’est du grand n’importe quoi. Philippe Martin et Pierre-Olivier Gourinchas, dans une tribune pour Libération, montrent que cette mesure s’apparente à une forme de dévaluation qui va à l’évidence peser sur le pouvoir d’achat des français, et que les autres mesures visant à améliorer la compétitivité hors coût, certes utiles pour la croissance de long terme, n’auront pas d’effet à court terme sur la croissance et l’emploi.  Pierre-Cyril Hautecoeur enfonce le clou sur le même point, dans Le Monde, en se désespérant des stratégies calamiteuses que tous les pays européens sont en train de mettre en oeuvre. Alexandre Delaigue les avait devancé sur le même sujet, dans ce billet (il y a de légères variations dans leurs analyses, mais ils convergent sur l’essentiel).

D’autres décentrent le débat : Thomas Piketty s’énerve dans Le Monde en reposant la question de la réforme fiscale, pour rappeler notamment, à juste titre, qu’une réforme fiscale n’a pas pour seul objectif de « renforcer les exportations pour 2013 ». Alexandre Delaigue décentre autrement le propos sur Francetvinfo, en expliquant que ce rapport vaut moins par son contenu que par son rôle de « légitimation externe » de politiques que le gouvernement voulait mettre en oeuvre et en se désespérant du fait, qu’une fois de plus, les vrais sujets ne sont pas abordés.

Karine Berger, économiste proche du PS (puisqu’ayant participé à la rédaction du programme économique de François Hollande), a déclaré, le jour de la remise du rapport Gallois et la veille du séminaire gouvernemental (auquel elle a participé), qu’elle retiendrait vingt des vingt-deux propositions du rapport Gallois. Les vingt premières propositions dont je parlais. Visiblement, elle n’a pas été entendue. D’où son communiqué, qui vise à faire évoluer quelque peu le gouvernement lors du débat parlementaire. Courage…

Mon point de vue : i) valider les vingt propositions de Louis Gallois, ça ne mange pas de pain, ii) brancher une réforme fiscale telle que décrite par Piketty et al., plutôt que cette proposition n°4, inepte, iii) mettre au coeur de la stratégie de développement économique, enfin, les politiques relevant plutôt, traditionnellement, de l’économie du travail (politiques de formation, initiale et continue ; politiques visant à améliorer la mobilité professionnelle et géographique, etc.).

Pour conclure. Je ne suis pas naïf : ce que disent les économistes est rarement entendu, car il y a d’autres rationalités qui comptent, à commencer par la rationalité politique. Que les choix du gouvernement soient perpendiculaires aux enseignements de l’expertise économique n’est donc pas surprenant. Mais, sur ce coup là, je pense qu’ils sont aussi politiquement perdants…

Que valent les revues scientifiques? ou « Dis-moi la taille de ton sexe, je te dirai qui tu es ».

L’étude largement médiatisée sur l’expérience de Gilles-Eric Séralini, professeur de biologie moléculaire à l’université de Caen, avait commencé à m’interpeller. Pas mal de buzz dans le milieu de la recherche. Avec, au final, des doutes plus que sérieux sur la méthodologie employée et les conclusions tirées par le chercheur. Une des meilleures analyses sur le sujet, trouvée via @freakonometrics, est sans doute celle-là. Pour le dire vite, les résultats de l’expérience ne sont pas statistiquement significatifs. En gros, on ne peut rien conclure de cette étude sur la dangerosité de l’alimentation OGM. Ça ne veut pas dire que ce n’est pas dangereux, ça ne veut pas dire que c’est dangereux, ça veut dire qu’on n’en sait rien. Question ouverte par certains chercheurs, sur twitter : certes, mais si l’on passait au crible de l’analyse statistique l’ensemble des articles de biologie publiés dans des revues à comité de lecture, la moitié passerait à la trappe. Argument non suffisant pour accepter l’étude, mais qui jette un froid un peu plus large, je dirais.

Et là, ce soir, je découvre l’étude de Richard Lynn, publiée dans la revue Personality and Individual Differencies editée par Elsevier, revue référencée, au moins dans la rubrique psychologie, par la très sérieuse Agence d’Evaluation de la Recherche et de l’Enseignement Supérieur (AERES). L’article est ici (accès payant). Avec une comparaison, à l’échelle mondiale, de la taille des pénis en érection et des stats par pays (pour une synthèse en français, voir ici. J’ai des stats sur le nombre de clics des liens que j’insère, je suis sûr que le lien précédent va battre des records). Sauf que les données sont pourries, la méthodologie douteuse, les résultats bidons.

Forcément, le chercheur que je suis, ça l’interpelle (j’euphémise). Deux articles publiés dans des revues à comité de lecture, autrement dit des articles évalués par 2, 3, 4, 5 chercheurs réputés compétents (le nombre dépend des revues), articles qui s’avèrent après coup plus que douteux, ça fait mal.

Que faut-il en déduire? Que le processus d’évaluation par les pairs (les chercheurs évaluent d’autres chercheurs) n’est pas infaillible. Il y a de mauvais articles dans des « bonnes » revues (tout comme il y a de bons articles dans des revues « mal classées », car certains chercheurs s’auto-censurent, pensant ne pas pouvoir accéder aux meilleurs supports). Que ceci ne signifie pas que le processus est à rejeter totalement : aucun système n’est infaillible, l’évaluation par les pairs est sans doute le moins mauvais système. Il ne faut pas l’idéaliser, c’est tout.

Je prolonge un peu la réflexion, car j’ai pu participer ces dernières années à plusieurs concours de recrutement de Maître de Conférences, de Professeurs des Universités, de Chargé de Recherche ou Directeurs de Recherche de différentes institutions. Principalement en économie, mon expérience ne valant donc que pour cette discipline. L’économie, la science des choix, je rappelle.

J’ai été à plusieurs fois surpris (j’euphémise encore) par l’attitude de certains collègues, qui se contentaient, pour évaluer les candidats, de regarder le classement des revues dans lesquelles ils avaient publiés. Pas le temps de lire les articles ou autres productions, de toute façon. Avec une tendance à internaliser les normes les plus récentes assez sidérante. Capacité de réflexivité tendant asympotiquement vers zéro.

Sans doute certains auraient-ils pu plaider pour le recrutement d’un Gilles-Eric Séralini ou d’un Richard Lynn à l’aune du rang de leurs publications : après tout, ils ont publié dans de bonnes revues, et ils devraient avoir un nombre de citations phénoménal, l’un comme l’autre…

Qui sont tes amis Facebook?

Voici les résultats de la petite enquête lancée il y a quelques temps, afin de dire des choses sur les réseaux socionumériques, en l’occurrence sur Facebook. Les trois questions clés de l’enquête étaient les suivantes, elles ont permis de définir trois variables :

  1. Combien avez-vous d’amis Facebook? variable X
  2. Parmi vos amis Facebook, combien résident dans la même ville que vous? variable Y
  3. Parmi vos amis Facebook, combien de personnes n’aviez-vous jamais rencontré physiquement avant d’être amis sur Facebook? variable Z
S’agissant de la deuxième question, j’aurai préféré demander aux enquêtés le nombre de personnes résidant dans la même région plutôt que la même ville, mais c’est plus compliqué à obtenir sur Facebook.

A partir des valeurs de ces variables, j’ai défini deux indicateurs :

  1. le degré de proximité relationnelle, égal à (X-Z)/X. En clair, il s’agit de la proportion d’amis Facebook que vous aviez rencontré physiquement avec d’être amis sur Facebook.
  2. le degré de proximité géographique, égal à Y/X.
217 personnes ont répondu (un peu plus, mais il y avait quelques réponses incomplètes que j’ai supprimé). L’échantillon n’a rien de représentatif, ce n’était pas l’objectif. Voici les caractéristiques de base des personnes interrogées, pour les variables quantitatives, d’abord :
variable modalité %
genre homme 59%
femme 41%
Ville Poitiers 34%
Paris 12%
Autres 55%
niveau d’étude <bac +3 28%
bac+4 ou 5 49%
>bac+5 24%
utilisation Facebook tous les jours 80%
moins souvent 20%
Puis pour les variables qualitatives :
variable moyenne
age moyen 31,9
nombre d’années résidence 10,1
nombre d’amis Facebook 199,7
nb années sur Facebook 4,1

Le degré de proximité relationnelle

Premier résultat essentiel : le degré de proximité relationnelle des personnes enquêtés est particulièrement élevé. Moyenne de 93%, médiane de 99%, premier quartile de 97%, premier décile de 80%. Résultat conforme à mes attentes : Facebook ne permet pas, pour l’essentiel, de se faire de nouveaux amis, il permet d’entretenir des relations avec des amis que l’on s’est fait hors ligne. Résultat conforme à cette étude américaine.
J’ai estimé un petit modèle économétrique, avec pour variable expliquée le degré de proximité relationnelle et pour variables explicatives les différentes variables disponibles. Voici les résultats (les étoiles indiquent que les variables explicatives sont statistiquement significatives) :
variable expliquée : degré de proximité relationnelle
Coefficient
age -0,49 ***
homme -2,64
<bac+3 modalité de référence
bac +4 ou 5 2,25
>bac+5 -0,49
autre ville modalité de référence
poitiers -1,89
paris -2,41
nb années résidence 0,07
nb amis -0,04 ***
nb années FB 1,75 **
FB intensif -7,71 ***
constante 116,86 ***
n 217
R2 0,26
 Les variables qui ressortent sont l’âge (influence négative sur le degré de proximité relationnelle) et des variables qui caractérisent le mode d’utilisation de Facebook. Le nombre d’amis et l’intensité d’utilisation de Facebook conduisent notamment à une proximité relationnelle plus faible.

Le degré de proximité géographique

En moyenne, la proportion d’amis Facebook qui vivent dans la même ville que les personnes enquêtées est de 19%. Voici la distribution du degré de proximité géographique :
Les résultats sont sensiblement différents selon la ville des enquêtés : la proportion monte à 27% pour les poitevins et à 29% pour les parisiens. Elle est en revanche de 12% pour les résidents des autres villes.
Ces « scores » sont-ils élevés? Plutôt oui, je dirais : si le monde était plat, la proportion d’amis Facebook des habitants d’une ville donnée devrait être égale au poids de cette ville dans la population mondiale, ou dans la population française si on raisonne simplement sur la France. Poitiers ne pèse pas 27% de la population française, Paris ne pèse pas non plus 29% de la population. En raisonnant à l’échelle des régions, les proportions seraient sans doute significativement plus élevées. Dans tous les cas, la géographie reste marquée et les liens locaux sont plutôt importants.
Résultat assez peu surprenant : on entretient sur Facebook des relations développées hors ligne, relations qui se nouent pour une part importante dans la proximité géographique. Résultat conforme là encore avec celui de l’étude américaine citée plus haut, qui montre que 90% des amis facebook des personnes interrogés (des étudiants de premier cycle universitaire) résidaient dans le même Etat US qu’eux.
Comme plus haut, j’ai testé un petit modèle économétrique, dont voici les résultats :
variable expliquée : degré de proximité géographique
Coefficient
age -0,05
homme 2,43
<bac+3 modalité de référence
bac +4 ou 5 -6,08 **
>bac+5 -6,42 *
autre ville modalité de référence
poitiers 13,29 ***
paris 18,36 ***
nb années résidence 0,52 ***
nb amis 0,00
nb années FB -0,67
FB intensif 3,59
constante 12,77 *
n 217
R2 0,29
Ce sont cette fois des variables qui caractérisent les personnes qui influent sur le degré de proximité géographique. Sans surprise, le niveau d’études influe négativement sur ce degré : les personnes ayant un niveau d’études supérieur à bac+3 sont plus mobiles géographiquement. Le nombre d’années de résidence influe logiquement positivement sur le degré de proximité géographique.

Conclusion

A ceux qui pensaient que les réseaux socionumériques étaient susceptibles de bouleverser le monde social, cette petite enquête, sur le cas d’un réseau spécifique (Facebook), montre plutôt le contraire. L’intérêt de Facebook est ailleurs : il permet d’entretenir à moindre coût des relations préexistantes. Un prolongement possible consisterait à s’interroger sur la nature de ces relations (liens forts vs. liens faibles, cf. Granovetter), pour voir le rôle éventuel d’un tel réseau dans l’activitation des liens faibles, dont le rôle stratégique est mis en évidence depuis longtemps par la sociologie économique.

Qu’apprend-on avec les réseaux socio(numériques)?

« Qu’apprend-on avec les réseaux socio(numériques)? » est le thème du Campus européen d’été de la Cité des Savoirs, organisé par l’Université de Poitiers et ses partenaires, du 17 au 21 septembre 2012. Toutes les informations sont disponibles ici.

C’est dans le cadre de ce Campus que j’ai été invité à assurer la conférence d’ouverture, le 17 septembre, de 11h à 12h30 (intervention d’une heure suivie d’une demi-heure de questions/réponses), à la MSHS de Poitiers. Titre de mon intervention : « Réseaux sociaux et réseaux socionumériques : quelques éléments de réflexion ». Voilà en gros de quoi je devrais parler :

L’objectif de la conférence est de s’interroger sur la distinction entre les réseaux sociaux tels que définis par la nouvelle sociologie économique, à la suite notamment des travaux de Mark Granovetter, et les réseaux socionumériques.

La nouvelle sociologie économique a en effet mis en évidence l’importance des relations sociales (liens familiaux, amicaux, anciens collègues, …) pour la coordination entre acteurs, qu’il s’agisse de trouver un emploi, initier un partenariat entre entreprises, développer des collaborations science-industrie, choisir les membres du conseil d’administration d’un groupe, etc. Dans tous les cas, les relations sociales seraient un mode essentiel de coordination car vecteur de confiance.

Sur la base de ces analyses, certains considèrent ensuite que les réseaux socionumériques sont un outil puissant de développement des relations sociales. En nous appuyant sur différents exemples, nous montrerons les limites d’un tel raisonnement : Facebook n’est pas un outil de développement de relations sociales, il est un moyen d’entretenir et d’activer des relations sociales préexistantes (liens forts et liens faibles). Viadeo et LinkedIn ne permettent pas plus le développement de liens sociaux, ils s’apparentent plutôt à des annuaires personnalisés. Twitter, de son côté, peut être vu comme un moyen de construire son propre système d’information. Leur vocation est donc moins de développer des liens sociaux que de réduire des coûts de transaction.

Nous nous interrogerons ensuite sur la géographie des réseaux socionumériques, en nous focalisant sur l’exemple de Facebook. Nous montrerons que l’émergence des réseaux socionumériques ne correspond pas à la « mort de la géographie » et à l’avènement d’un « flat world », mais plutôt à des structures de type « small world », au sein desquels se combinent et s’entretiennent différentes formes de proximité.

Nous finirons par quelques réflexions sur la qualité des informations et des connaissances accessibles via les réseaux socionumériques, plus généralement via internet, suite au débat récurrent entre médias traditionnels et nouveaux médias (cf. les déclarations récentes de Frédéric Begbeider, Laurent Joffrin ou Aurélie Filippetti). Nous en montrerons la complémentarité et insisterons sur les enjeux d’éducation à l’utilisation des réseaux socionumériques, plus que de censure.

Pour les deux premières parties, je m’appuierai notamment sur les travaux que je mène avec Michel Grossetti, ainsi, bien sûr, que sur ma petite enquête Facebook. Troisième partie plus exploratoire.

S’agissant de l’enquête, j’ai finalement 217 réponses exploitables. J’ai commencé à regarder, résultats pas inintéressants… Si vous êtes joueur, vous pouvez poster en commentaire vos pronostics :

Q1 : quelle est, en moyenne, le pourcentage d’amis des personnes interrogées qui résident dans la même ville qu’eux?

Q2 : quelle est, en moyenne, le pourcentage d’amis des personnes interrogées avec qui ils n’ont jamais interagis physiquement avant d’être amis avec eux?