La productivité scientifique des Régions françaises

Gaïa Universitas a publié il y a quelques jours un billet intéressant intitulé “Excellence et productivité scientifique des ensembles régionaux”. Elle montre, notamment au travers de ce graphique, que le nombre de publications des Régions françaises est proportionnel à leur taille :

En gros, une région deux fois plus grande en nombre de chercheurs publie deux fois plus. Soit une productivité identique pour toutes les régions (j’ai dit en gros, on s’écarte parfois un peu de la droite, mais comme le signale Rachel, très bonne corrélation quand même).

Inévitablement, certains commentateurs se sont empressés de dire que “oui mais bon, dans les grandes régions, les publications sont sûrement de meilleure qualité quand même!!!”. Question légitime, plus difficile à trancher empiriquement. L’objectif de ce billet est d’apporter de premiers éléments de réponse.

Je m’appuie pour cela sur le travail réalisé par Michel Grossetti et son équipe sur Toulouse. Je vous avais déjà parlé du début de ce travail dans ce billet : les auteurs montrent qu’on assiste à un phénomène de déconcentration de la recherche pour différents pays. En France, l’Ile de France perd au profit des autres régions en termes de publication scientifique. En présentant ces résultats, Michel Grossetti s’est exposé à la même critique que celle avancée plus haut : “certes, l’Ile de France perd au profit des autres régions, son poids régresse dans les publications, mais les publications franciliennes sont de bien meilleure qualité!!!” (curieusement, ce sont souvent des chercheurs d’Ile de France qui émettent ce genre de remarque…).

Pour éprouver cette hypothèse, Michel Grossetti et Béatrice Millard ont poursuivi leurs investigations, synthétisées dans cet article. Ils retrouvent d’abord le mouvement de déconcentration de la recherche, au détriment des régions centres et au profit des régions intermédiaires et périphériques, et ce pour de nombreux pays (Etat-Unis, Royaume-Uni, France, etc.).

Surtout : ils se focalisent plus loin, pour la France, sur l’évolution de la concentration spatiale de l’ensemble des publications, d’une part, et du sous-ensemble des 10% des publications les plus citées (on considère la qualité d’une publication augmente avec le nombre de fois où elle est citée). En reprenant leurs chiffres, j’ai construit ce petit tableau, qui donne la part de l’Ile de France, de 1993 à 2003, dans :

1993 1998 2003
l’ensemble des publications (1) 45% 38% 39%
les 10% des publications les plus citées (2) 54% 45% 42%
ratio (1)/(2) 1,21 1,19 1,09

En dix ans, l’Ile de France a vu son poids dans l’ensemble des publications baisser de six points de pourcentage, et du double (douze points) dans les publications les plus citées. Le ratio des deux chiffres, que l’on peut considérer comme une sorte d’indicateur de performance, reste certes supérieur à 1, mais il s’en rapproche dangereusement…

Conclusion? La production scientifique se déconcentre en France, mais la production scientifique de qualité se déconcentre encore plus vite…

Comment expliquer ce phénomène? J’avancerais une hypothèse : conformément à ce que disent Grossetti et Milard, le processus de déconcentration de la production scientifique est très lié aux évolutions démographiques. Les régions hors Ile de France ont des dynamiques plus favorables, donc plus d’étudiants, donc plus de création de postes d’enseignants-chercheurs, donc plus de publications. Si l’on considère en outre que les chercheurs et enseignants-chercheurs récemment recrutés produisent des recherches en moyenne de meilleure qualité que ceux des enseignants-chercheurs en poste depuis plus longtemps, on explique assez bien les chiffres observés : déconcentration de la production et déconcentration plus rapide de la production de qualité.

Effort de Recherche : le match France-Allemagne

Pour mesurer l’effort de recherche des pays (ou régions, secteur, entreprise, etc.), on utilise le plus souvent comme indicateur l’intensité technologique, rapport des dépenses de Recherche et Développement au PIB. En 2000, l’Europe, dans le cadre de la stratégie de Lisbonne, s’est fixé pour objectif d’atteindre une intensité technologique de 3% pour… 2010. N’y étant pas parvenu, le même objectif est maintenant assigné pour 2020.

A l’heure où la référence ultime semble être l’Allemagne, on peut s’interroger sur l’évolution de l’effort de recherche entrepris en France comparativement à son voisin allemand. On obtient ce graphique (données Eurostat) :

Au milieu des années 1990, le “score” de la France était légèrement supérieur à celui de l’Allemagne. Il est depuis inférieur, pour représenter en 2010 environ 80% du ratio allemand.

Quitte à se situer dans une stratégie d’imitation vis-à-vis de l’Allemagne, je suggère à nos politiques de l’imiter sur ce plan là plutôt que sur d’autres…

 

Régions Françaises : quel effort pour l’enseignement supérieur et la recherche?

Bien que les Régions françaises n’aient pas la compétence en matière de Recherche, toutes soutiennent ce levier essentiel de la croissance économique, notamment dans le cadre de leur compétence en matière d’action économique.

On peut alors s’interroger sur l’effort fourni par chacune d’elle. Premiers éléments de réponse fournis par L’ORS dans sa lettre de synthèse n°43 (non trouvée sur le web). Dans un premier tableau, on y trouve la part, dans l’ensemble du budget des régions, des dépenses dédiées à l’enseignement supérieur, à la recherche et à la technologie. Dans un deuxième tableau complémentaire figure la dépense “enseignement supérieur” par étudiant. En croisant les informations de ces deux tableaux, on peut construire le tableau suivant :

A titre d’illustration, la Région Poitou-Charentes dépense 104€ par étudiant contre 160€ en moyenne dans l’ensemble des régions, ce qui la place au 13ème rang des 22 régions métropolitaines. S’agissant du poids des dépenses consacrées à l’enseignement supérieur, à la recherche et à la technologie, il est de 2,3% en Poitou-Charentes, contre 3,5% France entière, ce qui la place cette fois au 18ème rang.

Pour compléter l’analyse, je suis allé chercher des données sur les populations régionales, afin d’identifier d’éventuels effets taille : est-ce que les plus grandes régions réservent une part plus importante de leur budget à l’enseignement supérieur et à la recherche? Effectuent-elles une dépense par étudiant plus importante? Réponse en image :

Pas de corrélation apparente entre ces différentes variables (ce qui est confirmé par les valeurs faibles des coefficients de corrélation de rang), l’effort régional en la matière semble indépendant de la taille des régions. Il  est affaire, sans doute plus, de volonté politique.

Attractivité et rayonnement des villes universitaires

Grand Poitiers et l’AVUF (Association des Villes Universitaires de France) organisent au Théâtre Auditorium de Poitiers (TAP), le vendredi 23 mars 2012, un colloque national sur l’attractivité et le rayonnement des villes universitaires.

J’interviendrai le matin, avec Christophe Demazière, entre 9h45 et 10h30. Michel Grossetti interviendra de 12h00 à 12h45.

Toutes les informations pour cette journée sont ici.

L’excellence des Universités : oui, mais quelle excellence ?!

update : texte publié également ici.

Ci-dessous un texte co-écrit avec Michel Grossetti sur la question de l’excellence. Billet court mais propos important, à contre-courant du discours dominant, nous semble-t-il, concernant la structuration de la recherche en France. En espérant que les politiques l’entendent, que ce soit à l’échelle nationale ou infra-nationale. A diffuser largement si vous le jugez utile (version pdf ici). 

L’excellence des Universités : oui, mais quelle excellence ?!

Olivier Bouba-Olga (Université de Poitiers) & Michel Grossetti (CNRS, Université de Toulouse 2)

Les Universités françaises, en matière de recherche, doivent viser l’excellence. Cependant, la conception de l’excellence mérite d’être précisée, car il nous semble qu’elle peut être dissociée des idées relatives à la « masse critique » et de la tendance à concentrer les moyens pour le motif d’éviter le « saupoudrage ». Notre réflexion s’appuie sur les travaux et réflexions de chercheurs spécialistes de la sociologie et de l’économie des sciences et des analyses bibliométriques. Elle se veut donc fondée empiriquement.

La métaphore de la masse critique[1]

Appliquée à des activités de recherche, la métaphore de la masse critique consiste à dire qu’il faut une densité suffisante de chercheurs dans une institution, une métropole ou une région pour que la qualité de la recherche soit bonne, les chercheurs étant censés avoir besoin de nombreux collègues à proximité pour échanger des idées et être stimulés dans leur travail. Quelques tentatives ont été effectuées pour établir un lien entre le nombre de chercheurs rassemblés dans une même ville ou région et le nombre moyen d’articles publiés par chercheur[2]. Elles n’ont pas pu établir ce lien et tout semble indiquer que la masse critique en matière de recherche n’est rien d’autre qu’une idée reçue, sans fondement empirique. A une échelle agrégée, le nombre de publications d’une ville ou d’une région est en général quasiment une fonction linéaire du nombre de chercheurs, lequel résulte des évolutions de l’enseignement supérieur et des politiques conduites à l’échelle nationale ou locale. Autrement dit, jusqu’à preuve du contraire, tout semble indiquer que la masse critique nécessaire à la réalisation d’une recherche de qualité s’établit très précisément à 1. C’était d’ailleurs exactement l’effectif des spécialistes de théorie physique au bureau des brevets de Berne en 1905. Mais le physicien de cette administration, Albert Einstein pour ceux qui ne l’auraient pas reconnu, n’était pas pour autant isolé car il correspondait avec de nombreux savants : il était donc inscrit dans un réseau d’échanges intellectuels. C’est le réseau qui est important, non la concentration.

La loi de Lotka

Une autre proposition souvent entendue, partiellement liée, consiste à prôner la concentration des moyens sur une petite proportion des auteurs des publications et de leurs laboratoires d’appartenance, ceux à la visibilité scientifique la plus forte. Cette proposition s’appuie sur une régularité empirique, que l’on baptise en général « loi de Lotka »[3] : si 20% des chercheurs sont à l’origine de 80% des publications les plus significatives, pourquoi ne pas concentrer les moyens seulement sur ces 20% ? Ce type de préconisation relève d’un phénomène classique du monde social qui est la tendance au cumul des avantages, l’« effet Mathieu », analysé par le sociologue Robert Merton[4]. Ce type d’analyse occulte le fait que les chercheurs les plus cités sont la partie la plus visible d’un immense travail collectif réalisé par l’ensemble de la communauté scientifique. Pour reprendre une métaphore bien connue, les chercheurs les plus visibles sont des « nains juchés sur les épaules de géants »[5]. Si l’on coupait cette « élite » de sa « base », elle s’étiolerait très rapidement.

Saupoudrage ou arrosage ?

Nous considérons donc que l’excellence n’est pas la caractéristique d’une élite de chercheurs plus connus que leurs collègues, mais la qualité d’ensemble de la recherche d’une ville, d’une région ou d’un pays. Cette qualité ne se mesure pas par le nombre des citations obtenues (qui est seulement et approximativement un indicateur de visibilité), mais par la capacité des résultats produits à se révéler pertinents à l’épreuve du temps et du débat scientifique. De ce fait, il est essentiel de soutenir un large ensemble de laboratoires. Ce type de stratégie se heurte souvent à une incompréhension : soutenir l’ensemble des laboratoires, n’est-ce pas s’exposer au risque du saupoudrage des moyens ? Ne faut-il pas, encore une fois, se concentrer sur les « meilleurs » ? Ce type de réaction pourrait s’entendre si l’on était sûr que les meilleurs d’hier seront aussi les meilleurs de demain. Mais la recherche, c’est une de ses caractéristiques distinctives, est une activité marquée par une incertitude radicale, qui rend impossible l’identification de « l’élite » de demain. Prôner le soutien à l’ensemble des chercheurs, sur la base, pour l’essentiel, de la qualité des projets futurs plutôt que sur la récompense des succès passés, ne correspond pas à une stratégie de « saupoudrage », mais plutôt à une stratégie « d’arrosage » : nous ne pouvons pas savoir à l’avance où vont éclore les meilleures recherches de demain. En arrosant un seul endroit, nous pourrions nous priver de voir éclore l’excellence de demain…


[1] Pour un développement plus long, voir ce texte.

[2]Voir par exemple l’article suivant : Bonnacorsi A. et Daraio C., 2005, « Exploring size and agglomeration effects on public research productivity”, Scientometrics, Vol. 63, n°1, pp.87-120.

[3] LotkaAlfred J. (1926). “The frequency distribution of scientific productivity”. Journal of the Washington Academy of Sciences 16 (12): 317–324.

[4] Merton Robert (1968). The Matthew effect in science. Science 159:56–63. Pagereferences are to the version reprinted in Merton (1973). The Sociology of Science. Chicago University Press, Chicago.

[5] Cette citation attribuée à Newton peut s’entendre en dynamique : les chercheurs d’aujourd’hui (les « nains ») s’appuient sur les connaissances accumulées depuis des siècles par leurs prédécesseurs. Elle doit s’entendre également en statique : la qualité du travail de l’élite d’aujourd’hui (les « nains ») dépend étroitement de la masse du travail réalisé par la base actuelle…

Pour une nouvelle démarche d’évaluation

L’Association Française d’Economie Politique vient de publier un document intitulé “Pour une nouvelle démarche d’évaluation des
laboratoires de recherche, des enseignants-chercheurs et des chercheurs en économie”, coordonné par Gabriel Colletis et Thomas Lamarche.

Le document complet est ici.

En voici la présentation reprise du site de
l’AFEP
:

La Commission évaluation de l’AFEP a regroupé une trentaine d’enseignants-chercheurs et de chercheurs qui se sont organisés en
trois sous-groupes : l’un consacré à la question de l’évaluation des laboratoires de recherche, l’autre à celle de l’évaluation des enseignants chercheurs, le troisième à la question des
publications.

 Ces trois sous-groupes ont travaillé en parallèle et de façon concertée pour produire le présent document. La méthode de
travail a donc été itérative et a favorisé le débat. Au final, les contributeurs ont convergé sur l’essentiel et ont maintenu certaines différences d’appréciation sur tel ou tel aspect de
l’analyse et des préconisations (en particulier sur l’AERES).

 Le présent document se compose de cinq parties :

La première partie (I) pose la question générale de l’évaluation dans le contexte actuel en examinant les différents aspects des
pratiques actuelles, et que l’AFEP entend contester. Au final, apparaît clairement la nécessité d’une clarification de l’intention de l’évaluation. À l’opposé de l’actuelle évaluation sanction,
que l’on peut suspecter d’introduire de sérieux biais, l’AFEP propose une évaluation professionnelle visant à promouvoir la qualité et le pluralisme des approches, des méthodes et des objets de
recherche.

 La deuxième partie (II) analyse les conditions d’évaluation des laboratoires de recherche. La question fondamentale est celle
de leur cohérence avec les missions que la société assigne à ces laboratoires, missions parmi lesquelles l’élaboration de questions de recherche ayant une finalité d’avancée des connaissances
et/ou de production de savoirs utiles est essentielle. Le corollaire de cette question est la façon dont on se représente ce qu’est un laboratoire. Dominent actuellement la représentation d’un
laboratoire comme somme de chercheurs produisants et des modalités d’évaluation reflétant cette conception. L’AFEP entend rappeler que les missions fondamentales des laboratoires ne peuvent être
réalisées qu’à la condition de considérer qu’un laboratoire est un collectif de chercheurs rassemblés autour d’un projet scientifique porté par des valeurs partagées. Les modalités d’évaluation
des laboratoires que l’AFEP entend promouvoir sont en cohérence avec la dimension collective, le rôle social et la qualité scientifique attestée par un projet des laboratoires
concernés.

 La troisième partie du présent document (III) concerne l’évaluation des enseignants-chercheurs. Dans l’actuelle pratique
d’évaluation, les enseignants chercheurs (EC) sont pour l’essentiel évalués en fonction de leur activité de publication. Si ce n’est pas le rang des publications mais leur nombre qui détermine la
qualité de chercheur « publiant » ou « produisant »2 (2 pour un EC, 4 pour un chercheur), l’appréciation de la « qualité » de l’EC dépend en revanche du rang des publications issu de la liste de
la section 37 du Cnrs. Les conséquences néfastes de cette façon d’évaluer l’activité des enseignants-chercheurs sont nombreuses et considérables, notamment pour ce qui est de l’innovation
scientifique. L’AFEP propose de reconsidérer profondément le mode d’évaluation des enseignants-chercheurs en reconnaissant la diversité de leurs missions et celle de leurs pratiques. Plutôt que
de les considérer comme des individus isolés et calculateurs, intéressés de façon principale par l’optimisation de leur carrière et leur accès aux primes, l’AFEP entend promouvoir la liberté du
chercheur et son autonomie dans le cadre de collectifs orientés par le souci d’une progression de chacun et de tous, au service de la société.

 La quatrième partie (IV) rassemble les préconisations de l’AFEP dans la perspective d’une refonte très profonde de la
démarche d’évaluation. Cette partie propose tout d’abord des préconisations à caractère général puis des préconisations aux deux niveaux appréhendés dans ce document : celui des laboratoires,
celui des enseignants chercheurs. L’ensemble de ces préconisations résulte des débats que la commission a eus pendant le temps de son existence, des analyses qui ont été produites, de l’examen
aussi de travaux disponibles portés à la connaissance de la commission par ses membres. Un espace spécifique a été créé sur le site de l’AFEP afin de déposer certains de ces travaux ou
documents.

La cinquième et dernière partie du présent document (V) rassemble sous la forme d’annexes des extraits de documents qui ont été
utilisés pour la production de ce travail.

Labex (suite) : petite réponse à la réponse de T. Coulhon

 

Thierry Coulhon, directeur au Commissariat Général à l’Investissement, en charge des dossiers Idex, Labex et Equipex, a été interviewé  par
Educpros
suite à la publication des Labex. Petit extrait en lien avec la question de la
masse critique 
:

Question : l’excellence est partout, indiquait Valérie Pécresse. La concentration des labels d’excellence sur un nombre de
sites restreints ne contredit-elle pas cette assurance de la ministre ?

Réponse : la concentration est relativement importante, ce qui n’a rien de surprenant. A noter tout de même un grand nombre de
projets en réseau. La variable “aménagement du territoire” ne fait en effet pas partie des critères de choix a priori : ce n’est pas le but de l’opération. La carte de l’excellence est ce qu’elle
est, mais elle ne se réduit pas aux zones de concentration : il existe des sites à visibilité internationale mais aussi des pépites.

C’est comme si on dévoilait des résultats qui statistiquement, sont des évidences. Evidemment, l’Ile-de-France ou la région
Rhône-Alpes sont très représentées, mais il y a aussi Amiens, Limoges, Clermont-Ferrand, Brest, Lille… L’objectif est de reconnaître la valeur là où elle se trouve, grâce justement à cette
variété d’appels d’offres. Notre but n’est pas de changer le profil du pays, c’est de donner les moyens, à toutes les échelles, d’aller plus loin.

Thierry Coulhon confond (volontairement ou involontairement, je ne sais pas…) deux choses :

* que l’Ile de France concentre plus de Labex que les autres régions est tout sauf anormal : la région Capitale concentre une part
importante des ressources scientifiques, de l’ordre de 40% des chercheurs publics en 2006 selon les données de l’OST,

* la question n’est donc pas de savoir s’il est normal que l’Ile de France concentre plus de Labex que les autres régions, mais s’il
est normal qu’elle concentre un nombre de Labex plus que proportionnel à sa taille. Or, c’est ce que l’on observe : l’Ile de France concentre 55% des Labex pour environ 40% des chercheurs,
soit un ratio de 1.25.

Cette sur-dotation est-elle « normale » ? Tout dépend en fait des hypothèses que l’on peut faire en matière de
« performance » des régions. Si l’on considère que l’Ile de France est 1.25 fois plus performante que les autres régions, alors cette dotation est normale. Si elle est aussi performante
que les autres, elle est moins normale, a fortiori si elle est inférieure à 1…

Comme expliqué dans notre
texte
, les études empiriques disponibles montrent plutôt l’existence d’une relation linéaire entre taille des villes ou des régions (mesurée par le nombre de chercheurs par exemple) et leur
production scientifique (nombre de publications par exemple). Bref, des indices de performance autour de 1. S’agissant de la France, l’indice pour la région Capitale est un peu inférieur à 1, quelque soit les indicateurs que l’on mobilise.

Il ne s’agit bien sûr pas de dire que pour tout dispositif la dotation de chaque région doive être égale à son poids en termes de
ressource, on peut tout à fait concevoir que pour un dispositif précis il soit bien supérieur ou bien inférieur, sur la base d’autres considérations. Mais en agrégeant l’ensemble des dispositifs,
il serait bon que les dotations ne conduisent pas systématiquement à des sur-dotations des plus grosses régions.

Labex, masse critique et autres futilités

Dans la continuité de la publication de la liste des Labex et plus généralement de la politique de la recherche et de l’enseignement
supérieur menée en France, voici une tribune co-écrite avec des collègues toulousains spécialistes de sociologie et de géographie des sciences.

Nous avions rédigé cette tribune en réaction aux propos de Jean-François Dhainaut, directeur de l’AERES, dans les Echos. Nous l’avions logiquement proposée aux Echos, qui avaient accepté de la publier sans pouvoir nous dire
quand. Comme elle n’a toujours pas été mise en ligne, (no comment) je la publie ici.

Déconcentration de la recherche

Laboratoires d’Excellence

La liste des Labex est tombée récemment.

Il y aurait beaucoup de choses à dire sur cet appel à projets “Laboratoires d’excellence”, plus
généralement sur la politique de la recherche du gouvernement français. Temps trop contraint en ce moment, j’espère pouvoir écrire quelques billets sur le sujet rapidement. Dans l’attente, voici
une lettre ouverte de Jean-Pierre Gesson, Président de l’Université de Poitiers :

Enseignement supérieur et recherche : une stratégie d’excellence ?

Labex, Equipex, Idex, les résultats pleuvent et tombent à côté d’un objectif : renforcer l’université
française dans le grand bain international

La marche à l’excellence ?

La France a été traumatisée plus que tout autre pays par le classement de Shanghai. Le fait qu’aucune
université ou école française ne figure dans les premiers mondiaux a été interprété comme une preuve de la faiblesse de la recherche française. L’analyse objective des résultats globaux de notre
pays démontre à l’évidence que cette analyse est fausse.

Une élémentaire rigueur scientifique imposerait de discuter de la validité des critères utilisés dans
ce classement avant d’en utiliser la valeur. Mais tel un oracle ce classement est médiatisé chaque année. Il en est de même du classement du Times Higher Education dont le principe est basé sur
une forme de sondage de popularité auprès d’experts. D’autres classements existent (CHE, Leiden, QS, …), pertinents ou discutables, mais moins médiatiques. La faiblesse méthodologique de la
plupart de ces classements n’empêche pas une utilisation abusive.

Mais la question essentielle pour notre pays n’est pas de savoir si telle université ou école peut être
classée demain dans le top ten des établissements mondiaux. Quel intérêt d’avoir un Harvard ou Oxford français si globalement la recherche française n’est pas compétitive ? La vraie question est
surtout comment organiser la recherche française pour la rendre globalement plus efficiente. Il était nécessaire de lui en donner les moyens organisationnels et financiers pour rester à un haut
niveau au plan mondial. Mais comment ?

La première condition a été réunie à partir de 2007 en donnant aux universités une autonomie élargie.
Cette approche que l’on peut qualifier de responsabilisante a été combattue par certains au nom d’une égalité mythique qui n’a jamais existé et qui n’existera jamais. Son principal intérêt est de
permettre aux établissements de mettre en place des stratégies spécifiques en fonction de leurs caractéristiques propres. Cette liberté, toutefois soumise à des régulations nationales
nécessaires, est une chance pour les activités de recherche dont il est souvent difficile de prédire les résultats et applications. Inutile de rappeler de nombreux exemples célèbres.

La deuxième étape étant celle de l’augmentation des moyens, le gouvernement a alors décidé d’utiliser
un emprunt de grande ampleur pour financer la recherche. Si on ne peut que se louer qu’un emprunt serve à de l’investissement, encore faut-il que son utilisation soit optimisée pour être
efficace. Le rapport Juppé-Rocard a servi de base à la stratégie développée : concentrer les moyens sur un nombre limité de sites (5 à 10). Malheureusement cette proposition, qui ressemble plus à
un « gosplan » soviétique qu’à une approche réaliste, est basée sur des erreurs d’appréciations très graves. N’est-il pas écrit par exemple dans ce rapport que la faiblesse des universités
françaises vient de leur taille insuffisante ! Cet axiome a été repris par certains qui insistent outrageusement sur la taille critique comme facteur indispensable à l’excellence (une définition
par ailleurs très floue). Mais alors pourquoi le MIT qui n’a que 10 000 étudiants est-il toujours classé dans les premiers établissements mondiaux et Harvard avec ses 18 000 étudiants est-elle
une université moyenne ?

Des bons choix pour l’excellence ?

Après l’Opération campus, les projets Equipex, Labex, Idex, la carte universitaire française pourrait
être totalement bouleversée. Des sites universitaires sont donc laissés à eux mêmes à côté d’autres fortement dotés. Sans insister sur les conditions d’attribution de ces moyens ayant abouti à
des déséquilibres indécents, on peut se demander quel en sera le résultat ? Un échec prévisible car l’augmentation du rayonnement de la recherche française ne sera pas à la hauteur des
financements apportés. Pourquoi ? Parce que l’attribution des moyens aura plus reposé sur la taille d’un site que sur tout autre paramètre alors que toutes les études montrent que la productivité
scientifique n’est pas directement proportionnelle à la taille et aux moyens apportés. Parce que l’on aura donné le sentiment que la partie était jouée d’avance et que l’on aura ainsi découragé
une bonne partie des chercheurs français. Une fois les sites de l’Opération Campus connus, était-il utile de demander aux autres de candidater aux appels à projets d’excellence ?

L’avenir dira si la surconcentration des moyens est la meilleure voie vers l’excellence de
l’enseignement supérieur et de la recherche.

Jean-Pierre Gesson

Président de l’Université de
Poitiers

 

L’AERES et le Ministère se réveillent

* l’AERES décide de ne plus accorder
de note globale aux laboratoires
 : « Principale évolution : la note globale d’une unité de recherche (ou d’une équipe de recherche) est remplacée par une appréciation textuelle
courte bâtie sur les notes multicritères. »

Les non initiés se demanderont sans doute quelle est l’importance d’une telle évolution, les initiés sûrement pas. Toute personne
normalement constituée ne peut que considérer ce système de note globale comme absurde.

Le problème est que la plupart des personnes normalement constituées répondent aux incitations : si on leur dit que tout dépend
d’une note globale, ils feront tout pour obtenir la “bonne” note globale. En prenant le cas échéant des décisions
absurdes
.

* Le Ministère vient d’annoncer officiellement le report à une date non encore déterminée de la campagne d’évaluation des enseignants –
chercheurs. Evaluer, individuellement, sur la base d’un dossier, de manière centralisée, l’ensemble des enseignants-chercheurs des Universités françaises… Staline, réveille-toi, ils sont devenus
fous (musique).