Un transistor thermique quantique

Mis en avant

Le 20ème siècle a vu le développement de l’électronique grâce à l’invention de deux composants : la diode et le transistor. Depuis le début du 21ème siècle, la limitation des ressources énergétiques et la contrainte du réchauffement climatique ont fait de la gestion et de la récupération de la chaleur un enjeu majeur. Ce défi pourrait être facilement réalisé s’il existait l’équivalent thermique de la diode et du transistor électronique. Divers travaux ont récemment essayé de concevoir et de réaliser de tels composants.

C’est dans ce contexte qu’a été réalisé à l’institut P’ la conception théorique d’un tel transistor thermique à partir d’objets quantiques les plus élémentaires que sont les systèmes à deux niveaux. De tels systèmes à deux niveaux sont par exemple des boites quantiques.

Le transistor thermique proposé est un dispositif constitué de 3 systèmes à deux niveaux en interaction, chacun des systèmes à deux niveaux étant couplés à un réservoir thermique. Nous avons montré qu’un courant thermique imposé à l’une des entrées du dispositif (la base) pouvait contrôler et moduler les courants aux deux autres entrées (le collecteur et l’émetteur) jusqu’à pouvoir les éteindre comme un interrupteur. De plus, le courant thermique imposé à la base peut générer des courants importants à l’émetteur et au collecteur faisait ainsi du dispositif proposé un amplificateur de courants thermiques. Ces propriétés (modulation, interrupteur et amplification) font de ce dispositif un transistor thermique. Un tel transistor thermique pourrait en principe être réaliser à partir de trois boites quantiques immergés dans trois nanoparticules et dont les températures pourraient être contrôlés électriquement par effet joule.

Article dans Physcial Review Letters

Article sur le site Arxiv.org

Sur le site de vulgarisation phys.org

System

CSM : Contexte, système et modalités. Une nouvelle ontologie pour la mécanique quantique.

Mis en avant

Deux chercheurs français, Alexia Auffèves et Philippe Grangier proposent un nouveau cadre conceptuel pour la mécanique quantique permettant de mieux l’appréhender. Ces deux chercheurs ont fait l’objet d’un entretien dans le numéro Hiver 2016 du Journal du CNRS. Leurs travaux ont été publiés dans Foundations of Physics et peuvent être trouvés sur Arxiv ici et .

A propos de la mécanique quantique, Richard Feynman disait « Je pense qu’il vaut mieux dire tout de suite que personne ne comprend la mécanique quantique. Si vous le pouvez, évitez de vous dire : mais comment peut-il en être ainsi ? Sinon vous serez submergés, noyés en entraînés vers un gouffre dont personne n’a réussi à s’échapper. Personne ne sait comment il peut en être ainsi. »

La mécanique quantique heurte, il est vrai, le sens commun. Le 9 octobre 2012 au JT de France 2 alors que David Pujadas lui demandait s’il y avait une manière simple de présenter ses travaux qui venait de lui valoir le prix nobel, Serge Haroche avait répondu au journaliste estomaqué que non, il n’y avait pas de manière simple d’appréhender cette discipline qu’est la mécanique quantique.

Pourtant, depuis plus d’un siècle, cette théorie physique n’a reçu aucune contradiction expérimentale et décrit parfaitement tous les phénomènes à l’échelle nanométrique comme les atomes, les molécules… Dit comme cela, cette théorie semble donc rendre compte parfaitement de la réalité. Le problème est justement de savoir de quelle réalité il s’agit.

En physique classique, on cherche à étudier un système. Si l’on connaît les caractéristiques de ce système c’est-à-dire l’état du système (par exemple sa position et sa vitesse), les équations de la physique permettront de prédire son évolution future. L’état du système peut être déterminé par des dispositifs expérimentaux qui peuvent être utilisés en complément afin d’obtenir le plus d’informations sur le système à étudier. Si le système est un personne, une toise permettra de connaître sa taille, une balance son poids, une photo du visage permettra d’obtenir la couleur des yeux et celle des cheveux. Peu importe l’ordre dans lequel sont faites les mesures, les résultats qui constitueront en quelque sorte la carte d’identité de la personne seront toujours les mêmes. De plus, en physique classique, l’état du système préexiste à la mesure qui est faite. Une personne d’1m80, 70 kg aux cheveux blonds et aux yeux bleus avait toutes ces caractéristiques avant même que les mesures soient faites. La réalité est donc l’état du système

Aussi incroyable que cela puisse paraître, tel n’est pas le cas en physique quantique. Par exemple, les grains de lumière, appelés photons sont caractérisés par une quantité appelée polarisation. La polarisation peut être établie par un polariseur. Lorsque qu’un faisceau lumineux est envoyé sur un polariseur d’une certaine orientation (par exemple verticale), une partie des photons est transmise par le polariseur et ces photons ont tous la polarisation du polariseur (verticale). Si l’on met sur les trajets des photons, un second polariseur orienté verticalement, tous les photons transmis par le premier polariseur seront transmis par le second. Si l’on met un polariseur orienté à 45°, alors les photons auront 50% de chances d’être transmis, ces derniers auront alors une polarisation orientée à 45°. Le fait que l’on ne puisse par prédire avec certitude, mais seulement avec des probabilités, si le photon polarisé verticalement sera transmis par le polariseur incliné à 45° a choqué beaucoup de physiciens. De plus, l’état « photon polarisé à 45° » n’existe pas tant que la mesure n’a pas été faite donc ne prééxiste pas à la mesure. Ces deux points, perte de l’objectivité classique (l’état ne prééxiste pas à la mesure) et les probabilités sont au cœur de l’étrangeté quantique.

Le but de l’article d’A. Auffèves et P. Grangier est de faire correspondre le formalisme quantique qui n’a jamais été mis en défaut avec une réalité physique qu’ils définissent et qui va être fondamentalement différent de la réalité classique. La réalité quantique qu’ils posent s’appuie sur ce sur quoi on peut être certain lorsque l’on fait une mesure en mécanique quantique. Par exemple, un photon déjà passé dans un polariseur vertical sera à coup sûr transmis par un second polariseur vertical. Il convient donc d’associer les états quantiques non seulement à un système mais aussi à un dispositif de mesure. La nouvelle ontologie proposée est ainsi basée sur deux principes :

1/ Un état est toujours lié conjointement à un système mais aussi un contexte qui peut être vu comme un appareil de mesure.

2/ En mécanique quantique, pour un couple système-contexte, il est postulé qu’il existe un nombre fini N de modalités (résultats de mesure) mutuellement exclusifs (le résultat ne peut être que l’une de ces modalités et en aucun cas une combinaison).

Lorsque le contexte est changé, les modalités le sont aussi et restent au nombre de N. Il n’est pas possible en faisant deux mesures sur deux contextes différents d’augmenter le nombre de modalités à 2N car cela contredirait le principe précédent. Lorsque l’on change de contexte, on ne peut donc que déduire les probabilités d’obtenir les modalités du nouveau contexte connaissant le résultat du premier contexte. Les probabilités, qui relient donc les modalités issues de différents contextes sont donc introduites naturellement à partir de la réalité. C’est l’une des conséquences les plus belles de cette nouvelle ontologie. Evidemment, il faut abandonner l’idée que les états puissent être attachés à un système indépendamment d’un contexte. Mais est-ce si choquant ? Même en physique classique, le résultat peut dépendre fortement du contexte expérimental. Ainsi, l’image d’un objet éclairé par une onde électromagnétique est très différente selon la longueur d’onde utilisée. Une personne éclairée en lumière visible apparaît comme on la voit. Mais si cette personne est éclairée en rayons X, elle apparaitra comme un squelette alors qu’elle apparaitra dévêtue si on utilise un scanner corporel à ondes millimétriques.

 

Observation d’ondes gravitationnelles issues de la fusion de deux trous noirs

Tel est le titre de l’article publié le 11 février dans Physical Review Letters par la collaboration LIGO et la collaboration VIRGO. Il s’agit de la première détection directe d’ondes gravitationnelles ainsi que de la première détection directe de trous noirs et de leurs fusion. Cette découverte, sans aucun doute, restera dans l’histoire comme l’ouverture d’une nouvelle fenêtre d’observation sur l’univers et la naissance d’une nouvelle discipline : l’astronomie gravitationnelle.

Les détails des observations peuvent être trouvées ici sur le site de la collaboration LIGO et une excellente présentation en est faite sur le site de Physical Review Letters. De quoi s’agit il? En 1915, Albert Einstein publie sa théorie de la relativité générale révolutionnant notre vision de la gravitation. Au lieu de présenter la gravitation comme un champ auquel est soumis n’importe quel objet près d’un corps massif, il décrit la gravitation comme une déformation de l’espace temps. Les corps sont alors soumis à ces déformations, plus précisément à ce que les mathématiciens appelle la courbure de l’espace temps.

Lachie8

Peu après avoir publié sa théorie, Albert Einstein s’aperçoit que l’espace temps peut être le siège de vibrations issues d’évènements gravitationnels. Si, pour prendre une image proposée par Thibaut Damour, Professeur à l’IHES, l’univers est une viande en gelée, les ondes gravitationnelles peuvent être vue comme les vibrations se propageant dans cette gelée, quand un évènement provoque une vibration initiale au sein de cette gelée. Cependant, Einstein s’aperçoit assez vite que les vibrations prédite par sa théorie sont ridicules. Il en viendra même à douter de l’existence même des ondes gravitationnelles.

C’est dans les années 1960 et 1970 que le principe de la détection des ondes gravitationnelles par interférométrie sera proposé. Le principe est relativement simple. Il repose sur l’interféromètre de Michelson, bien connu des étudiants en physique et dont une utilisation très célèbre a été faite entre 1881 et 1887 (Expérience de Michelson-Morley) pour mesurer la vitesse de la Terre par rapport à l’Ether, le milieu sur lequel on supposait alors que les ondes électromagnétiques se propageaient. L’Ether ne fut pas détecté ce qui mettra plus tard Einstein sur la piste de la théorie de la relativité.

L’interféromètre de Michelson est constitué de deux bras dans lesquels deux faisceaux de lumière issus d’un même faisceau originel se propagent avant d’être recombinés. Si la distance entre les deux bras est identique, on observe un certain signal. Celui-ci sera modifié si pour une raison quelconque la distance entre les deux bras est changée.  Lors du passage d’une onde gravitationnelle, les longueurs des deux bras sont changées mais de manière différente. C’est ce changement de longueur, provoquée par un étirement de l’espace temps qui a été détecté par la collaboration LIGO. Notons que l’espace temps peut, d’un certain point de vue, être vu comme l’Ether de la gravitation et que donc, ironie de l’histoire, c’est par le dispositif qui était censé montré l’existence de l’Ether électromagnétique que les vibrations de l’Ether gravitationnel ont été détectées.

L’étirement de l’espace-temps détecté au niveau de la Terre est extrêmement faible. Il a atteint la valeur de 1021. Les bras de l’interféromètre faisant 4 km, c’est une déformation de 10-18 m qui a été mesurée, autrement dit une différence d’un millième de noyau atomique sur 4km. Cela correspond à une différence d’un cheveu sur une distance nous séparant de l’étoile la plus proche située à 4 années-lumière.

L’événement qui a provoqué cet étirement a été détecté le 14 septembre 2015 à 9:50:45 UTC dans deux interféromètres de le collaboration LIGO situés aux Etats-Unis. L’un dans l’état du Washington et l’autre en Louisiane. Malheureusement, un troisième détecteur, situé en Italie, celui de la collaboration VIRGO n’était pas en activité car il est à l’heure actuelle en phase d’amélioration de sa sensibilité. Les deux interféromètres ont détecté des signaux très similaires mais séparés de 7 millisecondes. Ce temps correspond au temps de propagation à la vitesse de la lumière (qui est aussi la vitesse de propagation des ondes gravitationnelles) entre les deux instruments.

fig1-observed-LOn note un superposition très bonne entre les deux signaux observés sur les deux interféromètres.

Ce signal correspond à celui calculé pour la collision de deux trous noirs de 36 masses solaires et de 29 masses solaires.

fig1-waveform-HComme on peut le noter, la ressemblance entre le signal mesuré et le signal théorique est très bonne.

Il a été mesuré que lors de la fusion des deux trous noirs, une quantité d’énergie équivalente à la masse de 3 soleils a été émise sous forme d’ondes gravitationnelles. Il s’agit d’une énergie considérable : c’est 1000 fois plus que ce que sera émis par le soleil au cours de sa vie. Au moment ultime de la fusion entre deux trous noirs, une puissance supérieure à la puissance émise par l’ensemble des étoiles de l’Univers a été émise sous forme d’ondes gravitationnelles. C’est donc un évènement d’une puissance inouïe qui a été détecté. Et pourtant, son influence sur l’espace temps ici est, on l’a vu, extrêmement faible.

Cependant, cette détection des ondes gravitationnelles offre des perspectives vertigineuses. Elles viennent de permettre la première observation directe des trous noirs car ceux-ci, par définition, n’émettent pas d’ondes électromagnétiques. Surtout, les ondes gravitationnelles, si elles sont faibles, ne peuvent en revanche pas être masquées comme peuvent l’être les ondes électromagnétiques. Par exemple, il est impossible d’observer, à l’aide d’ondes électromagnétiques plus loin que 300.000 ans après le Big Bang, instant à partir duquel la matière est devenu suffisamment froide pour être transparente au rayonnement électromagnétique. Ce rayonnement constitue le fameux rayonnement cosmologique à 3 K. Les ondes gravitationnelles, si la sensibilité des détecteurs était améliorée, permettraient en principe de remonter aux premiers instants suivant le Big Bang et donc à l’origine de l’Univers. Pourquoi ne pas imaginer tant qu’on y est communiquer avec ces ondes de gravité à la manière du Héros d’Interstellar avec sa fille? Voilà, en tous les cas un nouveau champ d’observation qui s’ouvre et un nouveau champ d’inspiration pour les auteurs de science-fiction.

 

D’où peut on voir le Mont-Blanc en France?

Vendredi dernier, j’étais invité à faire partie d’un jury de thèse à Lyon à l’institut des nanotechnologies de Lyon (INL). Cette thèse, très brillante, a été pour moi l’occasion de faire le voyage vers cette ville par la liaison aérienne Poitiers-Lyon opérée par Hop Air France en ATR-42.

A l’approche de Lyon (à au moins 100km) on distinguait très nettement les alpes, en particulier le Mont-Blanc à contre jour du lever du soleil. La question que je me suis alors posé est à quelle distance peut on voir la plus haute montagne de France. Sur le tarmac de l’aéroport Saint-Exupéry, il était toujours là, bien en évidence dans la direction du est-nord-est. On le voit par ailleurs très bien de la terrasse de la basilique de Fourvière de même que de la Croix-Rousse. Je l’ai vu au retour par le train jusqu’aux alentours de Mâcon. On trouve par ailleurs sur internet de nombreuses photos du Mont-Blanc prises de Dijon. Lorsque, j’étais à Paris, j’avais entendu plusieurs fois que par temps clair, il était possible de le voir mais je m’étais demandé si cette affirmation tenait plus de la légende urbaine que de la réalité.

4369337155_1dfd6935d4_z

Est il possible par un raisonnement simple de savoir d’où le Mont-Blanc est visible en France? La question qu’il faut se poser est « quelle est la distance jusqu’ou l’on peut voir lorsque l’on est à une certaine hauteur au-dessus de la Terre. En effet la distance à laquelle on peut voir un objet élevé à partir du sol est la même que la distance d’où l’on peut voir le sol de cet objet élevé. C’est le principe de réciprocité qui dit que la lumière partant d’un émetteur vers un récepteur fait le même chemin lorsque l’on inverse le détecteur et l’émetteur.

Dans ces deux situations, ce qui limite la visibilité, outre les mauvaises conditions climatiques est la rotondité de la Terre. Lorsque les conditions atmosphériques sont bonnes, nous pouvons donc regarder au plus loin sur la Terre depuis une hauteur h  jusqu’au point où la droite passant par la hauteur h est tangente à la Terre. Si R est le rayon de la Terre, et en utilisant le théorème de Pythagore, on trouve que la distance en question est à peu près égale à la racine carrée du diamètre de la Terre par la hauteur. Autrement dit, la distance de visibilité d’une hauteur est égale à la moyenne géométrique du diamètre de la Terre et de la hauteurDiapositive1Passons à quelques applications numériques. Le rayon terrestre moyen est de 6367 km.

  • Distance à laquelle on voit debout. Du haut des mes 1,80 m, je peux en principe voir jusqu’à 4,79 km. Sur un bateau on mes yeux sont à 3m au dessus de la mer, je vois jusquà 6 km.
  • La cathédrale de Chartres est visible depuis le TGV Paris Bordeaux aux alentours du km 70 de la ligne et à 20km de la ville. La flèche est à 113 m de haut et le faitage du toit à 51m. Ils sont donc visibles en principe respectivement à 37,9 et 25,5 km.
  • La centrale nucléaire de Civaux dont les tours font 178 m de haut est en principe visible à 47.6 km.
  • La tour Eiffel (324 m) est visible à 64,2 km
  • Le Mont Blanc (4810 m) est lui visible à 247,5 km.

On peut rajouter une condition supplémentaire. Si on observe d’une hauteur h1 un objet situé à une hauteur h2 , alors la distance d’où on pourra voir l’objet sera égale à la somme de la distance d’où on peut voir l’objet (en h2) au niveau du sol avec la distance d’où on peut voir la hauteur h1 au niveau du sol.

Diapositive2

Ainsi, de la Tour Eiffel, on pourrait ainsi voir le mont Blanc si celle-ci en était éloignée de 311,7 km. Or la distance Paris Mont Blanc est de 475,7 km. Il semble donc que le fait que l’on puisse voir le Mont Blanc depuis la Tour Eiffel relève bien de la légende urbaine.

Cependant, il y a un élément qui jusqu’ici n’a pas été pris en compte : la réfraction de l’air par les couches de l’atmosphère.  Le fait que l’atmosphère ait sa température qui baisse avec l’altitude fait que les rayons lumineux sont déviés lorsque celle-ci est traversée. La correction pour l’ensemble de l’atmosphère est d’environ 30 minutes d’arc soit 1 demi-degré. Cela peut nous rajouter 55 km pour des objets de plusieurs milliers de mètres de haut (comme le Mont Blanc) Mais cela ne suffit pas à nous permettre de voir le Mont Blanc depuis la Tour Eiffel. En revanche, depuis, le sol, on peut en principe voir le Mont Blanc jusqu’à 302km c’est-à-dire jusqu-à Clermont (295km) Marseille (302km), Nîmes (295 km) mais pas Strasbourg (314km). En revanche, de la flèche de la Cathédrale de Strasbourg, cela serait en principe possible.

Vu d’avion (altitude de croisière 10 km) on peut voir jusqu’à 357km. D’un point de vue géométrique, on peut donc voir le mont-Blanc jusqu’à 604 km. Si on rajoute la réfraction terrestre du côté du Mont-Banc et du côté de l’avion, on obtient 714km. Si bien que l’on peut voir le Mont-Blanc d’une très grande partie de la France vu d’un avion de ligne. Il n’y a guère qu’au delà d’un arc de cercle passant par Nantes, le Mont St Michel et Caen qu’il ne serait pas visible.

De quelle hauteur pourrait on voir toute la France? La commune de Tranzault dans l’Indre est située au centre d’un cercle circonscrit à la France (continentale) d’un rayon de 543,7 km. De 23.2 km d’altitude, on pourrait y voir toute la France sans tenir compte de la réfraction. Si l’on enlève 55 km due à la réfraction, une hauteur de 18,8 km suffirait. Un peu haut malgré tout pour faire une tour.

 

 

NTIC : une chance pour l’éducation ou un asservissement?

Une expérience intéressante faite par un professeur de lettre en Lycée vient récemment de montrer à quel point internet devenait un piège pour de nombreux étudiants.

http://www.laviemoderne.net/lames-de-fond/009-comment-j-ai-pourri-le-web.html

Ce professeur a demandé à ses élèves de faire un commentaire composé sur un poème d’un auteur peu connu et non référencé sur internet. Le professeur a selon ses dires « pourri le web » en modifiant la fiche wikipédia de l’auteur en question et en publiant des corrigés bidons pour commentaire composé portant sur le poème en question.

Résultats : sur 65 élèves, 51 ont recopié à des degrés divers les informations erronées publiées sur le web. Un constat inquiétant montrant la quasi sacralisation d’internet, la perte de confiance des élèves vis à vis de leur propre pensée.

L’introduction des NTIC s’est fait dans notre système scolaire universitaire avec enthousiasme, sans recul critique. De nombreux enseignants sont maintenant confrontés à des rapports ou des copies ressemblant de plus en plus à des copier-coller d’articles publiés sur internet. Il arrive même que cela se produise lors d’examens dans les amphis où l’utilisation des smartphones permet la consultation d’internet.

Il est plus que nécessaire de sensibiliser nos étudiants à cette dérive mais l’omniprésence d’internet rend la tâche difficile.  Expérimenter l’évaluation sous forme de QCM est peut être une solution provisoire.

 

Ne laissons pas nos étudiants et collègues étrangers de l’université de Poitiers être expulsés !

Les personnels de l’université n’ignorent pas que plusieurs de nos étudiants étrangers se sont vu refuser, pour diverses raisons (financières, choix pédagogiques, …), le renouvellement de leurs titres de séjour depuis le début de l’année. Il se sont retrouvés de ce fait immédiatement menacés d’expulsion, (Cf. la motion votée par le conseil de SHA en pièce jointe). Aujourd’hui, la Fédération Syndicale Unitaire de l’Université de Poitiers vient d’apprendre avec stupeur et consternation le refus de renouvellement de titres de séjours à plusieurs collègues de l’UP (ATER et doctorants chargés d’enseignement). Ces refus sont tous assortis d’OQTF (Obligation de Quitter le Territoire Français qui prend effet 30 jours après sa notification).

Après les étudiants étrangers, ce sont maintenant les personnels étrangers de notre université qui sont menacés d’expulsion. La préfecture de la Vienne franchit donc une étape supplémentaire dans le harcèlement administratif et l’arbitraire envers ces populations dont la stigmatisation et le rejet institutionnels sont désormais banalisés.

Pour décider des formes que notre mobilisation devra prendre, une assemblée générale des personnels est prévue mardi 7 février 2011, de midi à 14h à l’amphithéâtre de l’ENSIP (bâtiment B1), au campus de l’UP.

En effet il s’agit de harcèlement et d’arbitraire car ces personnels sont en France depuis de nombreuses années et l’ont toujours été en toute légalité. Ils sont salariés de l’UP depuis des années et sont, tous sans exception, sous contrats avec l’UP jusqu’à, au moins, la fin de l’année universitaire en cours. Certains d’entre eux, en l’occurrence les doctorants, sont aussi inscrits à l’UP. Ils ont donc, à plus d’un titre, droit au séjour en France, ce que la préfecture de la Vienne leur refuse en toute illégalité.

Ces décisions administratives mettent les collègues dans des situations extrêmement précaires. Au bout du délai des 30 jours, il deviendront expulsables. Au bout des 30 jours, Ils risquent d’être interpellés, incarcérés en centre de rétention puis expulsés. Au bout des 30 jours, ils perdent la plupart de leur droits dont celui de travailler. S’ajoute alors une précarité financière, d’autant plus lourde qu’ils doivent faire face à des frais de justice afin d’annuler la décision de la préfecture. Au bout des 30 jours, l’université sera aussi dans l’illégalité pour emploi clandestin.

La généralisation de ces pratiques, risque de surcroît de nuire au bon fonctionnement de l’université étant donné l’importance de l’effectif étranger parmi les catégories professionnelles concernées et la charge d’enseignement non négligeable qui leur est confiée.

Dans un mois, plusieurs de nos étudiants seront privés d’enseignement !

Ces décisions administratives, illégales et arbitraires, sont donc tout simplement inadmissibles. Nous demandons aux autorités compétentes un réexamen favorable de leurs demandes de renouvellement de titres de séjour. Nous appelons par ailleurs, la communauté universitaire de l’UP à se mobiliser sans tarder pour soutenir cette demande.

Nous appelons aussi la présidence de l’UP et son administration à prendre les dispositions qui s’imposent afin de :

· Protéger leurs employés contre ces mesures.

· Faire cesser cet acharnement sans précédent et s’assurer qu’il ne se reproduira plus.

· Préserver le bon fonctionnement de l’université.

A l’heure d’internet, a t on toujours besoin de revues à comité de lecture ?

L’essentiel de la production scientifique des chercheurs est publié dans des revues scientifiques à comité de lecture. Lorsqu’un chercheur veut publier son travail, il l’envoie à un éditeur de revue scientifique qui envoie à son tour ce travail à des experts anonymes. Ces derniers valident la démarche et le travail effectuant et demande souvent des compléments afin d’éclaircir et d’enrichir le travail. Ce processus d’examen du travail scientifique par les pairs est essentiel car les travaux publiés sont toujours validés par la communauté. Cette démarche est donc indispensable.

Cependant, plusieurs problèmes sont apparus et se sont amplifiés ces dernières années. D’une part, les abonnements aux revues sont devenues une charge importante pour les universités et les organismes. D’autre part, certaines revues, les plus prestigieuses, effectuent leur sélection de plus en plus au niveau de l’éditeur et non au niveau des experts scientifiques. Publier dans ces revues est devenu le sésame pour obtenir bon nombre de financement sur projet. Ce processus est dangereux pour la science et pour les idées nouvelles. Il encourage les effets de mode et risque de nuire à l’indépendance scientifique.

Depuis une vingtaine d’années, un certain nombre de sites internet ont proposé l’hébergement de publications en preprint c’est-à-dire de publications écrites avant qu’elles ne soient envoyées aux revues scientifiques. Ces sites de dépôts pourraient facilement remplacer les revues à condition d’adapter leur fonctionnement. Il faudrait ainsi que les scientifiques puissent en toute liberté commenter les articles déposés, les critiquer et proposer de nouveaux tests ou des enrichissement. Ceci pourrait être simplement fait en ajoutant une page de commentaires à la page de dépôts. Un tel processus permettrait autant voire mieux que les revues actuelle la publication et la reconnaissance des travaux de recherche. Le nombre de commentaires pourrait attester de l’intérêt ou non d’un article. Le contage des citations dans les revues pourrait se faire de la même façon qu’il se fait à l’heure actuelle dans les revues.

Cela nécessiterait cependant une adhésion massive de la communauté ce qui est loin d’être acquis. En effet, les revues, en distribuant des fonctions prestigieuses comme celle d’éditeurs de revues ont un moyen de pression sur les « meilleurs » éléments de la communauté. Un des moyens serait sans doute que les institutions comme les universités et les organismes encourage les chercheurs dans cette voie.