Le progrès de la science est étroitement liée à la communication des résultats entre les scientifiques. Cette étape est indispensable, car pour progresser dans la connaissance, il est nécessaire de se fonder sur les résultats obtenus précédemment par d'autres chercheurs.
Les résultats scientifiques sont publiés dans des revues de haute spécialisation, avec une grande variété de revues de ce type dans chaque domaine scientifique. Afin de maintenir une certaine sécurité et un contrôle sur la correction des résultats scientifiques publiés dans la revue, et donc de la fiabilité, chaque revue a mis en place un système de révision (peer review) par équivalents, c'est-à-dire qu'au moins deux chercheurs du secteur réalisent le travail de correcteur scientifique.
Ces correcteurs scientifiques révisent le travail de manière anonyme, élaborent un rapport plus ou moins exhaustif sur les différents paragraphes de la recherche, indiquant s'il est pertinent ou non pour publication. La décision sur la publication d'un travail dépend finalement de la commission éditoriale ou de l'éditeur du magazine.
Lorsqu'un chercheur décide de publier ses résultats, il doit soigneusement sélectionner le bulletin auquel il enverra les résultats, compte tenu de la spécificité des magazines. En plus de prendre en compte le thème spécifique de la recherche, il s'agit de tenir compte de l'impact que peut avoir le magazine en décidant.
Chaque magazine a reçu un indice d'impact, en tenant compte du nombre d'occasions où sont mentionnés des articles publiés dans d'autres œuvres, de l'importance des revues qui mentionnent ces articles, ainsi que de l'année où sont mentionnés les articles de la revue. Selon ces données et d'autres, chaque magazine est affecté à l'indice d'impact, qui est la mesure universelle pour évaluer les travaux publiés en science en ce moment. Plus le taux d'impact est élevé, plus le magazine est vaste et important.
Par conséquent, le domaine de la science a été axé sur les publications. Dans ce cas, les résultats sont une mesure en science pour presque toutes les occasions et où ils ont été publiés. "Dis-moi où et combien tu publies... et je te dirai qui tu es et ce que tu vas obtenir" peut être aujourd'hui le résumé du monde de la science. Les projets de recherche sont accordés sur la base de publications scientifiques et de leur indice d'impact, des places ou des contrats de recherche sont attribués, vous pouvez choisir ou ne pas aller au travail, etc. ; en ce moment en science tout dépend des publications.
Tout cela génère un certain nombre de problèmes. En raison de la pression de publication, il ya des chercheurs qui agissent trop vite et publient les données avant de les vérifier pour devenir les premiers et les publier dans le meilleur magazine. C'est ce qui s'est récemment passé dans les recherches sur les cellules souches menées par l'institut japonais RIKEN ( stimulus-triggered acquisition of pluripotency ). Mais ce n'est pas le seul cas. La même chose est arrivée au chercheur Hwang Woo-suk il y a quelques années avec les recherches menées en Corée, qui a publié en 2005 un article sur le clonage des embryons humains dans la revue Science, mais d'autres auteurs n'ont pas pu répéter l'essai. Et cela s'est déjà produit avec des enquêtes d'autres pays.
Dans le cas des cellules STAP, une erreur a été détectée en février 2014, un mois après la publication de l'article dans la revue Nature. Le problème a surgi lorsque d'autres chercheurs, après avoir lu la publication, ont essayé de reproduire les essais mais n'ont pas réussi. Comme il a été dit, les études ont été publiées dans la revue Nature, l'une des revues les plus influentes, et ces erreurs ont également eu un impact sur les médias.
L'avancement décrit dans la publication indiquait que les cellules somatiques pouvaient simplement devenir des cellules souches, en les mettant en état de stress, par exemple en maintenant un pH inférieur au physiologique. Malgré le retrait de l'article, le chercheur continue de croire en ses résultats et a publié dans le même magazine une version élargie encore plus détaillée du protocole, avec les technical tips qui n'avaient pas été inclus dans les articles précédents, afin que d'autres chercheurs puissent reproduire les résultats obtenus.
En raison des erreurs évidentes que présente le système de publication dans des revues à fort impact, la communauté scientifique critique le système, mais les intérêts d'impact sont déjà si élevés qu'il est très difficile de démonter le système s'il n'est pas installé un autre système de mesure de la qualité qui le dépasse.
À cet égard, Randy Schekman, Prix Nobel de physiologie ou de médecine 2013, a déclaré que « son laboratoire cessera de publier des résultats de recherche dans des revues à fort impact comme Nature, Cell ou Science, pour avoir compris qu'ils dénaturent le processus scientifique ». Ces déclarations ont été publiées dans le journal The Guardian en décembre 2013 après avoir reçu le prix Nobel. C'est que, selon le prestigieux scientifique américain, la pression exercée par sa publication dans ces revues fait que les scientifiques raccourcissent la voie à suivre par une recherche sérieuse et réfléchie, générant des modes et des tendances dans la recherche, au-delà du progrès scientifique. « Dans de nombreux cas, les responsables des revues décident quel travail sera publié et ils, comme non scientifiques, se fixent davantage sur l'impact des médias que sur le progrès scientifique », a justifié le prix Nobel.
À mon avis, la révision par des équivalents est importante, mais elle a aussi des erreurs et des problèmes. Je pense que le fait que celui qui effectue la révision agit dans l'anonymat pose plus de problèmes que d'avantages, car derrière cet anonymat, on peut cacher les conflits d'intérêt. Une critique constructive basée sur des arguments ne doit pas être anonyme. Il ne faut pas remettre en question la qualité des magazines qui ont été utilisés au cours des 100 dernières années pour publier les principales avancées scientifiques. Cependant, le système de mesure de la qualité, étroitement lié à l'indice d'impact, devrait être révisé et, en plus de l'impact, tenir compte d'autres critères pour évaluer la recherche, notamment lors de la distribution des fonds destinés à la recherche. Dans ce contexte, une gestion correcte des fonds devrait être une valeur de grande importance et, bien qu'avec peu de financement, une équipe de recherche capable d'obtenir de bons résultats et de former des chercheurs devrait être évaluée de manière ajustée, non seulement en fonction du nombre de publications et de leur impact, comme dans certains cas.
D'autre part, pour évaluer le curriculum vitae des chercheurs, il faudrait tenir compte de l'endroit où les chercheurs ont réalisé la recherche, puisque la capacité de recherche ne doit pas être mesurée uniquement par l'impact des revues, mais aussi en tenant compte de l'environnement. Un chercheur avec de grandes infrastructures et travaillant dans un centre de recherche d'appui matériel et technique devrait être plus productif qu'un chercheur qui se consacre à la recherche et à l'enseignement, par exemple, ou qui n'a pas d'appui matériel ou personnel pour effectuer des recherches.
Comme pour les autres choses de cette vie, tout n'est pas noir ou blanc, mais les détails lui donnent de l'importance. Il est donc important d'obtenir des mesures objectives et quantifiables de la recherche et de la qualité des chercheurs, mais il est plus important de se pencher sur d'autres facteurs qui nous marquent mieux le profil de la recherche et des chercheurs. Si ces critères ne sont pas encore établis, il sera temps de les appliquer pour essayer d'être plus justes.