<p><strong>Abstract :&nbsp;</strong>This article wants to provide a state of the art of different forms of peer-reviewed schorlarly communication. From masked assessment to open peer-review, multiple possibilities exist and are experienced. It is in the field of science that we find the most sociotechnical innovations based on publishing platforms modeling original editorial workflows. The opening of the evaluation can occur among peers, by making public the identities and / or reports of the evaluators, at different stages of the making of scientific article: preprint, in draft, or after publication. This state of art is based on a set of publications produced by open peer-review actors, mainly from STM disciplines.</p> <p><strong>Keywords :</strong>&nbsp;Peer-review, open peer-review, open science, mediatisation</p> <h2>INTRODUCTION</h2> <p>Face &agrave; la fonction d&rsquo;&eacute;valuation devenue un mode de gestion des activit&eacute;s en entreprise dans des dispositifs de contr&ocirc;le et de recherche de performance, il existe un secteur o&ugrave; des proc&eacute;dures&nbsp; remplissent des objectifs de tri, de s&eacute;lection et d&rsquo;am&eacute;lioration. C&rsquo;est celui de la recherche scientifique o&ugrave; &laquo;&nbsp;l&rsquo;&eacute;valuation par les pairs&nbsp;&raquo; est au coeur des pratiques de publication. Nous nous int&eacute;ressons ici aux parties prenantes de ce processus qui tend aujourd&rsquo;hui &agrave; se modifier dans une volont&eacute; d&rsquo;ouverture.</p> <p>On peut faire remonter le processus d&rsquo;&eacute;valuation de la production scientifique par les pairs &agrave; la fondation des sciences telles que nous les exp&eacute;rimentons encore aujourd&rsquo;hui. Dans un article sur les acteurs de l&rsquo;&eacute;cosyst&egrave;me de la communication scientifique, Jean-Claude Gu&eacute;don (2001) revenait sur la cr&eacute;ation en 1665 de la revue &laquo;&nbsp;<em>Phil Trans</em>&nbsp;&raquo;, la premi&egrave;re &agrave; s&eacute;lectionner pour les diffuser un ensemble de contributions originales porteuses de connaissances<a href="#_ftn1" name="_ftnref1" title="">[1]</a>. Gu&eacute;don remarque qu&rsquo;elle assurait aussi une autre fonction, celle d&rsquo;&ecirc;tre un registre public permettant le rep&eacute;rage de la paternit&eacute; des &oelig;uvres, au moment de la lutte naissante pour la reconnaissance de la propri&eacute;t&eacute; intellectuelle au sein du march&eacute; &eacute;mergent de l&rsquo;imprimerie-librairie. Ceci nous appara&icirc;t comme une preuve de la liaison historique entre la fonction d&rsquo;&eacute;valuation et la reconnaissance de l&rsquo;autorialit&eacute;. Et renforce l&rsquo;id&eacute;e que le &laquo;&nbsp;cr&eacute;dit&nbsp;&raquo; scientifique de l&rsquo;auteur ou du contributeur est constitu&eacute; par la reconnaissance par les pairs de son autorit&eacute; &eacute;pist&eacute;mique ET de sa l&eacute;gitimit&eacute; scientifique (Broudoux, 2017).</p> <p>Les revues sont devenues le passage oblig&eacute; pour la diffusion des connaissances et la mise en place de proc&eacute;dures de validation des productions savantes s&#39;est renforc&eacute;e&nbsp; &agrave; partir du XVIIIe si&egrave;cle, avec la constitution de comit&eacute;s &eacute;ditoriaux dans les revues (B&eacute;gault, 2007). Puis, les conditions de la validit&eacute; scientifique ont &eacute;t&eacute; transform&eacute;es par le passage d&#39;un contexte de raret&eacute; de l&#39;information scientifique &agrave; une &egrave;re de profusion &agrave; m&ecirc;me de renouveler les modes d&#39;autorit&eacute; acad&eacute;miques (Jensen, 2006).&nbsp; Les pratiques d&#39;&eacute;valuation dans le monde pr&eacute;-web sont r&eacute;gies par des co&ucirc;ts de publication qui ont motiv&eacute; le passage par des interm&eacute;diaires (&eacute;diteurs, pairs, etc..). Ces pratiques sont d&eacute;sormais interrog&eacute;es par l&#39;arriv&eacute;e de nouvelles m&eacute;triques bibliom&eacute;triques et l&#39;importance accord&eacute;e &agrave; de nouveaux acteurs dans le processus &eacute;valuatif (Pontille et Torny, 2017).</p> <p>Au nom de l&rsquo;open science, les incitations &agrave; l&rsquo;ouverture se relaient dans le monde de la communication scientifique. De l&rsquo;acc&egrave;s libre aux r&eacute;sultats des recherches &agrave; la gestion de sa pr&eacute;sence sur les r&eacute;seaux sociaux, une vague d&rsquo;initiatives - qui paraissaient &agrave; leur d&eacute;but subversives - a &eacute;t&eacute; absorb&eacute;e par la plateformisation du web2.0 qui vise &agrave; agr&eacute;ger des profils en simulant des espaces collaboratifs. Dans ce contexte, nous nous demandons si l&#39;<em>open peer-reviewing</em> (OPR)<a href="#_ftn2" name="_ftnref2" title="">[2]</a> permettra une meilleure reconnaissance de la nature collaborative du travail des chercheurs ou bien s&rsquo;il ne repr&eacute;sente que l&rsquo;effacement du dernier rempart pr&eacute;servant leur relative autonomie. Car les incitations &agrave; la &laquo;&nbsp;transparence&nbsp;&raquo; r&eacute;v&egrave;lent aussi d&rsquo;autres enjeux li&eacute;s &agrave; la m&eacute;diatisation&nbsp;: par ex., le r&eacute;f&eacute;rencement web est silencieusement entr&eacute; dans les pratiques de s&eacute;lection de recrutement des chercheurs ou de financement des projets.</p> <p>Afin de mieux conna&icirc;tre ce champ de la s&eacute;lection des articles, nous proposons de passer par un recensement d&rsquo;&eacute;tudes quantitatives et qualitatives qui d&eacute;crivent finement les diff&eacute;rentes facettes de l&rsquo;examen par les pairs, leurs variantes et les diff&eacute;rences et continuit&eacute;s que son ouverture provoque. Enfin, l&rsquo;offre des plateformes, celles des m&eacute;garevues et des acteurs de la promotion de l&rsquo;open peer-reviewing est parcourue.</p> <h2>L&rsquo;&Eacute;VALUATION PAR LES PAIRS</h2> <h3>Processus et proc&eacute;dures de l&rsquo;examen par les pairs</h3> <p>L&rsquo;&eacute;valuation par les pairs (<em>peer-reviewing</em>) repr&eacute;sente un processus d&rsquo;examen s&eacute;lectif d&rsquo;article ou de communication qui se d&eacute;roule g&eacute;n&eacute;ralement en amont de la publication et qui se diff&eacute;rencie fortement selon les usages disciplinaires. Il est organis&eacute; par les &eacute;diteurs-chercheurs qui choisissent les membres des Comit&eacute;s de lecture en fonction de num&eacute;ros th&eacute;matiques de revues ou d&rsquo;actes de conf&eacute;rences. Ce processus est marqu&eacute; par des proc&eacute;dures d&rsquo;anonymisation des identit&eacute;s des relecteurs-&eacute;valuateurs qui visent &agrave; maintenir une &eacute;galit&eacute; de traitement entre les auteurs. Cependant, un d&eacute;s&eacute;quilibre se produit lorsque les auteurs sont maintenus dans l&rsquo;ignorance de l&rsquo;identit&eacute; des &eacute;valuateurs alors que ceux-ci sont &agrave; m&ecirc;me de les (re)conna&icirc;tre.</p> <p>Bien que coexistent des variations importantes entre les disciplines, selon les revues et les partenaires, trois mod&egrave;les de l&rsquo;&eacute;valuation par les pairs sont reconnaissables avant la publication des articles : la connaissance des identit&eacute;s par les auteurs et les &eacute;valuateurs (&eacute;valuation ouverte), le masquage de l&rsquo;identit&eacute; des auteurs pour les &eacute;valuateurs (simple-aveugle) auquel s&rsquo;ajoute celui des &eacute;valuateurs entre eux (double-aveugle).</p> <p>S&rsquo;il faut garder en m&eacute;moire le fait que l&rsquo;&eacute;valuation-tri entre comme param&egrave;tre dans l&rsquo;&eacute;conomie des revues, avec des taux de rejets des articles indicateurs de leur attractivit&eacute;, les processus d&rsquo;anonymisation/identification de l&rsquo;auteur et de l&rsquo;&eacute;valuateur &eacute;voluent suivant les contextes &eacute;ditoriaux et avec le temps. L&rsquo;augmentation de la production scientifique est corr&eacute;l&eacute;e avec les&nbsp; phases de l&rsquo;automatisation&nbsp;: le papier carbone de la machine &agrave; &eacute;crire a facilit&eacute; la circulation des manuscrits au sein des comit&eacute;s de lecture d&egrave;s la fin du XIXe, avant que les photocopies du XXe ne prennent le relais. A cette p&eacute;riode, les revues avaient d&eacute;j&agrave; v&eacute;cu un basculement&nbsp;: alors qu&rsquo;elles cherchaient &agrave; remplir leurs colonnes, elles ont d&ucirc; adopter des m&eacute;thodes pour mieux trier les articles face &agrave; l&rsquo;augmentation de l&rsquo;offre (Spier, 2002).</p> <h3>La mise en &eacute;vidence des biais li&eacute;s &agrave; l&rsquo;&eacute;valuation</h3> <p>Le processus d&rsquo;&eacute;valuation par les pairs fait l&rsquo;objet de critiques, car plusieurs biais remettant en question son int&eacute;grit&eacute; ont &eacute;t&eacute; depuis longtemps mis en &eacute;vidence et l&rsquo;impartialit&eacute; &ndash; objectif premier des m&eacute;thodes du double et du simple aveugle &ndash; largement remise en cause. En 1977, une &eacute;tude exp&eacute;rimentale relevait l&rsquo;absence d&rsquo;exploration approfondie du &laquo; biais de confirmation &raquo; qui est la tendance &agrave; amplifier et croire des exp&eacute;riences qui soutiennent nos opinions et &agrave; ignorer ou discr&eacute;diter celles qui remettent en cause nos certitudes (Mahoney, 1977). En 2006, une &eacute;tude portant sur l&rsquo;&eacute;valuation de 1983 posters r&eacute;alis&eacute;s pendant trois conf&eacute;rences annuelles avait pour but de tester si les posters soumis par les &eacute;valuateurs avaient tendance &agrave; recevoir des notes plus &eacute;lev&eacute;es que les posters soumis par des non-&eacute;valuateurs<a href="#_ftn3" name="_ftnref3" title="">[3]</a>. Une diff&eacute;rence qualitative dans l&rsquo;&eacute;valuation &eacute;tait r&eacute;v&eacute;l&eacute;e lorsque les relecteurs &eacute;taient eux-m&ecirc;mes auteurs de posters (Blackburn &amp; Hakel, 2006). En 2012, Carole Lee et al. entreprenaient une &eacute;tude r&eacute;capitulant les caract&eacute;ristiques du peer-reviewing et ses biais : caract&eacute;ristiques de l&rsquo;auteur (prestige, affiliation, nationalit&eacute;, langue, genre), du reviewer (sur les m&ecirc;mes soumissions, les relecteurs se divisent en deux classes &laquo; stricte &raquo; et &laquo; cl&eacute;mente &raquo;) ; biais li&eacute;s au contenu, au conservatisme (intol&eacute;rance &agrave; l&rsquo;innovation ou aux id&eacute;es neuves), biais de confirmation, contre l&rsquo;interdisciplinarit&eacute;, de publication (tendance &agrave; publier les r&eacute;sultats positifs) (Lee et al., 2013). Campanario (1998) et Shatz (2004) ont &eacute;galement &eacute;tabli un examen complet des &eacute;tudes et des perspectives sur les biais dans l&#39;&eacute;valuation par les pairs.</p> <p>Le d&eacute;bat sur la qualit&eacute; et l&rsquo;int&eacute;grit&eacute; des publications scientifiques est r&eacute;current avec la m&eacute;diatisation de fraudes, de plagiats, la manipulation de donn&eacute;es auxquelles s&rsquo;ajoutent des pratiques questionnables de recherche. Dans ce contexte, les choix d&rsquo;autor&eacute;gulation des chercheurs, dont l&rsquo;examen par les pairs fait partie, sont r&eacute;guli&egrave;rement remis en cause. Cependant, les crit&egrave;res d&rsquo;&eacute;valuation sont &agrave; distinguer des proc&eacute;dures. Remettre en cause l&rsquo;&eacute;valuation sans se pr&eacute;occuper de la d&eacute;finition claire des crit&egrave;res est contre-productif.</p> <p>Les biais de l&rsquo;&eacute;valuation pourraient-ils &ecirc;tre r&eacute;solus par la publicisation des rapports d&rsquo;examen ? En effet, si des cons&eacute;quences positives ont &eacute;t&eacute; remarqu&eacute;es comme l&rsquo;am&eacute;lioration de la qualit&eacute; des &eacute;valuations (Lee et&nbsp;al., 2013), et que l&rsquo;innovation dans l&rsquo;&eacute;valuation des articles et la clart&eacute; du processus de <em>peer-reviewing</em> ont &eacute;t&eacute; le levier pour la croissance de la m&eacute;garevue <em>Plos One</em> (Verlaet &amp; Dillaerts, 2017), on peut se demander si des biais susceptibles de s&rsquo;ajouter aux pr&eacute;c&eacute;dents ne sont pas reconstruits. Ainsi, le biais d&rsquo;ordonnancement qui est la probabilit&eacute; plus faible de s&eacute;lectionner des items class&eacute;s en bas de liste, serait favoris&eacute; par les logiciels de gestion de congr&egrave;s de type <em>confmaster.net</em>. Dans ce syst&egrave;me, chaque membre du comit&eacute; de programme s&eacute;lectionne les articles qu&rsquo;il se propose d&rsquo;&eacute;valuer en fonction de son expertise. Or, une &eacute;tude, prenant en compte la temporalit&eacute;, conduite par Guillaume Cabanac (2016) a montr&eacute; que les articles soumis en dernier avaient moins de chance d&rsquo;&ecirc;tre s&eacute;lectionn&eacute;s que ceux soumis les premiers.</p> <h3>Les critiques faites &agrave; l&rsquo;&eacute;valuation anonymis&eacute;e</h3> <p>Les proc&eacute;dures d&rsquo;anonymisation des textes sont rendues partiellement inefficaces aujourd&rsquo;hui par la m&eacute;diatisation et l&rsquo;activit&eacute; de recherche d&rsquo;informations sur le web&nbsp;; les conduites d&rsquo;auto-r&eacute;f&eacute;rencement par les publiants eux-m&ecirc;mes &mdash; sur les r&eacute;seaux socionum&eacute;riques tels par exemple, <em>ResearchGate</em> et <em>AcademiaEdu</em> &mdash; accentuent ce ph&eacute;nom&egrave;ne.</p> <p>Ross-Hellauer (2017) r&eacute;pertorie six critiques r&eacute;currentes faites &agrave; l&rsquo;&eacute;valuation r&eacute;alis&eacute;e avec des identit&eacute;s masqu&eacute;es et des rapports non publi&eacute;s<a href="#_ftn4" name="_ftnref4" title="">[4]</a>, depuis la fin des ann&eacute;es 1990. A l&rsquo;incapacit&eacute; de d&eacute;tecter des erreurs m&eacute;thodologiques (pour les revues class&eacute;es par facteur d&rsquo;impact, un nombre croissant de r&eacute;tractations en d&eacute;coule), s&rsquo;ajoute l&rsquo;inv&eacute;rifiabilit&eacute; de la &laquo;&nbsp;bo&icirc;te noire&nbsp;&raquo; du double aveugle. Des risques de subversion en d&eacute;coulent comme la s&eacute;lection par les &eacute;diteurs d&rsquo;&eacute;valuateurs rejetant les m&ecirc;mes th&eacute;ories. Ceci peut d&eacute;boucher sur des manipulations (appropriations d&rsquo;id&eacute;es, conflits d&rsquo;int&eacute;r&ecirc;ts non d&eacute;voil&eacute;s). En amont, les biais sociaux sont susceptibles de fausser les &eacute;valuations, en termes de genre, nationalit&eacute;, affiliation institutionnelle, langue, discipline, et en aval, un manque de reconnaissance existe pour le travail invisible effectu&eacute; par les &eacute;valuateurs. Enfin, les resoumissions d&rsquo;articles repropos&eacute;s entrainent des pertes de temps dues aux d&eacute;lais d&rsquo;attente&nbsp;; de m&ecirc;me pour les remarques secr&egrave;tes des &eacute;valuateurs qui ne profitent pas aux chercheurs d&eacute;butants, ce qui cause des effets de gaspillage.</p> <p>Il faut ajouter ici une tendance dans les revues qui constatent une augmentation des refus d&rsquo;&eacute;valuer,&nbsp; provoqu&eacute;e par la masse croissante d&rsquo;articles et la surcharge de travail des sp&eacute;cialistes (Bakker&nbsp; &amp; Traniello, 2019). D&rsquo;une mani&egrave;re g&eacute;n&eacute;rale, un &eacute;quilibre est &agrave; trouver entre le nombre d&rsquo;articles soumis et le nombre d&rsquo;&eacute;valuations accept&eacute;es pour que le syst&egrave;me fonctionne. Une &eacute;tude r&eacute;alis&eacute;e par <em>Publons </em>(2018) &ndash; un nouvel acteur<a href="#_ftn5" name="_ftnref5" title="">[5]</a> qui recense les &eacute;valuations faites par les chercheurs et agr&egrave;ge les donn&eacute;es qui leurs sont li&eacute;es - r&eacute;v&egrave;le que le ratio nombre d&rsquo;&eacute;valuations par soumission est de 1,95 dans les r&eacute;gions o&ugrave; la science est bien structur&eacute;e et &eacute;tablie, et nettement plus faible dans les r&eacute;gions &eacute;mergentes comme la Chine, l&#39;Inde et la Turquie (en moyenne 0,66 avis par soumission). Ce qui r&eacute;v&egrave;le de fortes disparit&eacute;s.</p> <h2>L&rsquo;&Eacute;VALUATION OUVERTE &ndash; LES DIMENSION DE L&#39;OPR</h2> <p>Il est commun de faire remonter le d&eacute;marrage du mouvement d&rsquo;ouverture du peer reviewing &agrave; la fin des ann&eacute;es 1990 au <em>British Medical Journal</em> (BMJ) lorsqu&rsquo;une exp&eacute;rimentation men&eacute;e au sein de cette revue montra qu&rsquo;il n&rsquo;existait pas de diff&eacute;rence de qualit&eacute; notable dans les &eacute;valuations lorsque les examinateurs s&rsquo;&eacute;taient identifi&eacute;s (Wolfram, Wang, Park, 2019).&nbsp; Pour Smith (1999), l&rsquo;objectif &eacute;tait de renverser le processus de s&eacute;lection en simple-aveugle : puisque les &eacute;valuateurs connaissaient l&rsquo;identit&eacute; des auteurs, pourquoi les auteurs ne connaitraient-ils pas l&rsquo;identit&eacute; de leurs examinateurs ? S&rsquo;appuyant sur une s&eacute;rie d&rsquo;essais contr&ocirc;l&eacute;s randomis&eacute;s, la revue BMJ d&eacute;cide de publier le nom des &eacute;valuateurs au m&ecirc;me titre que ceux du cadre &eacute;ditorial ; l&rsquo;objectif suivant &eacute;tant de publier le nom des examinateurs &agrave; la fin des articles. Citant le world wide web naissant, l&rsquo;auteur imagine l&rsquo;OPR tel qu&rsquo;il est aujourd&rsquo;hui mat&eacute;rialis&eacute; par des syst&egrave;mes g&eacute;rant le workflow &eacute;ditorial ; un processus qui gagnerait en scientificit&eacute;, observable de l&rsquo;ext&eacute;rieur, valorisant le travail des &eacute;valuateurs et dans lequel lecteurs et auteurs seraient reli&eacute;s plus &eacute;troitement. Cependant, dans le mod&egrave;le initial de Smith, le contenu des &eacute;valuations reste confin&eacute; aux pairs.</p> <h3>Une grande vari&eacute;t&eacute; de mod&egrave;les</h3> <p>L&rsquo;&eacute;valuation ouverte (OPR) poss&egrave;de une multiplicit&eacute; de formes dont il est difficile d&rsquo;extraire une d&eacute;finition unifiante.&nbsp; Dans une &eacute;tude r&eacute;cente sur l&rsquo;adoption de l&rsquo;OPR dans les revues en acc&egrave;s libre, Dieter Wolfram et al. (2019) distinguent celles fond&eacute;es sur la connaissance des identit&eacute;s de celles fond&eacute;es sur la publication des rapports. Le mod&egrave;le de l&rsquo;OPC (<em>open peer commentary</em>) peut conserver une &eacute;valuation initiale bas&eacute;e sur un anonymat plus ou moins restrictif pour ensuite ouvrir des discussions entre auteurs, &eacute;valuateurs et public (Verlaet et Chante, 2017). Didier Torny (2018) identifie l&rsquo;&eacute;valuation des articles de revues qui se d&eacute;roule apr&egrave;s leur publication (<em>post publication peer review</em> ou PPPR). Cette distinction r&eacute;v&egrave;le cependant un entre-deux important, constitu&eacute; par la publication des rapports alors que les articles sont encore en cours d&rsquo;&eacute;valuation.</p> <p>Les usages vont de la simple divulgation des identit&eacute;s, en passant par la communication des &eacute;valuations dans des syst&egrave;mes o&ugrave; les rapports des &eacute;valuateurs sont publi&eacute;s en rapport avec les articles, jusqu&rsquo;&agrave; la publication ouverte des rapports o&ugrave; &eacute;valuateurs et auteurs sont susceptibles de s&rsquo;entre-commenter. L&rsquo;ouverture maximum est celle qui permet &agrave; d&rsquo;autres commentateurs que les &laquo;&nbsp;experts invit&eacute;s&nbsp;&raquo; de contribuer. C&rsquo;est le mod&egrave;le &laquo;&nbsp;&agrave; deux &eacute;tapes&nbsp;&raquo;, en usage &agrave; la revue ACP<a href="#_ftn6" name="_ftnref6" title="">[6]</a>&nbsp; o&ugrave;&nbsp; les articles propos&eacute;s sont discut&eacute;s dans un forum ouvert &agrave; tous puis s&eacute;lectionn&eacute;s par la revue &agrave; partir de rapports anonymes ou identifi&eacute;s. P&ouml;schl (2012) qui a analys&eacute; ce mod&egrave;le dit qu&rsquo;il int&egrave;gre la &laquo;&nbsp;rigueur du mod&egrave;le traditionnel&nbsp;&raquo; et les &laquo;&nbsp;vertus de la transparence et de l&rsquo;auto-r&eacute;gulation&nbsp;&raquo;.&nbsp;Parmi les questions-cl&eacute;s qu&rsquo;il estime n&eacute;cessaire de prendre en compte dans la conception de syst&egrave;mes ouverts d&rsquo;&eacute;valuation en sciences, il note que l&rsquo;&eacute;valuation ouverte en pr&eacute;-publication est pr&eacute;f&eacute;rable &agrave; celle de post-publication, car ni l&rsquo;auteur ni l&rsquo;&eacute;valuateur ne peuvent apporter des am&eacute;liorations &agrave; un article d&eacute;j&agrave; publi&eacute;, les efforts de l&rsquo;&eacute;valuateur pour proposer des ajouts, des corrections ou des r&eacute;f&eacute;rences &eacute;tant rendus inutiles.</p> <p>Les autres points&nbsp;sur lesquels P&ouml;schl insiste visent &agrave; rassurer les auteurs et les &eacute;valuateurs&nbsp;: seuls les rapports et conseils concernant les manuscrits accept&eacute;s pour publication devraient &ecirc;tre rendus publics, afin de donner une chance aux auteurs de resoumettre leurs travaux&nbsp;; l&rsquo;option de l&rsquo;anonymat doit &ecirc;tre pr&eacute;serv&eacute;e pour les &eacute;valuateurs ayant peur d&rsquo;apparaitre ignorants ou irrespectueux dans leurs critiques bien qu&rsquo;un &laquo;&nbsp;syst&egrave;me optimal&nbsp;&raquo; devrait encourager les &eacute;valuations sign&eacute;es et authentifi&eacute;es. La question de l&rsquo;&eacute;valuation en tant que processus continu d&rsquo;am&eacute;lioration d&rsquo;un article, mis &agrave; jour au fur et &agrave; mesure de ses am&eacute;liorations, est aussi pos&eacute;e, afin de travailler en profondeur les articles les plus m&eacute;ritants. Cependant, les auteurs aimant mettre un point final &agrave; leurs articles, cette possibilit&eacute; apparait peu exploitable.</p> <p>On notera que P&ouml;schl (2012) brandit la transparence comme une id&eacute;ologie bienfaisante au m&ecirc;me titre que la &laquo; libert&eacute; d&rsquo;expression &raquo; dans leur capacit&eacute; &agrave; maintenir et renforcer l&#39;objectivit&eacute; scientifique. Ce serait m&ecirc;me l&rsquo;unique &laquo; moyen durable &raquo; de rechercher &laquo; l&#39;objectivit&eacute; &raquo; dans un &eacute;quilibre des pouvoirs et des int&eacute;r&ecirc;ts.</p> <h3>Les types d&rsquo;&eacute;valuation ouverte</h3> <p>Sept manifestations de l&rsquo;&eacute;valuation ouverte class&eacute;s en trois types ont &eacute;t&eacute; repertori&eacute;s par Tony Ross-Hellauer (2017) avec une revue de la litt&eacute;rature sur un corpus de 122 d&eacute;finitions d&rsquo;<em>open peer-review</em>.</p> <p>La <strong>connaissance des identit&eacute;s</strong> (<em>Open identities</em>) pour chacun des protagonistes (auteurs et &eacute;valuateurs) n&rsquo;implique cependant pas la divulgation des &eacute;valuations et commentaires &agrave; un plus large public.</p> <p>La <strong>publication des &eacute;valuations</strong> poss&egrave;de quatre directions dans l&rsquo;ouverture de la participation mais n&rsquo;implique pas syst&eacute;matiquement l&rsquo;identification des &eacute;valuateurs. Les rapports (<em>Open reports</em>) sont publi&eacute;s en regard de l&rsquo;article &eacute;valu&eacute;. L&rsquo;interaction ouverte (<em>Open interaction</em>) est autoris&eacute;e et encourag&eacute;e entre auteurs et &eacute;valuateurs mais aussi entre les &eacute;valuateurs.&nbsp; La participation ouverte (<em>Open participation</em>) est la communaut&eacute; &eacute;largie pouvant participer &agrave; l&rsquo;ensemble du processus, elle concerne donc aussi les lecteurs &laquo;&nbsp;ordinaires&nbsp;&raquo;. Mais est-ce encore du &laquo;&nbsp;<em>peer reviewing</em>&nbsp;&raquo; puisque le processus ne se d&eacute;roule plus entre pairs&nbsp;? La derni&egrave;re version ouverte &agrave; commentaires (Open final-version commenting) concerne la version finale enregistr&eacute;e de l&rsquo;article.</p> <p>La <strong>portabilit&eacute;</strong> est l&rsquo;autonomisation du processus d&rsquo;&eacute;valuation en un service d&eacute;tach&eacute; de l&rsquo;acte de publication. Les auteurs publiant des &laquo;&nbsp;manuscrits&nbsp;&raquo; dans des d&eacute;p&ocirc;ts d&rsquo;archives ouvertes, avant ou pendant leur &eacute;valuation rentrent dans cette cat&eacute;gorie (<em>Open pre-review manuscripts</em>). Lorsque l&rsquo;&eacute;valuation est d&eacute;coupl&eacute;e, c&rsquo;est-&agrave;-dire r&eacute;alis&eacute;e par une entit&eacute; organisationnelle diff&eacute;rente de celle du lieu de publication, Ross-Hellauer la nomme plateforme ouverte (<em>Open platform</em>).</p> <p>Relevons ici que la plateforme entre comme acteur sociotechnique de l&rsquo;&eacute;valuation. Elle est utilis&eacute;e comme argument implicite de transparence pour convaincre car toutes les actions qui s&rsquo;y d&eacute;roulent sont enregistr&eacute;es et v&eacute;rifiables.</p> <p>Pour Schmidt et al. (2018), l&rsquo;&eacute;valuation ouverte installerait &laquo;&nbsp;une assurance de qualit&eacute; constructive&nbsp;&raquo; reposant sur la confiance mutuelle, le respect et l&rsquo;ouverture &agrave; la critique. Elle accro&icirc;trait le sens des responsabilit&eacute;s en facilitant une discussion plus large et inclusive. Enfin, elle apporterait une reconnaissance aux &eacute;valuateurs avec la citation possible de leurs remarques.</p> <p>Comme le facteur temps est un reproche fait &agrave; l&rsquo;examen par les pairs traditionnels (les Allers-Retours entre &eacute;valuateurs et auteurs prennent du temps), on peut se demander ce qu&rsquo;il en est avec l&rsquo;OPR. Certaines recherches sugg&egrave;rent qu&rsquo;elle serait susceptible d&lsquo;augmenter le temps n&eacute;cessaire &agrave; l&#39;examen des articles (Tennant et al., 2017), les r&eacute;pondants souhaitant apporter plus de qualit&eacute; r&eacute;dactionnelle &agrave; des rapports vou&eacute;s &agrave; &ecirc;tre rendus public. D&rsquo;autres indiquent le contraire, comme l&#39;&eacute;tude de Bravo et al. (2019) sur 9 220 soumissions et 18 525 &eacute;valuations pour cinq revues entre 2010 et 2017 : au fur et &agrave; mesure que le nombre d&rsquo;observations &eacute;crites augmentait, le temps de rotation entre &eacute;valuations restait stable. M&ecirc;me en cas d&rsquo;interactions entre &eacute;valuateurs, les diff&eacute;rences sont rest&eacute;es minimes.</p> <p>Dans leur guide pour la mise en place d&rsquo;OPR, Ross-Hellauer &amp; G&ouml;r&ouml;gh (2019) incitent &agrave; la cr&eacute;ation d&rsquo;identifiants (ORCID) et &agrave; la connexion avec Publons, un service qui cr&eacute;dite les &eacute;valuateurs de points, dans une &eacute;chelle de la visibilit&eacute; et de la participation pouvant aller jusqu&rsquo;&agrave; obtenir des prix. Cependant, les auteurs admettent que l&rsquo;OPR est souvent mal comprise et les enqu&ecirc;tes sur les attitudes des chercheurs r&eacute;v&egrave;lent d&#39;importants obstacles &agrave; sa mise en &oelig;uvre.</p> <h3>Probl&egrave;mes de la publication des rapports, de l&rsquo;anonymat et de l&rsquo;identification des rapporteurs</h3> <p>L&rsquo;OPR se divise en deux grandes tendances : la premi&egrave;re consiste &agrave; rendre publics les textes des &eacute;valuations tout en gardant l&rsquo;anonymat des contributeurs (auteurs et relecteurs), la seconde consiste &agrave; publier les noms des &eacute;valuateurs en regard des &eacute;valuations. Pour d&eacute;tecter les tendances d&rsquo;acceptation ou de rejet actuel de l&rsquo;ouverture de l&rsquo;&eacute;valuation par les pairs, il est difficile de percevoir une &eacute;volution des comportements et des usages sur une p&eacute;riode de temps aussi courte qu&rsquo;une vingtaine d&rsquo;ann&eacute;es, comme le montrent les r&eacute;sultats des &eacute;tudes suivantes.</p> <p>Dans sa th&egrave;se, Nathalie Pignard-Cheynel (2004) faisait &eacute;tat d&rsquo;une enqu&ecirc;te menée par l&rsquo;ALPSP<a href="#_ftn7" name="_ftnref7" title="">[7]</a> en 2000 r&eacute;v&eacute;lant que 88% des répondants préf&eacute;raient dissimuler l&rsquo;identité des &eacute;valuateurs lors de l&rsquo;envoi des rapports d&rsquo;expertise aux auteurs, dans l&rsquo;objectif de protéger l&rsquo;évaluateur d&rsquo;éventuelles plaintes ou réclamations de la part de l&rsquo;auteur. Une r&eacute;cente &eacute;tude pilote portant sur les effets de l&rsquo;OPR sur le comportement des &eacute;valuateurs, &agrave; partir de cinq revues d&#39;<em>Elsevier</em>, confirme cette tendance. Bravo et al (2019) remarquent que seuls 8,1% des &eacute;valuateurs ont accept&eacute; de r&eacute;v&eacute;ler leur identit&eacute; dans les rapports publi&eacute;s. D&rsquo;apr&egrave;s ces auteurs, ces r&eacute;sultats sugg&egrave;rent qu&#39;un examen par les pairs ouvert ne compromet pas le processus, du moins lorsque les arbitres sont en mesure de prot&eacute;ger leur anonymat.</p> <p>Une &eacute;tude massive et mondiale multidisciplinaire (3040 r&eacute;ponses sur 39000 e-mails) portant sur l&rsquo;&eacute;volution de l&rsquo;examen par les pairs a pr&eacute;sent&eacute; un paysage divis&eacute; aupr&egrave;s d&rsquo;auteurs-&eacute;valuateurs-&eacute;diteurs (Ware, 2008). Questionn&eacute;s sur son &eacute;volution r&eacute;cente et ses modifications comme la croissance de l&rsquo;examen en double-aveugle, l&#39;introduction de l&rsquo;&eacute;valuation ouverte ou celle qui se d&eacute;roule apr&egrave;s que les articles soient publi&eacute;s, les r&eacute;pondants ont pr&eacute;f&eacute;r&eacute; le double-aveugle pour plus de la moiti&eacute;. &Agrave; la question de savoir laquelle parmi les quatre types d&rsquo;&eacute;valuations &eacute;tait leur option privil&eacute;gi&eacute;e, ils ont pr&eacute;f&eacute;r&eacute; l&rsquo;examen en double aveugle (56%), suivies de 25% pour le simple-aveugle, de 13% pour les &eacute;valuations ouvertes et de 5% pour les examens post&eacute;rieurs &agrave; la publication. L&rsquo;OPR agissait comme un repoussoir pour de nombreux &eacute;valuateurs, 47% d&#39;entre eux affirmant que la divulgation de leur nom &agrave; l&#39;auteur les rendrait moins enclins &agrave; s&rsquo;engager dans une &eacute;valuation.</p> <p>Cette &eacute;tude confirme les enqu&ecirc;tes pr&eacute;-existantes de Van Rooyen et al. (1998) qui constataient que le d&eacute;masquage des relecteurs augmentait les chances de ceux-ci de d&eacute;cliner le travail d&rsquo;&eacute;valuation (23% contre 35%) alors que la plupart des auteurs pr&eacute;f&eacute;reraient conna&icirc;tre l&rsquo;identit&eacute; des relecteurs (55% en faveur contre 26%) ou celle de Melero et L&oacute;pez-Santove&ntilde;a (2001) qui remarquaient que 75% des &eacute;valuateurs &eacute;taient pour la pr&eacute;servation de leur anonymat (Nobarany &amp; Booth, 2017). Ces derniers auteurs ont r&eacute;alis&eacute; une &eacute;tude comparative entre les politiques d&rsquo;anonymat pratiqu&eacute;es par les &eacute;diteurs (essentiellement STM) et leur utilisation de l&rsquo;automatisation sur les plateformes d&eacute;di&eacute;es. Leur constat est que les politiques d&rsquo;anonymisation peuvent ressortir renforc&eacute;es mais tout aussi bien &ecirc;tre r&eacute;duites&nbsp;; une souplesse d&rsquo;actions est donc n&eacute;cessaire pour que chaque syst&egrave;me automatis&eacute; de publication puisse s&rsquo;adapter aux exigences disciplinaires et aux choix &eacute;ditoriaux.</p> <p>Un examen des &eacute;tudes d&rsquo;<em>Elsevier</em> sur plus de 3000 chercheurs actifs r&eacute;pondants, conduit par Mulligan &amp; van Rossum (2014), a montr&eacute; que l&rsquo;anonymat comptait beaucoup pour les chercheurs pendant le processus d&rsquo;&eacute;valuation. Les questions portaient sur des options d&rsquo;&eacute;valuation allant du double aveugle au simple aveugle en passant par diff&eacute;rentes formes d&rsquo;&eacute;valuation ouverte entre pairs. Les auteurs ont d&eacute;couvert qu&rsquo;au fur et &agrave; mesure que la transparence augmentait, la probabilit&eacute; que les auteurs soumettent des articles diminuait. 46% ont d&eacute;clar&eacute; qu&#39;il &eacute;tait peu probable qu&#39;ils soumettent un article &agrave; une revue dans laquelle le nom de l&rsquo;&eacute;valuateur &eacute;tait publi&eacute; en parall&egrave;le des rapports (identit&eacute; ouverte). Outre le fait que les auteurs n&rsquo;aimaient pas l&rsquo;id&eacute;e que leurs erreurs puissent &ecirc;tre rendues publiques, une proportion de 49% a d&eacute;clar&eacute; qu&rsquo;elle n&rsquo;effectuerait pas d&rsquo;&eacute;valuation dans une revue qui proposerait un OPR.</p> <p>Cette r&eacute;ticence se confirme par une &eacute;tude pluridisciplinaire r&eacute;cente men&eacute;e par Ross-Hellauer, Deppe &amp; Schmidt (2017) &agrave; partir du workshop du projet europ&eacute;en OpenAire2020 intitul&eacute; &laquo;<em>&nbsp;Open Peer Review - models benefits and limitations&nbsp;</em>&raquo; qui s&rsquo;est tenu en juin 2016 &agrave; G&ouml;ttingen (Allemagne).&nbsp; Sur les trois quarts des r&eacute;pondants (76,2%) ayant d&eacute;j&agrave; pris part &agrave; des OPR, 50,8% exprimaient une opinion d&eacute;favorable &agrave; l&rsquo;id&eacute;e de publier le nom des &eacute;valuateurs en face des rapports.</p> <h3>L&rsquo;&eacute;tude des commentaires</h3> <p>Wakeling et al. (2018) ont pr&eacute;sent&eacute; une analyse quantitative et qualitative des commentaires sur les articles publi&eacute;s par le m&eacute;gajournal, <em>Plos One</em>, entre 2003 et 2016. Ils proposent une typologie des commentaires divis&eacute;e en deux cat&eacute;gories non exclusives : une partie proc&eacute;durale qui concerne les commentaires non li&eacute;s au contenu du document, mais plut&ocirc;t faisant r&eacute;f&eacute;rence au processus de publication, &agrave; l&rsquo;expression, &agrave; la composition, aux r&eacute;f&eacute;rences ; une partie acad&eacute;mique qui concerne les commentaires s&rsquo;int&eacute;ressant d&rsquo;une mani&egrave;re ou d&rsquo;une autre au contenu scientifique de l&rsquo;article. Leur constat est que la moyenne du taux de commentaires d&eacute;j&agrave; faible &eacute;tait en diminution depuis 2010 ; le pourcentage d&#39;articles avec commentaire est de l&rsquo;ordre de 7,4 % avec en moyenne 1,9 commentaire par article. La typologie des commentaires d&eacute;velopp&eacute;e pour cette recherche (tableau traduit en Annexe 1) r&eacute;v&egrave;le que pr&egrave;s d&#39;un tiers des commentaires (29,1%) avaient &eacute;t&eacute; formul&eacute;s par un &eacute;diteur et environ un quart seulement (23,8%) par l&#39;auteur de l&#39;article. Les commentaires produits par les lecteurs &eacute;tant les plus fr&eacute;quents (38,3%), mais une variation importante existe entre les diff&eacute;rents titres de Plos. Environ la moiti&eacute; des commentaires contient une discussion th&eacute;orique de l&#39;article mais ces discussions se concentrent essentiellement sur la validit&eacute; technique du document.</p> <p>L&rsquo;interpr&eacute;tation des commentaires par Wakeling et al., r&eacute;v&egrave;le que la cat&eacute;gorie &laquo;&nbsp;Discussion &raquo; est loin de rejoindre le c&oelig;ur revendiqu&eacute; par l&rsquo;OAMJ de la validit&eacute; scientifique et du techniquement solide en m&eacute;thodologie et en analyse. Les commentaires tendaient &agrave; focaliser sur des questions aux auteurs, les tendances du futur travail, ou des d&eacute;bats autour des d&eacute;finitions ou de la terminologie. M&ecirc;me si ces discussions sont int&eacute;ressantes, elles ne repr&eacute;sentent pas des crit&egrave;res sur lesquels prendre des d&eacute;cisions d&rsquo;acception ou de rejet (Wakeling et al., 2018). Au final, cette &eacute;tude r&eacute;v&egrave;le que les commentaires sont surtout r&eacute;alis&eacute;s par les lecteurs externes au processus de peer-reviewing. Alors que la rh&eacute;torique des &eacute;diteurs de l&rsquo;OAMJ est bas&eacute;e sur le fait que &laquo; la communaut&eacute; d&eacute;cide &raquo; (Spezi et al., 2018) des articles importants, il semblerait pour Wakeling et al. qu&rsquo;en pratique il n&rsquo;existe aucun moyen de regrouper et de communiquer efficacement les points de vue de la &laquo;&nbsp;communaut&eacute;&nbsp;&raquo;.</p> <p>Le r&eacute;sultat s&#39;apparente donc davantage &agrave; &laquo;&nbsp;le chercheur d&eacute;cide&nbsp;&raquo;, car il incombe &agrave; chaque lecteur-chercheur de d&eacute;couvrir et d&#39;&eacute;valuer des articles. Alors que les taux de soumission globaux aux m&eacute;garevues pourraient atteindre un plateau, la vision des m&eacute;garevues de d&eacute;mocratisation de la science repose sur le fait que ces articles sont non seulement publi&eacute;s, mais &eacute;galement lus et suivis publiquement. Il semble donc essentiel que les &eacute;diteurs de l&#39;OAMJ continuent d&#39;&eacute;tudier de nouveaux outils d&#39;&eacute;valuation et de d&eacute;couverte d&#39;articles.</p> <p>En 1998, Bingham et al. remarquaient que les critiques post-publication - souvent br&egrave;ves et concernant des points de d&eacute;tail - effectu&eacute;es par les lecteurs en ligne pouvaient apporter de pr&eacute;cieux commentaires, mais ne suffisaient pas &agrave; remplacer une &eacute;valuation compl&egrave;te par des pairs. Vingt ans plus tard, il ne semble pas que cette consid&eacute;ration ait notablement &eacute;volu&eacute;. S. Nobarany &amp; K. S Booth (2017) notaient ainsi qu&rsquo;en 2006, la revue Nature obtenait des r&eacute;sultats similaires et que ce type d&rsquo;examen suscitait peu d&rsquo;int&eacute;r&ecirc;t de la part des auteurs ou des relecteurs. Cette p&eacute;riode se caract&eacute;rise d&rsquo;ailleurs par l&rsquo;abandon des blogs scientifiques par les grands &eacute;diteurs comme <em>Nature</em> (Broudoux, 2013).</p> <p>Lors d&rsquo;un examen par les pairs traditionnels, on consid&egrave;re la convergence des &eacute;valuations des examinateurs ind&eacute;pendants comme positive, c&rsquo;est un signe de fiabilit&eacute; de l&rsquo;examen des propositions. Cependant, l&rsquo;&eacute;tude sur l&rsquo;open peer review r&eacute;alis&eacute;e par Bornmann et Daniel (2010) qui ont explor&eacute; ce principe de fiabilit&eacute; inter-&eacute;valuateurs indique que les &eacute;valuations r&eacute;alis&eacute;es par commentaires ouverts de la revue ACP poss&eacute;daient un niveau faible de convergence et comparable &agrave; celui des processus traditionnels d&rsquo;&eacute;valuation par les pairs. Un haut niveau de convergence ne serait d&rsquo;ailleurs pas toujours souhaitable, puisqu&rsquo;il pourrait aussi r&eacute;v&eacute;ler une redondance entre &eacute;valuateurs qui n&rsquo;auraient pas &eacute;t&eacute; s&eacute;lectionn&eacute;s pour leur diversit&eacute; (Bailar, 1991) cit&eacute; par Bornmann et Daniel (2010). En r&eacute;sum&eacute;, les auteurs estiment qu&rsquo;un degr&eacute; faible de fiabilit&eacute; inter-&eacute;valuateurs ne doit pas &ecirc;tre envisag&eacute; comme une indication de la qualit&eacute; du processus d&#39;examen par les pairs, mais comme une de ses caract&eacute;ristiques g&eacute;n&eacute;rales pouvant &eacute;ventuellement avoir un effet positif sur la validit&eacute; pr&eacute;dictive des d&eacute;cisions de s&eacute;lection des manuscrits par les &eacute;diteurs. De ce point de vue, on peut donc affirmer que la non convergence de l&rsquo;&eacute;valuation ouverte n&rsquo;est pas un signe de manque de fiabilit&eacute;.</p> <p>Par ailleurs, il faut relever que les types de recommandations des &eacute;valuateurs varient selon le degr&eacute; d&rsquo;ouverture des &eacute;valuations et de leur anonymat. Lorsque leur nom est publi&eacute;, le pourcentage de rejet est faible et les critiques mineures plus nombreuses que les critiques majeures (Bravo et al., 2019). Les auteurs remarquent ainsi que ceux qui &eacute;crivent les critiques plus positives seront aussi les plus enclins &agrave; r&eacute;v&eacute;ler leur identit&eacute; plus tard en tant que signal de r&eacute;putation aupr&egrave;s des auteurs et de la communaut&eacute;.</p> <h2>TYPOLOGIE DES ACTEURS DE L&#39;OPR</h2> <h3>L&rsquo;int&eacute;gration par les m&eacute;garevues d&rsquo;un workflow &eacute;ditorial mod&eacute;lisant l&rsquo;&eacute;valuation</h3> <p>La fondation par les grands &eacute;diteurs de m&eacute;ga-revues multidisciplinaires est le signe d&rsquo;une conversion de leur modèle éditorial au <em>Gold Open Access</em> (CNRS, 2015). La Dist du CNRS (2015) r&eacute;v&egrave;le ainsi que pr&egrave;s de 80% des nouveaux titres lancés sur le marché sont des revues en <em>Open Access.</em> Ce mod&egrave;le s&rsquo;impose comme r&eacute;ponse optimale aux flux croissants de la publication scientifique car les &eacute;diteurs renvoient aux m&eacute;garevues les propositions qu&rsquo;ils refusent, les articles ne quittant pas ainsi le giron de l&rsquo;&eacute;diteur (Boukacem, 2014).</p> <p>L&#39;&eacute;volution des crit&egrave;res d&#39;&eacute;valuation par les pairs est rendue visible par la m&eacute;garevue <em>Plos One</em>, qui prend en compte des r&eacute;sultats n&eacute;gatifs &laquo; non recevables &raquo; par les revues classiques (Verlaet &amp; Dillaerts, 2017). De nouvelles strat&eacute;gies de publication coupl&eacute;es &agrave; de nouveaux mod&egrave;les d&rsquo;&eacute;valuation par les pairs associ&eacute;s sont devenues possibles : la barri&egrave;re &agrave; la s&eacute;lection &eacute;tant peu &eacute;lev&eacute;e, un grand nombre d&rsquo;articles est publi&eacute;. Les auteurs y trouvent une perspective plus large et plus rapide de publication de leurs articles et les &eacute;diteurs gagnent des revenus proportionnels au nombre d&rsquo;articles publi&eacute;s (Boukacem, 2014). Il est demand&eacute; aux examinateurs de Plos de fonder leurs recommandations d&rsquo;acceptation ou de rejet sur le bien-fond&eacute; et la robustesse de la recherche, notamment la m&eacute;thodologie et la validit&eacute; des r&eacute;sultats. Pour <em>Plos</em>, la fonction de publication des &laquo;&nbsp;reviews&nbsp;&raquo; est propos&eacute;e en option &agrave; l&rsquo;auteur et &agrave; l&rsquo;&eacute;valuateur pour la signature de ses &eacute;valuations, le processus d&rsquo;&eacute;valuation &eacute;tant par d&eacute;faut en &laquo;&nbsp;simple aveugle&nbsp;&raquo;. Lorsqu&rsquo;un article est accept&eacute;, l&rsquo;auteur est alors invit&eacute; &agrave; publier l&#39;historique de ses &eacute;valuations qui comprend la lettre de d&eacute;cision &eacute;ditoriale compl&egrave;te pour chaque r&eacute;vision avec ses &eacute;valuations ainsi que les r&eacute;ponses aux commentaires des &eacute;valuateurs, y compris les pi&egrave;ces jointes.</p> <p>Dans une m&eacute;ga-revue, m&ecirc;me si les orientations &eacute;ditoriales subsistent au sein des revues disciplinaires, la qualit&eacute; seule de l&rsquo;article soumis devrait &ecirc;tre prise en compte (Gu&eacute;don, 2014). Selon la philosophie de Plos les examinateurs ne devraient pas juger de la nouveaut&eacute;, de la pertinence ou de la signification de la recherche, &eacute;valuation qui devrait &ecirc;tre laiss&eacute;e au lecteur et &agrave; la communaut&eacute; au sens large. En se concentrant sur la rigueur et la solidit&eacute; (bien-fond&eacute;) de la recherche, la m&eacute;garevue vise &agrave; garantir la publication de tous les r&eacute;sultats utiles et &agrave; emp&ecirc;cher toute &eacute;valuation subjective sur la signification ou la pertinence d&rsquo;une &eacute;tude (Horbach, Halffman, 2018).</p> <p>Mais cette technicit&eacute; objective du bien-fond&eacute; est remise en question par des r&eacute;sultats qui sugg&egrave;rent que d&rsquo;autres crit&egrave;res pourraient influencer les d&eacute;cisions des relecteurs, engendrant des d&eacute;viations au mod&egrave;le OAMJ (<em>Open-Access Mega-Journals)</em> (Spezi et al., 2018). En particulier, l&rsquo;&eacute;tude par entretiens de ces auteurs a r&eacute;v&eacute;l&eacute; que les exigences des &eacute;diteurs pour qu&rsquo;un article soit &laquo; digne &raquo; d&rsquo;&ecirc;tre publi&eacute; entra&icirc;naient des jugements d&rsquo;importance et de nouveaut&eacute; ; ils ont relev&eacute; &eacute;galement que les &eacute;valuateurs et r&eacute;dacteurs mettaient en pratique des crit&egrave;res traditionnels d&rsquo;&eacute;valuation pour justifier de la publication ou du rejet des articles, comme l&rsquo;originalit&eacute; et la pertinence.</p> <h3>Les mod&egrave;les des revues et plateformes de publication centr&eacute;es sur l&rsquo;&eacute;valuation</h3> <p>Dans ces mod&egrave;les, l&rsquo;activit&eacute; de la revue ou de la plateforme est concentr&eacute;e sur l&rsquo;&eacute;valuation, encod&eacute;e par un workflow &eacute;ditorial. Elle int&egrave;gre un &eacute;cosyst&egrave;me visant diff&eacute;rents objectifs pouvant aller jusqu&rsquo;au r&eacute;f&eacute;rencement et la recommandation. Deux mod&egrave;les sont identifiables, celui de la revue ou m&eacute;garevue pouvant s&rsquo;instituer en plateforme (comme F1000Res) et celui du d&eacute;couplage o&ugrave; l&rsquo;&eacute;tape d&rsquo;&eacute;valuation est d&eacute;connect&eacute;e de la publication dans une revue (comme Peer Community In).</p> <p style="text-align: center;"><img height="178" src="https://www.numerev.com/img/ck_6_1_Capture d’écran 2021-05-03 à 14.06.36.png" width="605" /></p> <address style="text-align: center;">Tableau 1 - Les mod&egrave;les de revues et des plateformes face &agrave; l&#39;OPR</address> <h3>Le mod&egrave;le collaboratif bas&eacute; sur le libre-acc&egrave;s g&eacute;rant l&rsquo;ensemble du processus de publication</h3> <p>Acquise par le Groupe <em>Taylor &amp; Francis </em>en janvier 2020, la plateforme <em>F1000Research</em> a &eacute;t&eacute; pionni&egrave;re dans l&rsquo;OPP. Elle fait partie de la galaxie F1000 et couvrirait aujourd&rsquo;hui 40 disciplines et environ 3 500 revues. Le choix de la Commission Europ&eacute;enne, en mars 2020, de F1000 pour concevoir l&rsquo;<em>European Commission Open Research Publishing Platform</em> destin&eacute;e &agrave; &eacute;valuer, publier et g&eacute;rer l&rsquo;archivage des articles financ&eacute;s par Horizon 2020<a href="#_ftn8" name="_ftnref8" title="">[8]</a> r&eacute;v&egrave;le des incitations qui pourraient devenir des obligations.</p> <p>Les auteurs publient directement leurs articles qui sont imm&eacute;diatement lisibles et citables. La version 2020 explicite le workflow &eacute;ditorial<a href="#_ftn9" name="_ftnref9" title="">[9]</a>&nbsp;: les auteurs et l&rsquo;&eacute;quipe &eacute;ditoriale assist&eacute;e par un algorithme (<em>Reviewer Finder Tool</em>) proposent des examinateurs experts qui sont in fine s&eacute;lectionn&eacute;s par les auteurs. Les rapports des &eacute;valuateurs identifi&eacute;s sont publi&eacute;s &agrave; c&ocirc;t&eacute; de l&#39;article, avec les r&eacute;ponses des auteurs et les commentaires des utilisateurs enregistr&eacute;s. Les auteurs sont encourag&eacute;s &agrave; publier les versions r&eacute;vis&eacute;es de leurs articles. <em>F1000Research </em>g&eacute;n&egrave;re des citations typographiquement norm&eacute;es avec une granularit&eacute; fine&nbsp;: toutes les versions d&#39;un article sont li&eacute;es et citables, de m&ecirc;me que les commentaires r&eacute;alis&eacute;s par les &eacute;valuateurs.</p> <p>C&rsquo;est aussi l&rsquo;objectif des OAMJ comme <em>Frontiers</em> de favoriser les interactions entre auteurs et relecteurs afin d&rsquo;arriver &agrave; un consensus sur les moyens d&rsquo;am&eacute;liorer la qualit&eacute; des articles propos&eacute;s. Dans ce mod&egrave;le &agrave; &eacute;tapes, la s&eacute;lection est s&eacute;par&eacute;e de la discussion. A l&rsquo;&eacute;tape de pr&eacute;-s&eacute;lection, les identit&eacute;s des &eacute;valuateurs restent secr&egrave;tes. Puis, les rapports d&rsquo;&eacute;valuation sont publi&eacute;s dans le forum, ce qui ouvre l&rsquo;&eacute;tape de discussion entre auteurs et &eacute;valuateurs, sous la houlette des &eacute;diteurs. Ce n&rsquo;est qu&rsquo;&agrave; la publication finale de l&rsquo;article que les identit&eacute;s des &eacute;valuateurs seront rendues visibles &agrave; tous. Dans ce mod&egrave;le, quatre r&ocirc;les d&rsquo;&eacute;diteurs encadrent la totalit&eacute; du processus et jouent si besoin un r&ocirc;le d&rsquo;arbitres entre &eacute;valuateurs et auteurs sur le forum.</p> <h3>Le mod&egrave;le de d&eacute;couplage scindant l&rsquo;activit&eacute; d&rsquo;&eacute;valuation de celle de publication</h3> <p>Il se d&eacute;cline en pr&eacute;-publication avec notamment les &eacute;pi-revues construites sur les serveurs d&rsquo;archives ouvertes h&eacute;bergeant les pr&eacute;-print et en post-publication avec les articles publi&eacute;s ouverts &agrave; commentaires.</p> <p>La plateforme gratuite et non commerciale de recommandation de pr&Eacute;prints<em> Peer Community </em>In (PCI<a href="#_ftn10" name="_ftnref10" title="">[10]</a>) ne vise pas le suivi des activit&eacute;s des &eacute;valuateurs, mais contribue &agrave; valoriser leur activit&eacute;. Le syst&egrave;me s&rsquo;appose &agrave; un serveur de preprint et lorsque les propositions sont valid&eacute;es, les &eacute;valuations sont publi&eacute;es et servent de recommandation pour leur publication dans une revue ou un serveur d&rsquo;archives ouvertes. Il s&rsquo;agit d&rsquo;un syst&egrave;me de publication alternatif bas&eacute; sur la recommandation des preprints et leur &eacute;valuation, le tout dans une approche disciplinaire car les communaut&eacute;s de pairs s&rsquo;agr&egrave;gent par sp&eacute;cialit&eacute; : Peer Community in Evolutionary Biology (PCI Evol Biol), Peer Community in Ecology (PCI Ecol), Peer Community in Computational Statistics (PCI Comp Stat), et Peer Community in Paleontology (PCI Paleo).</p> <p>PRElights est un mod&egrave;le collaboratif fond&eacute; par The Company of Biologists &ndash; soci&eacute;t&eacute; savante cr&eacute;&eacute;e en 1925 (UK) et &eacute;ditrice de 5 revues. Les &eacute;valuateurs - invit&eacute;s &agrave; demander eux-m&ecirc;mes leur int&eacute;gration &ndash; sont charg&eacute;s de s&eacute;lectionner les pre-print pour les int&eacute;grer &agrave; une interface d&rsquo;examen, o&ugrave; ils seront susceptibles de devenir l&rsquo;objet d&#39;une conversation globale et non m&eacute;diatis&eacute;e (&laquo;&nbsp;ouvert&nbsp;&raquo; est ici consid&eacute;r&eacute; comme public + non anonyme + scriptible pour tous les chercheurs authentifi&eacute;s).</p> <p>En post-print, la plateforme multidisciplinaire PubPeer ouvre &agrave; tous la possibilit&eacute; de commenter des articles d&eacute;j&agrave; publi&eacute;s, en laissant &agrave; chacun le choix de l&rsquo;identification ou de l&rsquo;anonymat. R&eacute;cemment en 2020, c&rsquo;est par <em>PubPeer</em> que les faiblesses d&rsquo;un article cosign&eacute; par le Pr. Raoult&nbsp; et publi&eacute; par <em>The Lancet</em> ont &eacute;t&eacute; port&eacute;s &agrave; la connaissance du grand public, article ensuite retir&eacute; de cette revue. <em>PubPeer</em> permet de questionner les articles et donne la possibilit&eacute; de faire conna&icirc;tre des fraudes, mais autorise aussi le lancement de campagnes de d&eacute;nonciation (voir la controverse concernant Catherine Jessus<a href="#_ftn11" name="_ftnref11" title="">[11]</a>). L&rsquo;anonymat des commentateurs relance alors le d&eacute;bat sur le maintien de l&rsquo;objectif de qualit&eacute; du processus d&rsquo;&eacute;valuation. D. Torny (2018) qui a analys&eacute; cette plateforme s&rsquo;interrogeait sur ses fonctions&nbsp;: science vigilante, club de revue ou lancement d&rsquo;alertes&nbsp;?</p> <h3>Le mod&egrave;le de d&eacute;couplage bas&eacute; sur les auteurs</h3> <p>Ce mod&egrave;le r&eacute;v&egrave;le une orientation qui centre l&rsquo;activit&eacute; d&rsquo;&eacute;valuation autour de l&rsquo;auteur.</p> <p><em>Researchers.one</em><a href="#_ftn12" name="_ftnref12" title="">[12]</a> fond&eacute;e par les jeunes chercheurs Harry Crane et Ryan Martin (2018) est une plateforme multidisciplinaire de preprint d&rsquo;auteurs, ouverte &agrave; commentaires. Est mise en valeur l&rsquo;autonomie des chercheurs &agrave; poursuivre leur passion, leur autorit&eacute; pour d&eacute;velopper et diss&eacute;miner eux-m&ecirc;mes leur travail et l&rsquo;acc&egrave;s pour s&rsquo;engager dans la &laquo;&nbsp;communaut&eacute; internationale des chercheurs&nbsp;&raquo;. Dans ce mod&egrave;le, le fait de d&eacute;poser un article le rend accessible l&rsquo;article &agrave; la lecture et au commentaire par tous.</p> <p><em>The Winnover</em><a href="#_ftn13" name="_ftnref13" title="">[13]</a> est embl&eacute;matique du devenir &eacute;conomique des initiatives du libre-acc&egrave;s. La plateforme d&rsquo;&eacute;criture et &eacute;dition d&rsquo;articles scientifiques Authorea l&rsquo;acquiert en 2016 avant d&rsquo;&ecirc;tre rachet&eacute;e &agrave; son tour par <em>Wiley</em>. Apr&egrave;s le d&eacute;p&ocirc;t par l&rsquo;auteur d&rsquo;un article ou de tout autre &eacute;crit qu&rsquo;il estimait l&eacute;gitime de rendre public, celui-ci &eacute;tait automatiquement publi&eacute; et ouvert &agrave; &laquo;&nbsp;&eacute;valuation&nbsp;&raquo; aux membres enregistr&eacute;s sur la plateforme. La version finale &eacute;tait stabilis&eacute;e par l&rsquo;auteur qui achetait alors un DOI.</p> <p style="text-align: center;"><img height="378" src="https://www.numerev.com/img/ck_6_1_Capture d’écran 2021-05-03 à 14.29.36.png" width="661" /></p> <address style="text-align: center;">Tableau 2 - D&eacute;clinaisons OPR de l&rsquo;&eacute;valuation, des modes d&rsquo;ouverture et des co&ucirc;ts par revue ou plateforme</address> <p>&nbsp;</p> <h3>Le mod&egrave;le de la plateforme pour &eacute;valuateurs</h3> <p><em>Publons</em> est un service valorisant le travail des &eacute;valuateurs, en recensant les rapports d&rsquo;&eacute;valuation et en reliant les articles &eacute;valu&eacute;s aux donn&eacute;es du <em>Web of Science</em> (WoS). Il est possible pour un &eacute;valuateur de publier ses rapports et de suivre l&rsquo;&eacute;volution d&rsquo;un article (par exemple un article refus&eacute; qui serait repropos&eacute; et accept&eacute; par une autre revue). Surveillant ses tableaux de bord, l&rsquo;&eacute;valuateur se voit attribuer des points et des prix. <em>Publons</em>, rachet&eacute; en 2017 par <em>Clarivate Analytics </em>(soci&eacute;t&eacute; acquise par <em>Onex</em><a href="#_ftn15" name="_ftnref15" title="">[15]</a> en 2016), est un service qui s&rsquo;ajoute &agrave; la base de donn&eacute;es bibliographiques de donn&eacute;es de recherche WoS, &agrave; <em>ScholarOne</em>, service de gestion de manuscrits (processus de soumission, d&rsquo;&eacute;valuation et de suivi d&rsquo;articles), ainsi qu&rsquo;au <em>Journal of Citation Report</em> (JCR), qui fournit des informations bibliom&eacute;triques sur plus de 11 000 revues scientifiques dans plus de 230 disciplines du domaine des sciences et des sciences sociales (Wikip&eacute;dia, entr&eacute;e JCR).</p> <h2>CONCLUSION</h2> <h3>Discussion</h3> <p>Les diff&eacute;rents mod&egrave;les &eacute;tudi&eacute;s nous permettent de pr&eacute;ciser le classement propos&eacute; par Wolfram et al. (2019). Le mod&egrave;le innovant de la plateforme ouverte collaborative est celle qui mise sur l&rsquo;autoritativit&eacute; de l&rsquo;auteur et celle du lecteur, reposant sur le contrat implicite de la solidarit&eacute; &agrave; l&rsquo;int&eacute;rieur d&rsquo;une discipline. Les revues comme <em>Atmospheric Chemistry and Physics</em>, les plateformes <em>F1000Research</em> ou <em>Peer Community In</em> proposent des espaces d&rsquo;&eacute;criture (forums, champs texte d&eacute;di&eacute;s aux commentaires, etc.) qui ont &eacute;t&eacute; adopt&eacute;s par les usages disciplinaires. Elles repr&eacute;sentent des tentatives int&eacute;ressantes de cr&eacute;ation de nouvelles conditions au d&eacute;roulement de l&rsquo;&eacute;valuation. Le traitement de l&rsquo;anonymat y est fortement diff&eacute;renci&eacute;, laissant le choix aux &eacute;valuateurs (opt-in) ou au contraire imposant l&rsquo;identification comme premier crit&egrave;re.</p> <p>Deux tendances pour les plateformes d&rsquo;examen ouvert par les pairs sont visibles : celles qui s&rsquo;adressent aux auteurs (plateformes de publication de preprint dont l&rsquo;ouverture &agrave; commentaires est susceptible de varier) et celles qui s&rsquo;adressent aux &eacute;valuateurs (plateformes de postpublication ou de d&eacute;couplage).</p> <p>Cette exploration nous a permis de remarquer la tendance des revues &agrave; se modulariser (mod&egrave;les d&rsquo;&eacute;crits, espaces d&rsquo;&eacute;valuation, de discussion, publication, diffusion, r&eacute;f&eacute;rencement, etc.) devenant ainsi des plateformes avec des services &agrave; rentabiliser. On s&rsquo;interroge aussi sur le mod&egrave;le &eacute;conomique des revues pratiquant le mod&egrave;le auteur-payeur (APC) qui en centrant leur activit&eacute; sur l&rsquo;&eacute;valuation pourrait aussi la transformer en service payant. Dans un article r&eacute;cent, Pierre Carl Langlais et Eprist (2020) ont fait le constat d&rsquo;une acc&eacute;l&eacute;ration de l&rsquo;&eacute;valuation ouverte &agrave; partir de 2017, passant de 247 revues &agrave; 618 en 2019. N&eacute;anmoins notre article montre que ces chiffres ne r&eacute;v&egrave;lent pas une diversit&eacute; disciplinaire mais plut&ocirc;t une concentration des revues sur les plateformes de l&rsquo;OAMJ.</p> <p>D&rsquo;une mani&egrave;re g&eacute;n&eacute;rale, l&rsquo;Open Science dont le fer de lance est l&rsquo;&eacute;valuation ouverte vise &agrave; faciliter l&rsquo;acc&egrave;s aux connaissances pour les entreprises, les administrations, les politiques et les citoyens. Quelles le&ccedil;ons alors &agrave; retenir face &agrave; la pand&eacute;mie de l&rsquo;ouverture des publications ayant trait au coronavirus&nbsp;? Comment les donn&eacute;es visant &agrave; fabriquer les vaccins ont-elles &eacute;t&eacute; partag&eacute;es&nbsp;? Peut-on mesurer ici les effets de la transparence voulue par la D&eacute;claration DORA de 2012&nbsp;?</p> <p>Comme Fitzpatrik (2010) et Verlaet (2017) qui interrogent l&rsquo;autorit&eacute; acad&eacute;mique, nous notons que dans les mod&egrave;les explor&eacute;s, le r&ocirc;le donn&eacute; &agrave; la communaut&eacute; reste majeur puisqu&rsquo;il transforme l&#39;&eacute;valuation par les pairs bas&eacute; sur un processus ax&eacute; sur le tri-contr&ocirc;le de ce qui est publi&eacute; en un processus de filtrage ma&icirc;tris&eacute; par les pairs auteurs-lecteurs. Dans un tel syst&egrave;me, l&rsquo;investissement des membres dans une discussion ouverte devient le point principal de leur progression et de celui de la communaut&eacute; dans son ensemble&nbsp;; ce n&rsquo;est que de cette mani&egrave;re que l&rsquo;individu &eacute;rudit et l&rsquo;ensemble du domaine r&eacute;ussissent (Fitzpatrik, 2010). L&rsquo;auteur-cr&eacute;ateur-innovateur retrouve une place au c&oelig;ur d&rsquo;un dispositif qui pratique un examen non s&eacute;lectif. Les crit&egrave;res d&rsquo;importance et de nouveaut&eacute; s&rsquo;affaiblissent alors au profit de celui de la qualit&eacute; (Walker &amp; Rocha da Silva, 2015). Le lien entre auteurs et lecteurs en sortirait renforc&eacute;, ce qui contribuerait &agrave; l&rsquo;&eacute;largissement du lectorat et &agrave; l&rsquo;enrichissement culturel de la soci&eacute;t&eacute; (Fitzpatrick, 2012). Pontille &amp; Torny (2015) vont plus loin en pr&eacute;tendant que les lecteurs deviendraient une nouvelle instance de jugement cl&eacute; pour la diffusion et la validation, renouvelant la d&eacute;finition des pairs et donc le processus d&rsquo;&eacute;valuation. Cependant, ce mod&egrave;le de la &laquo;&nbsp;communaut&eacute;&nbsp;&raquo; pourrait favoriser un ph&eacute;nom&egrave;ne d&rsquo;endogamie li&eacute; &agrave; l&rsquo;effet &laquo;&nbsp;petit monde&nbsp;&raquo;, avec des espaces de polarisation o&ugrave; chacun.e s&rsquo;inscrirait dans la communaut&eacute; de ses croyances; de nouveau le biais de confirmation r&eacute;apparaitrait.</p> <p>Compte-tenu de la puissance des acteurs de l&rsquo;&eacute;dition scientifique qui promeuvent l&rsquo;OPR dans un objectif de mon&eacute;tisation des traces de lecture, nous pensons qu&rsquo;un risque se tient dans le fait que l&rsquo;activit&eacute; d&rsquo;&eacute;valuation, actuellement bas&eacute;e sur l&rsquo;anonymat et le volontariat, pourrait devenir obligatoire et &eacute;valu&eacute;e pour au moins deux raisons qui se renforcent l&rsquo;une l&rsquo;autre. La premi&egrave;re est la m&eacute;diatisation provoqu&eacute;e par le r&eacute;f&eacute;rencement de l&rsquo;&eacute;valuateur identifi&eacute;, la seconde est la course &agrave; l&rsquo;&nbsp;&laquo;&nbsp;excellence &raquo; par la s&eacute;lection des &laquo;&nbsp;meilleurs &raquo;<a href="#_ftn16" name="_ftnref16" title="">[16]</a>.&nbsp; Ce ph&eacute;nom&egrave;ne s&rsquo;inscrit dans une course &agrave; la visibilit&eacute;, condition &agrave; la constitution de capital symbolique sp&eacute;cifique au champ scientifique que P. Bourdieu (1976) avait bien identifi&eacute;. On peut se demander si la fin de l&rsquo;anonymat des &eacute;valuateurs ne signifie pas alors la fin d&rsquo;une p&eacute;riode qui visait une communication des sciences d&eacute;pouill&eacute;e des signes d&rsquo;auteurs, pour s&rsquo;incarner &agrave; nouveau dans une subjectivation masqu&eacute;e par un appareil d&rsquo;&eacute;valuation exhib&eacute;.</p> <p>Cependant, le mod&egrave;le autoritatif qui vise &agrave; contourner le mod&egrave;le de filtrage de l&rsquo;&eacute;diteur tirant profit du travail de recherche sans aucun ancrage disciplinaire, uniquement par la gestion automatis&eacute;e des traces de lecture, repr&eacute;sente un espoir de reconnaissance de la nature collaborative du travail des chercheur.se.s. S&rsquo;ancrant dans les communaut&eacute;s disciplinaires dans lesquelles elles restent confin&eacute;es, ces initiatives nous montrent qu&rsquo;une autre voie est possible que celle du &laquo;&nbsp;<em>publish or perish</em>&nbsp;&raquo;. Le r&ocirc;le de l&rsquo;&eacute;diteur pourrait alors s&rsquo;en trouver renouvel&eacute;. D&eacute;barrass&eacute; des probl&egrave;mes d&rsquo;&eacute;valuation, il devrait se concentrer sur son savoir-faire &eacute;ditorial : cr&eacute;er des collections, redocumentariser en rassemblant des documents selon des crit&egrave;res th&eacute;matiques, &eacute;ditorialiser en liant des fragments,&nbsp; en rep&eacute;rant et en mettant en valeur des tendances, des bifurcations, etc.</p> <h3>Les initiatives fran&ccedil;aises en sciences humaines et sociales</h3> <p>Les mod&egrave;les traditionnels d&#39;&eacute;valuation et d&rsquo;autorit&eacute; demeurent encore la norme dans le champ scientifique. Les bouleversements techniques (num&eacute;risation, plateformisation, altmetrics, etc.) d&eacute;gagent de nouvelles possibilit&eacute;s pour la m&eacute;diatisation des travaux savants. Nous avons identifi&eacute; dans cet article quelques tendances qui concernent notamment l&#39;OPR dans les sciences.</p> <p>En France, l&rsquo;agr&eacute;gateur de revues, de blogs et &eacute;diteur <em>SHS OpenEdition</em> a impuls&eacute; des initiatives autour de l&rsquo;&eacute;valuation ouverte par les pairs dans des projets europ&eacute;ens comme OpenAire, et exp&eacute;rimentant l&rsquo;ouverture &agrave; commentaires avec la revue <em>VertigO </em>en 2018. Plus r&eacute;cemment, dans le cadre du projet europ&eacute;en <em>Hirmeos</em>, une exp&eacute;rimentation d&rsquo;&eacute;valuation ouverte par les pairs post-publication s&rsquo;est d&eacute;roul&eacute;e en 2019 sur la plateforme <em>OpenEdition Books</em>. Cependant ces essais et tentatives restent du domaine de l&rsquo;exp&eacute;rimentation en SHS, au vu du faible nombre de participants actifs<a href="#_ftn17" name="_ftnref17" title="">[17]</a>.</p> <p>Le livrable D3.4 du projet europ&eacute;en <em>OpenUp</em> (2018) livre les bonnes pratiques pour r&eacute;ussir un projet d&rsquo;ouverture de l&rsquo;&eacute;valuation par les pairs. Toute r&eacute;cemment fond&eacute;e, la <em>Global Alliance of Open Access Scholarly Communication Platforms</em> (GLOALL) dont le lancement a &eacute;t&eacute; inaugur&eacute; &agrave; l&rsquo;Unesco en avril 2019 inclura s&ucirc;rement un volet d&rsquo;OPR.</p> <p>Nous constatons que la notion classique de monographie ou m&ecirc;me de document est en train de se transformer et de se d&eacute;velopper au profit de la notion &eacute;volutive de ressource num&eacute;rique. Au-del&agrave; du document num&eacute;rique (article, monographie) ou de la donn&eacute;e brute, il s&rsquo;agit dor&eacute;navant de proposer un acc&egrave;s aux protocoles d&rsquo;exp&eacute;riences (deux nouveaux types d&#39;articles ont &eacute;t&eacute; annonc&eacute;s pour 2021 dans <em>Plos One</em> : les Lab Protocols et Study Protocols), aux collections de donn&eacute;es (corpus de textes, de sons, d&rsquo;images et vid&eacute;os), et aux logiciels utilis&eacute;s dans les exp&eacute;rimentations scientifiques.&nbsp; Dans le cas, fran&ccedil;ais, ces questions &eacute;mergent dans un moment ou l&#39;environnement scientifique est en pleine &eacute;volution.&nbsp; La mise en &oelig;uvre de reformes structurelles dans les universit&eacute;s fran&ccedil;aises (HCERES, LPPR, baisse des budgets, individualisation de l&rsquo;&eacute;valuation,&nbsp; rapprochements universitaires, modification du statut des chercheurs, concurrence intra et interuniversitaire) ont modifi&eacute; les conditions d&rsquo;acc&egrave;s, d&#39;&eacute;valuation et de diffusion des connaissances scientifiques.</p> <p>La mise en visibilit&eacute; des processus d&#39;&eacute;valuation vient ainsi accompagner un mouvement plus g&eacute;n&eacute;ral qui peut aboutir &agrave; de nouveaux modes d&rsquo;argumentation mais aussi &agrave; une &eacute;volution des modes d&rsquo;&eacute;valuation &laquo;&nbsp;scientifique&nbsp;&raquo; en SHS. Assistera-t-on alors &agrave; un mouvement historique dans les SHS, &agrave; savoir une &laquo;&nbsp;technicisation &raquo; accrue de ses proc&eacute;dures de recherche et l&rsquo;adoption de pratiques de publication, de fonctionnement de laboratoires, de carri&egrave;res, plus proches des sciences dures ou exp&eacute;rimentales&nbsp;?</p> <h2>R&Eacute;F&Eacute;RENCES BIBLIOGRAPHIQUES</h2> <p>Armbruster, C. (2007). Moving out of Oldenburg&#39;s Long Shadow: What is the Future for Society Publishing ? <em>Learned Publishing</em>, Vol. 20, No. 4, October 2007. Disponible sur SSRN: https://ssrn.com/abstract=997819 or http://dx.doi.org/10.2139/ssrn.997819</p> <p>Bakker, T. C., &amp; Traniello, J. F. (2019). Peer-review reciprocity and commitment to manuscript evaluation. Editorial. <em>Behavioral Ecology and Sociobiology.</em> 73:38. https://doi.org/10.1007/s00265-019-2647-2</p> <p>Bailar, J.C., (1991). Reliability, fairness, objectivity, and other inappropriate goals in peer review. <em>Behavioral and Brain Sciences</em>, 14(1): 137&ndash;138.</p> <p>B&eacute;gault B., Usages et pratiques de la publication &eacute;lectronique des r&eacute;sultats de la recherche. Le cas des sciences de&nbsp; l&rsquo;ing&eacute;nieur, <em>Document num&eacute;rique</em> 2007/3-4, Volume 10, p. 47-61</p> <p>Blackburn, J. L., &amp; Hakel, M. D. (2006). An Examination of Sources of Peer-Review Bias. <em>Psychological Science</em>, 17(5), 378-382.&nbsp;&nbsp;</p> <p>Bornmann, L., &amp; Daniel, H. D. (2010). Reliability of reviewers ratings when using public peer review: a case study. <em>Learned Publishing</em>, 23(2), 124-131.</p> <p>Boukacem-Zeghmouri, C. (2014). Les couleurs de la publication scientifique. Mutations dans la sous-filière de la revue scientifique STM, analys&eacute;es par les industries culturelles. <em>Les Enjeux de l&rsquo;Information et de la Communication</em> 15 (1), 49&ndash;66.</p> <p>Bourdieu, P. (1976). Le champ scientifique. In: Actes de la recherche en sciences sociales. Vol. 2, n&deg;2-3, juin 1976. La production de l&rsquo;id&eacute;ologie dominante. pp. 88-104. <a href="http://www.persee.fr/doc/arss_0335-5322_1976_num_2_2_3454">http://www.persee.fr/doc/arss_0335-5322_1976_num_2_2_3454</a></p> <p>Bordier, J. (2016). &Eacute;valuation ouverte par les pairs: de l&#39;exp&eacute;rimentation &agrave; la mod&eacute;lisation. URL&nbsp;:&nbsp; https://hal.archives-ouvertes.fr/hal-01283582/document</p> <p>Bravo, G., Grimaldo, F., L&oacute;pez-I&ntilde;esta, E., Mehmani, B., &amp; Squazzoni, F. (2019). The effect of publishing peer review reports on referee behavior in five scholarly journals. <em>Nature communications</em>, 10(1), 322.</p> <p>Broudoux, E. (2017). &laquo; Autorit&eacute; &eacute;pist&eacute;mique et scientifique &agrave; l&#39;&eacute;preuve de la mesure des citations &raquo; in <em>Etudes de Communication</em> n&deg;48, pp. 177-198.</p> <p>Cabanac, G. (2016). Interroger le texte scientifique. R&eacute;seaux sociaux et d&#39;information [cs.SI]. Habilitation &agrave; diriger des recherches. Universit&eacute; Toulouse 3 - Paul Sabatier. <tel-01413878>`</tel-01413878></p> <p>Campanario, J.-M. (1998). Peer review for journals as it stands today, part 2. <em>Science Communication</em>. 19 (4): 277&ndash;306.</p> <p>Chaudiron, S., Ihadjadene, M. Existe-t-il un &quot;effet AERES&quot; sur les revues en SIC ? Le cas d&#39;Etudes de Communication IN Fraysse, P., Gardi&egrave;s, C., Fabre&nbsp;, I. <em>Sur les sciences de l&#39;information et de la communication : contributions hybrides autour des travaux de Viviane Couzinet</em>, Editions CEPADUES, pp.68-87, 2017. [hal-01590202]</p> <p>CNRS-DIST (2015). L&rsquo;&eacute;dition de sciences à l&rsquo;heure numérique : dynamiques en cours, 26p.17</p> <p>Cotte, D. (2017). &Eacute;conomies scripturaires, formes documentaires et autorit&eacute;. R&eacute;flexions et esquisse d&rsquo;analyse des architextes de la &laquo; science ouverte &raquo;. <em>Communication &amp; langages,</em> 192,(2), 117-129. doi:10.4074/S033615001701208X.</p> <p>Ellison, G. (2011). Is Peer Review in Decline? Economic Inquiry, 49(3), 635‑657. https://doi.org/10.1111/j.1465-7295.2010.00261.x</p> <p>Fitzpatrick, K. (2010). Peer‐to‐peer Review and the Future of Scholarly Authority. Social Epistemology, 24(3), 161-179.</p> <p>Fitzpatrick, K. (2012). Giving It Away: Sharing and the Future of Scholarly Communication. <em>Journal of Scholarly Publishing.</em> 43(4):347. https://hcommons.org/deposits/item/mla:579/</p> <p>Ford, E. (2018). Scholarship as an Open Conversation: Using Open Peer Review in Library Instruction. In the Library with the Lead Pipe.</p> <p>G&ouml;r&ouml;gh, E., Ross-Hellauer, T., Schmidt, B., Bardi, A., Casarosa, V., Manghi, P., ... &amp; Woutersen-Windhouwer, S. Deliverable D3. 4&ndash;Open Peer Review: Good practices and lessons learned.&nbsp;URL : http://openup-h2020.eu/wp-content/uploads/2018/08/OpenUP_D3.4_Open-Peer-Review.-Good-practices-and-lessons-learned.pdf</p> <p>Granger, S. (2018). Valoriser le travail des reviewers. Retours d&rsquo;exp&eacute;rience de chercheurs sur le peer review, Publons. Compte-rendu de la journ&eacute;e d&rsquo;&eacute;tude du 27 mars 2018 &laquo; Le peer review &agrave; l&rsquo;&egrave;re de l&rsquo;open science : enjeux et &eacute;volutions &raquo; &agrave; Bordeaux. https://urfistinfo.hypotheses.org/3149</p> <p>Gu&eacute;don , J.-C. (2001). A l&rsquo;ombre d&rsquo;Oldenburg&nbsp;: biblioth&eacute;caires, chercheurs scientifiques, maisons d&rsquo;&eacute;dition et le contr&ocirc;le des publications scientifiques. ARL Meeting, Toronto, mai 2001.</p> <p>Gu&eacute;don J.-C. (2014). &ldquo;Le Libre Acc&egrave;s et la &laquo; Grande Conversation &raquo; scientifique&rdquo;, in E. Sinatra Michael, Vitali-Rosati Marcello (&eacute;dit&eacute; par), <em>Pratiques de l&rsquo;&eacute;dition num&eacute;rique</em>, collection &laquo; Parcours Num&eacute;riques &raquo;, Les Presses de l&rsquo;Universit&eacute; de Montr&eacute;al, Montr&eacute;al, p. 111-126, ISBN: 978-2-7606-3202-8.</p> <p>Hodonu-Wusu, J. O. (2018). <em>Open Science: A Review on Open Peer Review Literature</em>. Library Philosophy &amp; Practice.</p> <p>Horbach, S. S., &amp; Halffman, W. W. (2018). The changing forms and expectations of peer review. Research integrity and peer review, 3(1). URL : https://researchintegrityjournal.biomedcentral.com/articles/10.1186/s41073-018-0051-5</p> <p>Jensen, M. (2006) (En ligne). Authority 2.0 and 3.0: The Collision of Authority and Participation in Scholarly Communications. Disponible sur&nbsp; <a href="http://www.michaeljonjensen.com/authority_3_0.pdf">http://www.michaeljonjensen.com/authority_3_0.pdf</a></p> <p>Langlais, P.-L. (2016). Etude critique des nouveaux modes &laquo; d&#39;&eacute;ditorialisation &raquo; de revues scientifiques en acc&egrave;s-ouvert. [Rapport de recherche] Biblioth&egrave;que Scientifique Num&eacute;rique. 〈hal-01388556〉</p> <p>Langlais, P&nbsp;.-L., Eprist, (2020). &laquo; La conversation scientifique ouverte&nbsp;&raquo;. <em>Analyse I/IST</em> n&deg;29 - Mars 2020. URL : https://www.eprist.fr/wp-content/uploads/2020/03/EPRIST_I-IST_Note-Synthese_Evaluation-ouverte_Mars2020.pdf</p> <p>Lee, C. J., Sugimoto, C. R., Zhang, G., &amp; Cronin, B. (2013). Bias in peer review. <em>JASIST,</em> 64(1), 2‑17. https://doi.org/10.1002/asi.22784</p> <p>Mahoney, M. J. (1977). Publication prejudices: An experimental study of confirmatory bias in the peer review system. <em>Cognitive Therapy and Research</em>, 1(2), 161‑175.&nbsp;URL :&nbsp;<a href="https://doi.org/10.1007/BF01173636">https://doi.org/10.1007/BF01173636</a></p> <p>Mi&egrave;ge, B. (2015). <em>Contribution aux avanc&eacute;es de la connaissance en Information-Communication.</em> INA Editions. 239 p.</p> <p>Mulligan, A., &amp; van Rossum J. (2014). What you think about the peer-review process: We turn the spotlight on the results of Elsevier studies reflecting the views of more than 3000 active researchers.&nbsp;URL : http://www.elsevier.com/reviewers-update/story/peer-review/what-you-think-about-thepeer- review-process.</p> <p>Nobarany, S., &amp; Booth, K. S. (2017). Understanding and supporting anonymity policies in peer review. <em>Journal of the Association for Information Science and Technology</em>, 68(4), 957-971.&nbsp;URL :&nbsp;<a href="http://syavash.nobarany.com/files/taxonomy.pdf">http://syavash.nobarany.com/files/taxonomy.pdf</a></p> <p>OpenUP. Deliverable D3.4&ndash;Open Peer Review: Good practices and lessons learned. Commision Europ&eacute;enne. URL : http://openup-h2020.eu/wp-content/uploads/2018/08/OpenUP_D3.4_Open-Peer-Review.-Good-practices-and-lessons-learned.pdf</p> <p>Pignard-Cheynel, N. (2004). La communication des sciences sur Internet : strat&eacute;gies et pratiques. Th&egrave;se de Doctorat en sciences de l&rsquo;information et de la communication. http://science.societe.free.fr/documents/pdf/These_PIGNARD-6.pdf</p> <p>Pontille, D., Torny, D. (2014). The Blind Shall See! The Question of Anonymity in Journal Peer Review. Ada: A Journal of Gender, New Media, and Technology, University of Oregon Libraries, 2014&nbsp; URL :&nbsp;<a href="https://adanewmedia.org/2014/04/issue4-pontilletorny/">https://adanewmedia.org/2014/04/issue4-pontilletorny/</a></p> <p>Pontille, D., Torny, D. (2015). From manuscript evaluation to article valuation: the changing technologies of journal peer review. Human Studies, 38(1), 57-79.</p> <p>Pontille, D., Torny, D. (2017). Infrastructures de donn&eacute;es bibliom&eacute;triques et march&eacute; de l&rsquo;&eacute;valuation sci- entifique. Pierre-Michel Menger; Simon Page. Big data et tra&ccedil;abilit&eacute; num&eacute;rique. Les sciences sociales face &agrave; la quantification massive des individus, Coll&egrave;ge de France , pp.105-120.</p> <p>Publons, (2018). Global state of peer review 2018, https://doi.org/10.14322/publons.GSPR2018</p> <p>Polka, J. K., Kiley, R., Konforti, B., Stern, B., &amp; Vale, R. D. (2018). Publish peer reviews.</p> <p>Ross-Hellauer T. (2017). What is open peer review? A systematic review [version 1; referees: 1 approved, 3 approved with reservations]. F1000Research 2017, 6:588&nbsp;(https://doi.org/10.12688/f1000research.11369.1)</p> <p>Ross-Hellauer, T., Deppe, A., &amp; Schmidt, B. (2017). Survey on open peer review: Attitudes and experience amongst editors, authors and reviewers. PloS one, 12(12), e0189311.</p> <p>Ross-Hellauer, T., Schmidt, B., &amp; Kramer, B. (2018). Are funder Open Access platforms a good idea? SAGE Open, 8(4), 2158244018816717.</p> <p>Ross-Hellauer, T., &amp; G&ouml;r&ouml;gh, E. (2019). Guidelines for open peer review implementation. Research Integrity and Peer Review, 4(1), 4.</p> <p>Sadeghi, A., Capadisli, S., Wilm, J., Lange, C., &amp; Mayr, P. (2018). Automatically Annotating Articles Towards Opening and Reusing Transparent Peer Reviews. arXiv preprint arXiv:1812.01027</p> <p>Schmidt, B., Ross-Hellauer, T., van Edig, X., &amp; Moylan, E. C. (2018). Ten considerations for open peer review. F1000Research, 7.</p> <p>Sch&ouml;pfel, J., Fabre, R. (2019). La question des revues dans la science ouverte&nbsp;: une approche fonctionnelle. I2D &ndash; Information, donn&eacute;es &amp; documents, A.D.B.S., 2019, n&deg;2 (2), pp.109. <a href="https://dx.doi.org/10.3917/i2d.192.0109" target="_blank">10.3917/i2d.192.0109</a>. <a href="https://hal.archives-ouvertes.fr/hal-02403939" target="_blank">hal-02403939&rang;</a></p> <p>Segado-Boj, F., Mart&iacute;n-Quevedo, J., &amp; Prieto-Guti&eacute;rrez, J. J. (2018). Attitudes toward open access, open peer review, and altmetrics among contributors to Spanish scholarly journals. Journal of scholarly publishing, 50(1), 48-70</p> <p>Shatz, D. (2004). Peer review: A critical inquiry. Lanham, MD: Rowman &amp; Littlefield.</p> <p>Smith, R. (1999). Opening up BMJ peer review. A beginning that should lead to complete transparency. 318 : 4. https://doi.org/10.1136/bmj.318.7175.4.</p> <p>Spezi, V. Wakeling, S., Pinfield S., Fry, J., Creaser, C., &amp; Willett, P. (2018). &laquo; Let the community decide &raquo;? The vision and reality of soundness-only peer review in open-accessmega-journals , Journal of Documentation, Vol. 74 Issue: 1, pp.137-161, https://doi.org/10.1108/JD-06-2017-009</p> <p>Spier, R. (2002). The history of the peer-review process. Trends in Biotechnology, 20(8), 357-358.</p> <p>Tennant, J. et al. (2017). A multi-disciplinary perspective on emergent and future innovations in peer review. F1000Res. 6, 1151.</p> <p>Torny, D. (2018). Pubpeer: vigilante science, journal club or alarm raiser? The controversies over anonymity in post-publication peer review. PEERE International Conference on Peer Review, PEERE COST Network, Mar 2018, Rome, Italy. &lang;halshs-01700198&rang;</p> <p>Verlaet, L., Dillaerts, H. (2017). Enjeux des &laquo; revues hyperm&eacute;diatis&eacute;es &raquo; pour l&rsquo;&eacute;dition scientifique. dans Kembellec G., Broudoux E. Ecrilecture augment&eacute;e dans les communaut&eacute;s scientifiques : humanit&eacute;s num&eacute;riques et construction des savoirs, ISTE Editions, 2017, p. 145-163 〈sic_01476924〉</p> <p>Verlaet, L., et Chante, A. (2017). &laquo; La notion d&#39;autorit&eacute; dans l&#39;&eacute;dition de la recherche : &eacute;volution des formes, changements d&#39;autorit&eacute; ? &raquo;, Communication &amp; langages, vol. 192, no. 2, pp. 27-46.</p> <p>Vuong, Q. H. (2017). Open data, open review and open dialogue in making social sciences plausible. Nature Blogs: Scientific Data. URL&nbsp;: http://blogs.nature.com/scientificdata/2017/12/12/authors-corner-open-data-open-review-and-open-dialogue-in-making-social-sciences-plausible/</p> <p>Wakeling, S. et al. (2018). &laquo; No comment &raquo; ? A study of commenting on PLOS articles. Journal of Information Science. ISSN 0165-5515.</p> <p>Walker, R., &amp; Rocha da Silva, P. (2015). Emerging trends in peer review&mdash;a survey. Frontiers in neuroscience, 9, 169.</p> <p>Ware, M. (2008). Peer review in scholarly journals : Perspective of the scholarly community - Results from an international study. Information Services &amp; Use, 28(2), 109-112.</p> <p>Wolfram, D., Wang, P. &amp; Park, H. (2019). Open peer review: the current landscape and emerging models. In Proceedings of the 17th International Conference on Scientometrics &amp; Informetrics (September 2-5, 2019, Rome, Italy).</p> <p>&nbsp;</p> <h3>Annexe 1 &nbsp;- Typologie des commentaires associ&eacute;s &agrave; l&rsquo;&eacute;valuation de l&rsquo;OPR (Wakeling et al., 2018)</h3> <table> <tbody> <tr> <td colspan="2"> <p>PARTIE PROC&Eacute;DURALE</p> </td> </tr> <tr> <td> <p>Commentaire du &eacute;valuateur</p> </td> <td> <p>Copie de rapport (s) d&rsquo;examinateur en tant que commentaire. Comprend &eacute;galement les r&eacute;ponses des auteurs aux relecteurs et tout dialogue pr&eacute;alable &agrave; la publication entre le ou les auteurs et les relecteurs.</p> </td> </tr> <tr> <td> <p>Couverture m&eacute;dia</p> </td> <td> <p>Commentaires rapportant ou orientant les lecteurs vers une couverture non acad&eacute;mique / m&eacute;diatique de l&#39;article, y compris des blogs et des communiqu&eacute;s de presse.</p> </td> </tr> <tr> <td> <p>Enjeu &eacute;thique</p> </td> <td> <p>Commentaires relatifs &agrave; des conflits d&#39;int&eacute;r&ecirc;ts potentiels ou av&eacute;r&eacute;s, enqu&ecirc;tes sur les fautes des auteurs et les m&eacute;thodes de recherche contraires &agrave; l&#39;&eacute;thique.</p> </td> </tr> <tr> <td> <p>Correction</p> </td> <td> <p>Commentaires relatifs &agrave; un probl&egrave;me avec le texte du document et ses m&eacute;tadonn&eacute;es, par ex. fautes de frappe, cr&eacute;dits manquants, l&eacute;gendes incorrectes, citations, etc. Cette cat&eacute;gorie inclut les lecteurs soulignant ces probl&egrave;mes, ainsi que les &eacute;diteurs ou les auteurs notant leur correction. Mais elle n&#39;inclut PAS les commentaires soulignant les probl&egrave;mes de m&eacute;thodologie de recherche, d&#39;analyse ou d&#39;argumentation.</p> </td> </tr> <tr> <td> <p>Donn&eacute;es suppl&eacute;mentaires</p> </td> <td> <p>Liens ou informations sur des donn&eacute;es suppl&eacute;mentaires, c&rsquo;est-&agrave;-dire les donn&eacute;es sous-jacentes ou les donn&eacute;es justificatives de l&rsquo;article.</p> </td> </tr> <tr> <td colspan="2"> <p>PARTIE ACAD&Eacute;MIQUE</p> </td> </tr> <tr> <td> <p>Critique directe</p> </td> <td> <p>Le commentaire inclut une critique directe de l&#39;article.</p> </td> </tr> <tr> <td> <p>Eloge direct</p> </td> <td> <p>Le commentaire comprend un &eacute;loge direct de l&#39;article.</p> </td> </tr> <tr> <td> <p>Question aux auteurs</p> </td> <td> <p>Le commentaire pose directement une question aux auteurs.</p> </td> </tr> <tr> <td> <p>Mat&eacute;riel connexe</p> </td> <td> <p>Les commentaires incluent des liens ou des citations vers d&#39;autres documents acad&eacute;miques li&eacute;s &agrave; ou d&eacute;veloppant l&#39;article en question.</p> </td> </tr> <tr> <td> <p>Discussion</p> </td> <td> <p>Le commentaire inclut une discussion sur le contenu du document au-del&agrave; des &eacute;loges ou critiques directs. Comprend une discussion sur les th&egrave;mes &eacute;mergents de l&rsquo;article, son impact potentiel, sa signification ou sa nouveaut&eacute;, des suggestions d&rsquo;am&eacute;lioration de la recherche et la mise en &eacute;vidence de probl&egrave;mes m&eacute;thodologiques ou analytiques per&ccedil;us.</p> </td> </tr> <tr> <td> <p>Autres</p> </td> <td> <p>Tout commentaire ne correspondant &agrave; aucune d&eacute;finition de chaque cat&eacute;gorie</p> </td> </tr> </tbody> </table> <div>&nbsp; <hr size="1" /> <div id="ftn1"> <p><a href="#_ftnref1" name="_ftn1" title="">[1]</a> Merci &agrave; Joachim Sch&ouml;pfel pour sa relecture bienveillante.</p> </div> <div id="ftn2"> <p><a href="#_ftnref2" name="_ftn2" title="">[2]</a> Peer-reviewing est ici traduit par Examen par les pairs ou &Eacute;valuation par les pairs</p> </div> <div id="ftn3"> <p><a href="#_ftnref3" name="_ftn3" title="">[3]</a> Trois r&ocirc;les : auteur-non-&eacute;valuateur, &eacute;valuateur-auteur, &eacute;valuateur-non-auteur</p> </div> <div id="ftn4"> <p><a href="#_ftnref4" name="_ftn4" title="">[4]</a> En effet, selon les comit&eacute;s &eacute;ditoriaux, les rejets ne sont pas toujours document&eacute;s. Ceci est cependant &agrave; pond&eacute;rer selon les disciplines, avec les recommandations des sections CNU ainsi que celles de la science ouverte et ses chartes de qualit&eacute;.</p> </div> <div id="ftn5"> <p><a href="#_ftnref5" name="_ftn5" title="">[5]</a> Pr&eacute;sent&eacute; dans la partie &laquo;&nbsp;Plateformes&nbsp;&raquo;</p> </div> <div id="ftn6"> <p><a href="#_ftnref6" name="_ftn6" title="">[6]</a> ACP : Atmospheric Chemistry and Physics</p> </div> <div id="ftn7"> <p><a href="#_ftnref7" name="_ftn7" title="">[7]</a> The Association of Learned &amp; Professionnal Society Publishers.</p> </div> <div id="ftn8"> <p><a href="#_ftnref8" name="_ftn8" title="">[8]</a> Clavey Martin. La commission europ&eacute;enne cr&eacute;e sa plateforme de publication en acc&egrave;s ouvert, 23 mars 2020. https://www.soundofscience.fr/2283</p> </div> <div id="ftn9"> <p><a href="#_ftnref9" name="_ftn9" title="">[9]</a> https://f1000research.com/for-authors/tips-for-finding-referees</p> </div> <div id="ftn10"> <p><a href="#_ftnref10" name="_ftn10" title="">[10]</a> Pour une description du fonctionnement &eacute;ditorial de cette plateforme initi&eacute;e par des acteurs de l&rsquo;Inra&nbsp;: <a href="https://peercommunityin.org/">https://peercommunityin.org/</a> et https://rapidecology.com/2018/03/20/changing-the-model-of-academic-publication/</p> </div> <div id="ftn11"> <p><a href="#_ftnref11" name="_ftn11" title="">[11]</a> <a href="https://fr.wikipedia.org/wiki/PubPeer">https://fr.wikipedia.org/wiki/PubPeer</a> et https://fr.wikipedia.org/wiki/Catherine_Jessus</p> </div> <div id="ftn12"> <p><a href="#_ftnref12" name="_ftn12" title="">[12]</a> <a href="https://www.researchers.one/">https://www.researchers.one/</a></p> </div> <div id="ftn13"> <p><a href="#_ftnref13" name="_ftn13" title="">[13]</a> Thewinnover.com</p> </div> <div id="ftn14"> <p><a href="#_ftnref14" name="_ftn14" title="">[14]</a> La r&eacute;vision d&rsquo;un texte est comprise dans le prix mais pas la mise-&agrave;-jour d&rsquo;un article en un nouveau qui refl&eacute;terait de futurs d&eacute;veloppements (400 US $)</p> </div> <div id="ftn15"> <p><a href="#_ftnref15" name="_ftn15" title="">[15]</a> Soci&eacute;t&eacute; de capital-investissement au capital de 6,3 milliards de dollars</p> </div> <div id="ftn16"> <p><a href="#_ftnref16" name="_ftn16" title="">[16]</a> Voir &agrave; ce sujet, la rh&eacute;torique de la page d&rsquo;accueil du service Rubriq de ResearchSquare&nbsp;: https://www.researchsquare.com/company/publishers/rubriq</p> </div> <div id="ftn17"> <p><a href="#_ftnref17" name="_ftn17" title="">[17]</a> Analyse des r&eacute;sultats disponible sur : https://dlis.hypotheses.org/5149</p> </div> </div>