Skip links

Synthèse du colloque « Perspectives sur la publication et les revues savantes » – 1ère partie

Le colloque Perspectives sur la publication et les revues savantes : évolution du libre accès, des pratiques d’évaluation et des nouvelles possibilités de recherche s’est tenu les 11 et 12 mai 2023 dans le cadre du congrès annuel de l’Acfas. Les revues étaient au cœur de ces deux journées, qui ont rassemblé de nombreux acteurs du milieu de la publication savante au Québec, au Canada et à l’international.

Ce colloque a été organisé par l’équipe d’Érudit sous la direction scientifique de Vincent Larivière, professeur à l’Université de Montréal et titulaire de la Chaire Unesco sur la science ouverte. La publication de la synthèse présentée ici est réalisée en deux parties et également disponible en anglais. Voir la deuxième partie.

Ce premier billet propose une synthèse des interventions du 11 mai, qui suivaient trois axes : (1) les enjeux économiques de la publication savante, (2) l’incidence des pratiques d’évaluation de la recherche sur les revues et (3) le potentiel de recherche des corpus de textes numérisés. L’inclusion de perspectives historiques a permis d’interroger certaines présuppositions, à commencer par l’idée que le libre accès serait un développement inédit dans l’histoire de la publication savante.

La publication savante a-t-elle vocation à être rentable?

À partir des archives des Philosophical Transactions, revue britannique fondée en 1665, Aileen Fyfe (University of St Andrews) présentait la succession des formes de financement de l’une des plus anciennes revues scientifiques au monde. Ce travail montre que les premières publications savantes priorisaient leur diffusion alors que leur rentabilité était une préoccupation secondaire. À partir de 1752, date à laquelle la Royal Society en a pris le contrôle éditorial, les finances des Philosophical Transactions étaient tributaires de celle de la société, sous la forme des cotisations de ses membres et des revenus tirés des investissements permis par sa dotation. Ce modèle est resté dominant pendant plus de 200 ans et ce n’est qu’à partir de la fin du 19e siècle qu’une subvention gouvernementale a complété ces revenus. Au cours des années 1920, la dotation de la Royal Society a été augmentée par des dons privés et industriels, notamment une contribution annuelle des Imperial Chemical Industries. La quatrième grande étape dans cette série de transformations s’est produite dans l’après-guerre, dans le contexte de l’apparition des revues commerciales, transformant la publication savante en une activité financièrement viable. La British Society a révisé l’ordre de ses priorités, depuis la diffusion vers la rentabilité. En 1954, ces changements, associés à l’automatisation de la mise en page, ont fait des Transactions une source de revenus pour la Royal Society. À partir de cette date et jusqu’au début du 21e siècle, les revenus issus des ventes de la revue ont augmenté alors que le nombre d’exemplaires diffusés n’a cessé de chuter. Ainsi, la transition vers le libre accès, d’abord adopté avec réticence par la Royal Society, met fin à un modèle d’affaires en place depuis 70 ans sur une histoire de plus de 350 ans.

Lien vers la présentation

La généralisation actuelle du libre accès pose néanmoins la question des modes de financement des revues. Cet enjeu a été le sujet des présentations de Mikael Laakso (Hanken School of Economics), Leigh-Ann Butler et Stefanie Haustein (Université d’Ottawa) et Marc-André Simard (Université de Montréal).

Mikael Laakso a présenté une étude, intitulée European scholarly journals from small- and mid-size publishers: mapping journals and public funding mechanisms, dans laquelle il a cartographié les mécanismes de financement public connus dont bénéficient les revues savantes européennes rattachées à des structures éditoriales relativement petites. La situation européenne étant fragmentée et contrastée, cette étude est une invitation à la collecte d’informations complémentaires sur les mécanismes publics de financement des revues européennes, qui se fait beaucoup à l’échelle des universités. Environ 25% des revues en libre accès facturent des frais de traitement des articles (Article Processing Charges ou APC), mais la répartition est très inégale entre les structures éditoriales de taille petite ou moyenne et les plus grands éditeurs commerciaux, dont les APC sont nettement supérieurs. Sa présentation proposait de répartir les formes de soutien gouvernemental aux revues en quatre catégories allant du soutien le plus structurant, sous la forme de montants forfaitaires attribués à toutes les revues révisées par les pairs (Finlande, Espagne) à l’absence de toute forme de financement dans des pays comme le Royaume-Uni, l’Allemagne, les Pays-Bas et la Grèce. Pour ce qui concerne la catégorie du soutien octroyé sur concours, les périodes d’octroi varient entre un et trois ans, ce qui n’en fait pas une base stable, surtout dans la mesure où ces programmes sont en général assortis d’exigences en matière de libre accès. Pour que le libre accès diamant puisse devenir la norme, d’autres formes de financement sont nécessaires, qui doivent permettre la croissance des revues, pas seulement leur survie. Le libre accès diamant représente en effet le modèle le plus équitable de libre accès puisqu’il n’est payant ni pour les auteurs et les autrices, qui n’ont pas à surmonter l’obstacle financier des APC, ni pour le lectorat, qui a accès aux articles sans devoir payer d’abonnement ou toute autre forme de paiement à la pièce. De même, les infrastructures permettant de mutualiser les ressources et les services devraient être davantage appuyées.

Lien vers la présentation

À l’opposé du libre accès diamant se trouvent les modèles de libre accès à visée lucrative, notamment portés par les cinq multinationales de l’édition commerciale principales (Elsevier, Sage, Springer-Nature, Taylor & Francis et Wiley). Leigh-Ann Butler et Stefanie Haustein ont détaillé les enjeux soulevés par ces modèles commerciaux, notamment les accords transformants (Transformative Agreements). L’expression nomme des ententes conclues entre les principaux éditeurs commerciaux et des institutions, souvent des consortiums de bibliothèques, qui paient un prix forfaitaire pour que leurs membres puissent accéder aux articles de ces revues hybrides et puissent publier dans ces mêmes revues. Ainsi, les budgets des bibliothèques et les subventions des chercheurs et des chercheuses, issus de fonds publics, servent à financer des activités commerciales au lieu d’ouvrir l’accès à la recherche. Les accords transformants accentuent également la concentration des publications dans des revues contrôlées par les plus grands éditeurs commerciaux. Ces ententes censées permettre une généralisation du libre accès ne comportent pas d’engagements clairs de la part des éditeurs et peuvent être qualifiées de nouveaux « Big Deals », une pratique qui a joué un rôle clé dans la « crise des périodiques » ayant conduit à l’épuisement des budgets des bibliothèques universitaires. Les données globales montrent en effet que les frais de traitement des articles s’élèvent à un peu plus d’un milliard de dollars par année, générant des marges de profit de l’ordre de 30%.

Lien vers la présentation

Butler et Haustein ont souligné que ces modèles commerciaux de libre accès tendent à perpétuer les inégalités déjà criantes dans la publication savante, un problème également abordé par Marc-André Simard. Sa présentation a démontré que depuis les quatre dernières années, les pays développés investissent massivement dans le libre accès, où la transition est principalement financée par les APC et les accords transformants. Cette source de financement exclut certains groupes de chercheurs et de chercheuses, notamment en début de carrière, qui n’ont pas les moyens de payer des APC. Ces pratiques les poussent également à publier dans des revues dites internationales, bien souvent détenues par les multinationales de l’édition commerciale, même lorsque des infrastructures de diffusion existent dans leurs pays. Au Québec et au Canada par exemple, 98% des articles disponibles sur erudit.org sont en libre accès. Son étude confirme également que le modèle diamant est plus plurilingue que le modèle doré (30% en anglais contre 75% pour les revues en libre accès doré), ce qui est cohérent avec la domination historique de l’anglais dans les publications commerciales. Enfin, alors que la voie des APC s’impose systématiquement lorsqu’il est question de la pérennité et de l’abordabilité de l’édition en libre accès, les chiffres montrent que la vaste majorité (71%) des revues en libre accès sont financées sans frais de traitement d’articles, ce qui indique que le libre accès diamant est une voie non seulement équitable, mais réaliste.

Lien vers la présentation

La puissance prescriptive des pratiques d’évaluation de la recherche

La fonction de la publication savante contemporaine n’est pas seulement d’assurer la diffusion des connaissances et des travaux universitaires, il s’agit également d’un instrument d’évaluation et de hiérarchisation, des pratiques omniprésentes dans le milieu de la recherche contemporaine. Les enjeux actuels de la communication savante sont donc indissociables des logiques d’évaluation de la recherche et donc des chercheurs et des chercheuses.

Juan Pablo Alperin (Simon Fraser University) a abordé cette question en s’appuyant sur les usages en cours en Amérique latine et en particulier en Colombie. À la toute fin du 20e siècle, les préoccupations centrales du milieu de la publication savante se nommaient « visibilité » et « qualité », ce qui a donné lieu à deux réponses simultanées mais divergentes. D’un côté cette période a vu le développement de plusieurs initiatives d’indexation régionales avec la création de Latindex, SciELO, Redalyc et LA Referencia, qui ont associé adoption du libre accès (diamant), mutualisation des ressources et élaboration de critères de qualité éditoriale. Mais cela aussi été l’époque de l’intensification des critères « internationaux » de qualité des articles scientifiques, à savoir la mesure de la visibilité par l’indexation des revues dans les bases de données commerciales comme le Web of Science ou Scopus et la mesure de la qualité par le facteur d’impact (journal impact factor, JIF) et d’autres mesures quantitatives de citation. Ainsi, les initiatives régionales très intéressantes sont en constante tension avec les pratiques principalement issues du monde de la publication commerciale. La puissance de ces pratiques est telle qu’elles supplantent même l’incidence de lois en faveur de la science ouverte passées dans de nombreux pays latino-américains ces dernières années, dont l’effet est pratiquement imperceptible dans les données. Les projets de réformes des modes d’évaluation de la recherche, entreprises dans certains de ces pays, présentent donc un défi de taille, qui requiert une action collective déterminée.

Lien vers la présentation

La tension entre l’ancrage local des revues en sciences humaines et sociales et la logique transnationale de la publication savante était au cœur de la présentation de Simon van Bellen (Consortium Érudit), qui s’intéressait au rôle que jouent les revues nationales en sciences humaines et sociales pour la recherche canadienne. Il existe au Canada environ 600 revues savantes en sciences humaines et sociales, arts et lettres, dont la plupart sont dirigées par de petites équipes éditoriales, rattachées à des universités et sans but lucratif. Une première observation importante est que les articles publiés dans ces revues sont quatre fois plus en libre accès que ceux des revues commerciales des disciplines équivalentes – en plus d’être pour la plupart en libre accès diamant, sans APC, c’est-à-dire de manière réellement accessible et équitable. Surtout, les données collectées montrent que ces revues sont le site privilégié de diffusion de la recherche consacrée à des sujets canadiens, nettement moins traités dans les revues commerciales basées hors Canada. De manière notable, ces revues constituent en outre un contexte de publication d’articles en français et nourrissent donc concrètement la bibliodiversité des publications savantes. En collaborant avec des collègues canadiens anglophones, les chercheurs et chercheuses francophones publient beaucoup moins souvent en français. De manière plus frappante encore, cette observation est également valable pour les articles issus de la collaboration internationale, même entre francophones, qui sont majoritairement publiés en anglais. Ce transfert vers l’anglais reflète sans doute la volonté de rejoindre des réseaux internationaux de recherche. La question se pose donc de l’arrimage des injonctions à l’internationalisation et la publication en français.

Lien vers la présentation

Vincent Larivière (Université de Montréal) s’est, pour sa part, interrogé sur la pertinence de l’évaluation par les pairs, omniprésente dans le processus scientifique. La pratique telle qu’on la connaît aujourd’hui a émergé au début des années 1940, notamment en conséquence de l’augmentation du nombre de soumissions et de la spécialisation des méthodes de recherche : du fait de ces mutations, les éditeurs des revues sont de moins en moins « experts » de chaque domaine. Aujourd’hui, elle se décline suivant quatre modalités principales : simple aveugle (le nom de l’auteur ou de l’autrice est public, mais pas celui de la personne qui évalue), double aveugle (les deux sont anonymisés), ouverte (les deux sont publics) et post-publication, une pratique plus récente qui prend notamment la forme de commentaires suivant l’article publié. L’évaluation par les pairs est communément considérée comme le gage indépassable de la qualité des publications savantes bien qu’elle présente de nombreuses limites, à commencer par le poids qu’elle exerce sur les chercheurs et les chercheuses, et qui implique des délais de publication parfois très longs. Qui plus est, elle ne joue pas toujours ce rôle de contrôle qualité puisque l’évaluation se fait bien souvent sans accès aux données brutes et les études montrent que le processus ne permet pas de détecter les erreurs et les fraudes. Outre les biais, qui défavorisent le plus souvent des personnes déjà socialement minorisées, voire l’intimidation et les commentaires inappropriés, cet usage n’empêche pas le copinage et les conflits d’intérêts puisqu’il faut bien que l’évaluation soit confiée à certaines personnes en particulier. De manière plus profonde encore, il est avéré qu’elle possède une tendance conservatrice et renforce la « science normale », déjà établie, plutôt que de soutenir l’émergence de nouveautés.

Lien vers la présentation

Les corpus de données textuelles et leur potentiel pour la recherche

Les articles publiés par les revues constituent des collections considérables qui, lorsqu’elles sont numérisées, deviennent des corpus de données textuelles pouvant être l’objet de recherche et d’exploration, notamment grâce aux méthodes de fouille assistée par ordinateur.

Ces corpus textuels, quand ils sont bilingues, permettent par exemple d’entraîner des outils de traduction automatisée, dont le développement est en plein essor et dont Susana Fiorini (OPERAS) a précisé qu’il était plus juste de parler de « traduction scientifique outillée ». Depuis la formulation de l’Initiative Helsinki sur le multilinguisme dans la communication savante en 2019, plusieurs projets consacrés à la traduction ont été lancés, dont la création du premier groupe de travail Traductions et science ouverte et le démarrage de quatre études exploratoires qui envisagent différents aspects du déploiement possible des technologies de la traduction dans la communication savante. La traduction automatisée possède différents usages possibles, dont la traduction informative, « à la volée », pour les lecteurs et les lectrices, l’aide à l’écriture et à la traduction pour les chercheurs et les chercheuses, le développement d’outils de soutien à la traduction pour les traductrices et traducteurs professionnels et l’aide à la découvrabilité de la science multilingue. La traduction automatique présente toutefois des défis juridiques, techniques et éthiques. Les défis d’ordre juridique se rapportent notamment aux droits de traduction liés aux licences. Collecter et constituer un corpus de qualité, intégrer la traduction automatique et maintenir la qualité des moteurs de traduction font partie des défis techniques. Les enjeux éthiques concernent notamment la reconnaissance de l’expertise professionnelle de la traduction et le respect du travail des traducteurs et des traductrices, dont dépend la constitution de corpus bilingues de qualité et qui risquent d’être simplement exploités au cours de ce processus d’automatisation.

Lien vers la présentation

La recherche conduite par Jean-Guy Meunier (Université du Québec à Montréal) s’appuie de longue date sur des méthodes d’analyse de textes philosophiques assistée par ordinateur. Le projet qu’il a présenté partait de l’hypothèse qu’une partie de la culture québécoise est marquée par le développement de la pratique de la philosophie, notamment en dehors de l’université. Il s’agissait donc d’identifier et d’étudier ce patrimoine philosophique dans des textes. L’une des difficultés rencontrées par de telles études consiste à s’appuyer sur des corpus de textes philosophiques numérisés et océrisés (Optical Character Recognition ou OCR), peu nombreux hors des revues savantes. Les sources existantes incluent notamment Érudit, Bibliothèque et archives nationales du Québec, Patrimoine philosophique du Québec, les Classiques des sciences sociales, ainsi que des archives diverses comme les Instituts canadiens, les institutions religieuses et les documents privés numérisés. Bien souvent ces archives requièrent un traitement préalable à leur analyse, notamment du fait de la qualité variable de l’océrisation. Le type d’analyse concernée se fait sur des corpus de données restreintes, par opposition aux données massives, puisqu’il s’agit de les analyser à un haut niveau théorique, de manière détaillée et philologique. Ainsi, le premier volet de cette recherche, qui concerne directement l’analyse des textes, vise à identifier trois niveaux d’éléments textuels : des thèmes (de la philosophie québécoise), les concepts qui y sont associés et, finalement, le déploiement argumentatif. Contrairement à l’analyse sémantique, l’analyse conceptuelle vise à révéler les multiples dimensions épistémiques implicites d’une expression canonique, par exemple, le concept de « nation ».

Lien vers la présentation

La présentation de Pierre-Carl Langlais (Paris-Sorbonne) portait au contraire sur la documentation de corpus géants, dont il a observé qu’elle s’inscrit dans une longue histoire qui remonte au début du 19e siècle. Au cours du 20e siècle, les méga-corpus ont été principalement catalogués sous la forme de microfilms et d’index bien que les tentatives d’informatisation aient été très précoces. Ces tentatives se révèlent toutefois décevantes en particulier parce que les corpus existants ne communiquent pas entre eux. Le premier moment charnière est donc l’émergence de l’internet, puisque le principe du lien hypertexte permet de relier des bases de données qui étaient jusqu’alors dispersées. À partir du début des années 2000, les corpus scientifiques et patrimoniaux deviennent ainsi accessibles et transforment les conditions de recherche en profondeur. Le deuxième moment clé est l’émergence des outils de reconnaissance optique de caractères (OCR). Cette révolution numérique mène à l’émergence d’un nouvel écosystème de recherche et de sources bibliométriques alternatives en libre accès qui donnent naissance aux études quantitatives de la science. Si on pense au corpus géant de Coalition Publica, par exemple, une réflexion relative à son statut s’impose : les collections sont-elles des données comme les autres ? L’une des forces de ce corpus est qu’il couvre tout le 20e siècle, sans le « trou noir du domaine public » affectant d’autres corpus, c’est-à-dire, une absence – en apparence – de contenu publié depuis les années 1950, en raison des lois de droit d’auteur limitant l’accès aux revues. Un des enjeux brûlants aujourd’hui est l’usage des corpus pour former les outils d’intelligence artificielle, comme ChatGPT, dont les sources d’apprentissage sont très mal connues. Comme des modèles plus puissants peuvent être déployés en s’appuyant sur des corpus plus grands, les acteurs industriels de l’intelligence artificielle sont actuellement engagés dans une chasse aux corpus. La taille considérable de celui de Coalition Publica ouvre la porte au développement d’autres usages.

Lien vers la présentation