La grenouille au fond du puits croit que le ciel est rond.
Le libre accès à la recherche : une introduction
Ce dossier correspond à un exposé que j'ai donné le 6 mai 2014 à l'École normale supérieure.
Un certain nombre de remarques ainsi que des informations données par les deux intervenants qui m'ont suivi, Marie Farge et Geoffrey Bodenhausen, y ont également été incorporées.
Si vous êtes intéressé par un exposé sur le sujet, n'hésitez pas à me contacter.
Merci à Antoine Amarilli, Léa Lejeune, et Amiel Peiffer-Smadja pour leur précieuse relecture.
Sommaire
Le fonctionnement de la recherche
Pour comprendre le problème qui se pose actuellement avec la publication des résultats de la recherche, en particulier de la recherche scientifique, il faut d'abord s'intéresser à son fonctionnement.
Schématiquement, la recherche se déroule en une succession d'étapes identifiables, que l'on va essayer de décrire ici :
-
La recherche d'une question.
Les chercheurs ont besoin d'avoir accès à tous les résultats de la recherche jusqu'à présent, afin de connaître l'état de l'art de leur champ de recherche. Cela leur permet de trouver, parmi toutes les choses qu'il y reste à faire, laquelle serait une bonne prochaine étape pour faire progresser le savoir et la technique de leur domaine. C'est là que se passe une phase très importante : la formulation d'une question.
-
La recherche d'une réponse.
Une fois que cette question est formulée, les chercheurs, souvent en groupe, cherchent à y répondre. Pour cela, ils vont devoir recenser toutes les connaissances de leur domaine et des domaines voisins, afin de repérer les outils qui pourraient leur être utiles pour résoudre le problème qu'ils se sont posé.
Une fois que cela est fait, la façon de travailler dépend beaucoup du domaine de recherche, et il serait difficile de généraliser cela ici sans dire de bêtises. Cependant, sans parler de méthode, on peut affirmer que ce travail peut aboutir de plusieurs manières : la réponse à la question peut être trouvée, des réponses à d'autres questions peuvent émerger, de nouvelles méthodes ou de nouveaux outils de travail peuvent être découverts, etc. La liste des possibilités est longue, mais dans tous les cas, des résultats sont obtenus, et de nouvelles questions se posent. -
L'obtention de résultats et la rédaction de l'article.
Les résultats obtenus peuvent être ceux attendus, ou ils peuvent être différents. Dans les deux cas, quand ces résultats font significativement avancer l'état de l'art, par exemple quand les chercheurs ont réussi à prouver une conjecture, les chercheurs décident de les décrire dans un article (on dit aussi papier) afin de les partager avec leur communauté, afin que les autres puissent à leur tour faire progresser la connaissance en se basant sur ces nouveaux résultats.
-
La soumission de l'article.
Une fois rédigé, l'article détaillant les méthodes utilisées et les résultats obtenus est soumis pour publication dans une revue (on dit aussi un journal) ou une conférence (on parle aussi de symposium, de colloque, …) correspondant au domaine de recherche concerné (pour simplifier les choses, on ne va plus parler que de revues dans la toute la suite de ce document, mais ce qui est dit s'applique tout autant aux conférences et à la publication de leur actes, ou proceedings en anglais). Cela signifie que l'article est envoyé à la revue, pour que celle-ci le distribue le plus largement possible si l'article est accepté.
→ L'article à ce stade est appelé un preprint. -
Le processus d'évaluation par les pairs de l'article.
Afin de décider de la diffusion ou non d'un article, sa qualité et sa nouveauté doivent être vérifiées par le comité éditorial (editorial board en anglais, ou program committee pour les conférences) de la revue dans laquelle il a été soumis. Pour cela, l'article est envoyé à des relecteurs (reviewers ou referees en anglais), qui forment un groupe qu'on appelle le comité de lecture de la revue. On appelle cela l'évaluation, l'examen, la validation, la relecture, ou encore l'arbitrage, par les pairs (peer-review en anglais). C'est une étape très importante. Le principe est que les relecteurs, qui sont d'autres chercheurs des domaines concernés par l'article, vont le relire attentivement, en vérifiant que les méthodes employées sont raisonnables et rigoureuses, et que les résultats obtenus le sont tout autant. Ils s'assurent aussi de la pertinence de la diffusion de l'article (est-ce qu'il contribue vraiment de manière significative à faire progresser l'état de l'art ?) et de la qualité de sa rédaction (inutile de diffuser un texte incompréhensible).
Une fois que les relecteurs ont fait leur rapport sur l'article, les auteurs intègrent les éventuelles remarques dans leur article et resoumettent l'article pour publication (parfois dans la même revue, parfois ailleurs plus tard, si vraiment il y a beaucoup de choses à changer ou à refaire). Cela recommence jusqu'à ce que l'article soit accepté ou que ses auteurs renoncent à le publier.
→ L'article à ce stade est appelé un postprint. -
La publication de l'article.
Une fois que l'article a été accepté pour publication, la maison d'édition de la revue le met en forme selon les conventions typographiques et la charte de présentation de la revue. À ce moment là, l'article est “publié”.
→ L'article à ce stade est dit en version publiée (published version ou publisher version en anglais).
Le mot « publié » est entre guillemets parce que littéralement, cela signifie « rendu public », et comme on va le voir, ce n'est pas aussi simple dans le système de publication tel qu'il existe actuellement.
J'utilise dans ce dossier le terme « maisons d'édition », faute de mieux en français, pour désigner ce qu'on appelle en anglais les « publishers » (certains françisent en « publicheurs »). Il est important de faire la différence entre les maisons d'édition classiques et les maisons d'édition scientifiques, mais aussi et surtout de ne pas faire un amalgame en utilisant le mot « éditeurs ». En effet, ce mot désigne aussi bien les « publishers », c'est à dire ceux que j'appelle « maisons d'édition », que les « editors », c'est à dire les comités éditoriaux des revues, qui sont un collège de chercheurs qui s'occupent de tout le travail d'édition scientifique, tel que l'évaluation par les pairs.
Le système de publication
Pour comprendre le système de publication à l'heure actuelle, il est intéressant d'avoir en tête un bref historique de ce système. Comme pour le fonctionnement de la recherche ci-dessus, cet historique est schématique, voire grossier par certains aspects.
Historique rapide du système de publication
Suite à une longue période d'échanges informels de lettres entre ce qu'on appellerait aujourd'hui des chercheurs, la première revue littéraire et scientifique (d'Europe) apparaît début 1665 à Paris, il s'agit du Journal des sçavans. Son but déclaré est de faire connaître « ce qui se passe de nouveau dans la République des lettres ». Elle suscite beaucoup d'intérêt et rapidement d'autres revues voient le jour, notamment Philosophical Transactions of the Royal Society, trois mois plus tard à Londres. Il est amusant de noter que ces deux revues continuent d'exister de nos jours.
De multiples revues apparaissent au XVIIe siècle dans le but de résoudre les problèmes de la rapidité de diffusion des connaissances, de l'impartialité, de la priorité, et de la visibilité des travaux de recherche.
Au XVIIIe siècle, les revues s'imposent comme le moyen de communication prioritaire de diffusion des nouvelles connaissances. À cette époque, les revues sont publiées par des sociétés savantes ou des instituts publics (par exemple ceux créés à la fin du siècle suite à la Révolution française dans le but de reconstituer et de conserver le patrimoine scientifique).
Au XIXe siècle commencent à apparaître de nombreuses maisons d'édition spécialisées dans la communication scientifique et littéraire. Parmi elles, certaines que l'on connaît encore aujourd'hui comme Masson (1804), Wiley (1807), Springer-Verlag (1842), Dunod (1876), ou encore Elsevier (1880).
Au XXe siècle, suite à la Première Guerre mondiale, et aussi à la Grande Dépression (crise économique de 1929), beaucoup de ces petites maisons d'édition disparaissent ou se font racheter par d'autres. Les plus importantes commencent à cette époque à faire des universités leur cœur de marché.
Après la Seconde Guerre mondiale, on assiste, parallèlement à la reprise économique (Trente Glorieuses), à une forte croissance de l'activité scientifique. Automatiquement, l'industrie d'édition scientifique connaît une accélération, passant de petites maisons d'édition à de grosses entreprises multinationales, cherchant naturellement à maximiser leurs profits avant tout.
À partir de 1960, une multitude de nouvelles revues sont créées et les pratiques tarifaires de cette industrie évoluent. On commence à voir les prix des abonnements augmenter. Parallèlement à ça, la délocalisation vers des pays à faible coût de main d'œuvre et l'utilisation des nouvelles technologies par les maisons d'édition font baisser les prix de revient de l'édition et de la distribution pour ces dernières. On constate ici les effets mécaniques de la privatisation de la diffusion des connaissances de l'humanité.
À la même période, les bibliothèques universitaires ressentent pour la première fois des problèmes financiers par rapport aux prix des abonnements aux revues. En conséquence, les bibliothèques mettent en place, au nom du prêt entre bibliothèques, la diffusion d'articles de recherche photocopiés à bas coûts.
Qu'en est-il aujourd'hui ?
On rappelle ici que, même si ces revues remplissent aujourd'hui des rôles supplémentaires que nous détaillerons par la suite, leur fonction première lors de leur création était la diffusion des nouvelles connaissances.
Depuis quelques années, grâce à Internet, la diffusion des articles peut être rendue bien plus simple, plus rapide, moins coûteuse, et certainement plus écologique qu'avec les versions systématiquement imprimées de l'intégralité des revues.
De plus, ces avantages d'Internet permettent l'auto-diffusion. Par les chercheurs eux-mêmes d'une part, mais aussi et surtout par les revues, qui n'ont plus besoin des services d'une maison d'édition pour être diffusées mondialement.
Le rôle d'une maison d'édition
Pour des raisons de simplicité, on parle dans toute la suite de ce document de maison d'édition, mais le rôle et les pratiques que l'on décrit s'appliquent tout autant à certaines sociétés savantes qui les imitent (à l'exception de la recherche du profit pour le profit, puisqu'elles n'ont pas d'actionnaires, ce qui est déjà un point positif).
Le rôle scientifique d'une maison d'édition se décompose en plusieurs points :
-
La mise en page des articles.
La mise en forme des articles est une des grosses parties du travail d'édition. Aujourd'hui, elle est de moins en moins nécessaire, voire quasi-inexistante dans certains domaines. En effet, des modèles et feuilles de styles sont fournis aux auteurs pour les traitements de texte (LaTeX, LibreOffice, Word) qu'ils utilisent, afin qu'ils puissent directement écrire leurs articles pour la charte de présentation de la revue. Cela dit, il reste encore des domaines dans lequel ce travail est nécessaire.
-
Distribuer et faire connaître le plus largement possible les articles qu'elle publie dans ses revues.
Historiquement, cela voulait dire imprimer les articles et les envoyer dans le monde entier. Aujourd'hui, grâce à Internet, il s'agit principalement d'héberger en ligne des fichiers PDF. En effet, d'après le rapport d'activité pour l'année 2013 de la plus grosse maison d'édition (Reed-Elsevier), plus de 80% de leur revenu dus aux abonnements proviennent des formats électroniques, et ce chiffre est en augmentation constante depuis des années.
-
Faire (re)connaître les chercheurs.
Lorsqu'une revue acquiert un certain prestige grâce à la qualité des articles qui y sont publiés, les chercheurs qui parviennent à y publier leurs articles par la suite profitent à leur tour de ce prestige. Il est aujourd'hui impossible de faire carrière dans la recherche sans avoir publié plusieurs articles dans des revues prestigieuses. Ce n'est pas un rôle intrinsèque des revues, mais plutôt un effet secondaire automatique du mécanisme de publication dans des revues.
-
Définir les « tendances » thématiques des sujets de recherche.
Là aussi, il s'agit d'un rôle dont les revues ont mécaniquement hérité, mais qui ne leur est pas intrinsèque. L'avancement des carrières des chercheurs, tout comme le financement de la recherche qui s'organise de plus en plus autour de projets à court-terme (en temps scientifique, même quand il s'agit de 3 voire 5 ans, on parle de très court terme), sont indirectement (mais fortement) influencés par les revues. En effet, les postes pour les chercheurs et les bourses de financement de leurs projets sont attribuées en fonction de critères qui à l'heure actuelle font la plus belle part à la bibliométrie, en prenant en compte les « facteur d'impact » et autres « indice h ». Les revues sont donc un des facteurs les plus importants de la bibliométrie et à ce titre participent de manière prépondérante à la définition des tendances thématiques des sujets de recherche.
En plus d'être navré par la précarisation de la recherche induite par ce mode de financement, il est naturel de s'interroger sur la légitimité du rôle (quoique indirect) des maisons d'édition privées dans le processus de décision de dépense de l'argent public.Je vais me permettre ici un petit aparté sur le côté intrinsèquement néfaste de la bibliométrie. C'est très important d'en discuter car le mouvement pour le libre accès et celui pour se sortir de la bibliométrie sont étroitement liés comme on va le voir tout au long de ce document. La bibliométrie est forcément subjective en ce sens qu'elle tente de comparer sur une unique dimension des chercheurs, des activités, des revues, etc. qui existent dans un nombre non défini et non semblable de dimensions. De plus, comme tout système de notation, cela donne lieu à des phénomènes émergents inévitables et néfastes. Quels que soient les critères choisis, une bureaucratie se met inéluctablement en place pour les satisfaire. Par nécessité, on ne cherche plus alors à faire de la bonne recherche, mais de la recherche qui satisfasse au mieux ces critères. On se retrouve alors avec des critères qui ne peuvent plus remplir de manière satisfaisante leur rôle initial. Il ne s'agit donc pas seulement de dire que les critères bibliométriques actuels sont mauvais (tout le monde est d'accord sur ce point), mais plutôt qu'il n'est donc pas possible d'avoir de bons critères bibliométriques. En revanche, je tiens à souligner que je ne suis pas en train de dire qu'il ne faut pas évaluer les chercheurs. Simplement, je pense que pour évaluer un chercheur il faut lire ses quelques articles les plus significatifs, et si ils étaient publiquement disponibles et signés, les rapports d'évaluation par les pairs de ces articles, plutôt que de se contenter de regarder des chiffres qui sortent du chapeau bibliométrique.
-
Gagner de l'argent.
Quand on est une entreprise multinationale cotée en bourse, le but premier est nécessairement de rapporter des dividendes aux actionnaires. Faire des bénéfices est donc le but principal des maisons d'édition, bien plus que de conserver et diffuser les connaissances de l'humanité. Un témoignage édifiant intitulé « De la mondialisation appliquée à l'édition », paru dans Le Tigre, raconte les effets du rachat de Masson par Elsevier, vu de l'intérieur.
Si on oublie le cinquième point, on remarque que les deux premiers points concernent réellement le travail d'une maison d'édition, mais qu'il serait tout à fait possible de remplir les deux autres rôles en dehors de ce cadre, par exemple avec des revues indépendantes et auto-publiées.
Une autre chose remarquable, est qu'il semble y avoir une déconnexion entre le rôle des maisons d'édition tel qu'il vient d'être décrit, et les différentes étapes du fonctionnement de la recherche tel que décrit au début de ce document.
Évidemment, ce n'est pas une erreur…
Le partage des coûts jusqu'à la publication
Les chercheurs, les laboratoires, les équipements, etc. sont en écrasante majorité financés par de l'argent public (et, au moins en France, même le peu qui est financé par des entreprises l'est souvent indirectement par de l'argent public grâce à des inventions type crédit d'impôt recherche et autres joyeusetés).
D'autre part, il est important de réaliser que les personnes qui se cachent derrière les comités éditoriaux et les comités de lecture des revues ne sont autres que… des chercheurs ! Évidemment, puisqu'il y a besoin des experts du domaine pour juger de la qualité des articles et pouvoir y déceler des problèmes…
Si on reprend un peu ce qui a été dit jusqu'à présent, on se rend compte que la répartition des dépenses et des recettes est curieuse. Effectivement, des prémices du travail de recherche jusqu'à la rédaction d'un article, et ensuite le contrôle de sa qualité (c'est-à-dire le travail du comité éditorial ainsi que celui du comité de lecture), tout est assuré par des chercheurs et donc financés par de l'argent public.
Pour ne pas s'arrêter en si bon chemin, certaines revues font payer les auteurs à la page (parfois jusqu'à plusieurs centaines d'euros par page) pour la publication d'un article. C'est même la règle dans des domaines de recherche comme la médecine ou la pharmacie.
Et ensuite, pour parfaire le tout, les maisons d'édition s'assurent d'avoir un monopole sur un résultat de recherche en exigeant des chercheurs qu'ils cèdent le copyright des articles et de leur contenu (schémas, tableau, graphiques, etc.) à la maison d'édition.
Gratuitement.
Vous ne rêvez pas, le résultat de tout ce travail leur est cédé, en échange de rien du tout.
⚠ Il est important de noter qu'en droit français, la validité de la cession du copyright telle qu'elle est pratiquée est possiblement nulle. Il semble que cette cession de copyright ne puisse pas avoir valeur de contrat puisqu'elle n'est signée que par un seul côté, qu'il suffit qu'un des auteurs la signe pour engager tous les autres, et qu'il n'y a rien en échange. C'est du moins ce que l'on comprend à la lecture d'un « Avis pour le Comité d'Éthique du CNRS sur les relations entre les chercheurs et les maisons d'édition scientifique » de 2011.
La maison d'édition devait ensuite imprimer et envoyer l'article dans le monde entier, mais cela est de moins en moins vrai, comme on l'a vu dans le second point de la section « Le rôle d'une maison d'édition ». Le coût pour la maison d'édition est alors celui d'héberger des fichiers PDF sur un serveur web, autant dire qu'il est faible. Faible, mais pas proche de zéro a priori, car ces maisons d'édition ont aussi le devoir moral de conserver de manière fiable les archives de la connaissance humaine, qu'elles accaparent depuis plusieurs siècles maintenant.
Le coût des abonnements
Les meilleurs résultats des travaux de recherche financés publiquement et cédés gracieusement aux maisons d'édition sont ensuite revendus par celles-ci, sous forme d'abonnement à leurs revues, aux universités et aux instituts de recherche, qui sont bien évidemment toujours autant financés par de l'argent public.
On utilise donc l'argent public pour racheter un article à une maison d'édition privée, et ce pour chacune des universités et des instituts de recherche qui sont intéressés par le domaine de l'article.
Pour vous donner un ordre d'idées, voilà ce qu'on peut trouver dans le rapport d'activité pour l'année 2011 du Service Commun de Documentation (le réseau des bibliothèques) de l'École normale supérieure :
- Montant total des dépenses : 2 101 587,47 €.
- Dont dépenses documentaires : 1 083 885,16 €.
L'ENS consacre donc plus d'un million d'euros par an aux dépenses documentaires, dont la vaste majorité correspondent à des abonnements à des revues. Le rapport prend soin de préciser la chose suivante, qui révèle que les dépenses documentaires seraient encore bien plus élevées si l'ENS ne pouvait pas bénéficier des abonnements de certains de ses partenaires :
[N]ous rappelons que les publics scientifiques de l'ENS bénéficient en outre des abonnements électroniques acquis par le CNRS au niveau national et mis à disposition via ses portails nationaux. Ceci constitue un facteur d'économie important pour certains départements de l'ENS, qui n'acquièrent pas ces ressources sur leurs budgets propres. Il en est de même pour les ressources consultables par les chercheurs de l'ENS auprès d'autres grands établissements parisiens, notamment l'UPMC.
Malheureusement, l'ENS est loin de faire figure d'exception, l'ordre de grandeur des dépenses en abonnements est plutôt la norme pour les quelques centaines d'établissements d'études supérieures que l'on compte en France. On peut le constater en consultant la base de données ASIBU (application statistique interactive des Bibliothèques universitaires, c'est très laborieux à utiliser, courage), qui malheureusement ne contient pas les informations concernant les bibliothèques de recherche et les abonnements électroniques propres aux instituts de recherche comme le CNRS, Inria, l'INSERM, etc. Pour donner un ordre de grandeur les dépenses documentaires du CNRS seul s'élèvent aux alentours de 36 millions d'euros par an d'après leurs rapports financiers et comptes consolidés.
Bien évidemment, les articles sont pas non plus disponibles pour le grand public (qui a pourtant tout financé avec ses impôts) y compris et surtout dans des domaines aussi importants que la médecine, ou encore la pharmacie qui a des lobbies puissant face auxquels l'information est le seul contre-pouvoir possible. Quand on n'est pas dans une institution qui a payé les abonnements et qu'on cherche à accéder à un article de recherche, celui-ci sera le plus souvent derrière un mur à péage (paywall en anglais), vous demandant de payer à la maison d'édition un montant entre 30 et 50 € (en général) pour pouvoir télécharger un PDF de quelques pages.
Les profits des maisons d'édition
On pourrait penser qu'avec la baisse conséquente des coûts de gestion et de distribution due au passage des revues au format électronique, les prix des abonnements seraient revus à la baisse. Évidemment, il n'en est rien. Au contraire, on assiste ces dernières années à des augmentations fulgurantes des tarifs. On le voit bien avec l'exemple de la bibliothèque de Télécom ParisTech pour laquelle j'ai pu obtenir des chiffres sur les cinq dernières années. En effet, entre 2009 et 2014 on constate un désabonnement massif aux versions papier des revues (-55%) au profit des versions électroniques (+33%). Pourtant on assiste dans le même temps à une augmentation significative des prix des abonnements aux principales maisons d'édition : +21% pour Elsevier, +32% pour Springer, et +61% pour l'IEEE, en seulement cinq ans.
Cela donne des chiffres hallucinants du côté des maisons d'édition, comme le confirme le rapport financier de Reed-Elsevier (maison mère de Elsevier) pour l'année 2013. Dans ce rapport on apprend que les revues électroniques représentent maintenant plus de 80% de leur chiffre d'affaires, et que leurs profits sont aux environs de 30% avec des revenus de l'ordre de 7 milliards d'euros et un bénéfice opérationnel de plus de 2 milliards d'euros.
Ces profits sont évidemment l'écho de la ruine des bibliothèques de recherche. On voit ces dernières années pour les premières fois à des désabonnements massifs pour des raisons de manque de budget. Cela a par exemple été le cas avec l'Université Pierre et Marie Curie, pour qui l'abonnement au « Big Deal » d'Elsevier n'était plus soutenable (les maisons d'édition s'arrangent pour vendre des gros bouquets de revues plutôt que de laisser les établissement sélectionner seulement celles dont ils auraient besoin). En 2009 cela faisait plus de dix ans que l'UPMC payait plus d'un million d'euros par an à Elsevier. L'abonnement a été reconduit un an suite à une concession significative d'Elsevier dans la négociation et par solidarité avec les autres membres de Couperin (consortium unifié des établissements universitaires et de recherche pour l'accès aux publications numériques, qui est récemment passé de 147 à 642 établissements membres). Mais en 2010, suite à une large consultation des chercheurs et au vote à l'unanimité de son Conseil scientifique, l'UPMC a décidé de se désabonner d'Elsevier. Finalement, Elsevier est revenu à la charge en acceptant une réduction d'environ 30% (du prix, mais aussi du nombre de revues dans le bouquet), preuve que les universités ont le pouvoir de renverser en leur faveur le rapport de force dans les négociations avec les maisons d'édition. Depuis l'UPMC s'est désabonnée de Science et l'Université Paris Descartes de Nature qui sont (à tort ou à raison) considérées comme les deux plus prestigieuses revues généralistes.
Ces cas ne sont pas isolés, il se passe la même chose en Belgique, en Angleterre, aux États-Unis, …, partout dans le monde. En Allemagne, le cas de l'Université de Konstanz est frappant. Constatant les prix exorbitants des revues Elsevier qui leur coûtent plus de 3400 € par an et par revue (ce qui est trois fois plus cher que la deuxième maison d'édition en terme de prix), et cela faisant suite à une augmentation de plus de 30% des tarifs de la maison d'édition sur les cinq dernières années, l'Université de Konstanz à décider de se désabonner des revues Elsevier. Le mot d'ordre était très clair : « Stop paying twice ». Un appel interne a été lancé pour demander aux chercheurs de suivre l'initiative The Cost of Knowledge, et à l'utilisation en priorité des versions des articles disponibles en libre accès, avant de se rabattre sur l'achat d'articles individuellement.
Les maisons d'édition sont des crapules
La mise en place de cette situation abracadabrante s'explique malheureusement assez bien. Depuis des années, contrairement à ce qu'on pourrait imaginer au vu de leur mission, le cœur de métier des maisons d'édition est la négociation. Elles font mener par des professionnels des négociations volontairement lentes et complexes, en ayant en face d'elles des individus qui le plus souvent ne sont pas négociateurs ni même commerçants de profession. Ces gens-là sont des bibliothécaires, des conservateurs, des chercheurs, etc. En plus de cela, les maisons d'édition, en faisant appel au secret commercial, rendent entièrement confidentielles leurs négociations avec les institutions publiques. Ainsi, les montants des contrats sont secrets, et révéler les abus des maisons d'édition en terme de tarification est passible de poursuites pour les personnes qui rompraient ce contrat. La confidentialité de ces contrats est possible car les négociations avec les maisons d'édition échappent aux règles des marchés publics, pour des raisons étranges de concurrence et de propriété intellectuelle (cf. article 35 du Code des marchés publics). Ce qui est encore plus fou est que la clause de confidentialité est elle-même sous le sceau du secret dans certains cas, comme on l'apprend avec horreur à la lecture du très bon article « Elsevier journals — some facts » de Timothy Gowers. Il faut se rendre compte que, jusqu'à récemment en tout cas (c'est sûrement toujours le cas), les seuls juristes du CNRS par exemple étaient des spécialistes du droit des brevets ; certainement pas des gens dont ce serait le métier de négocier et vérifier les contrats avec les maisons d'édition.
Liberté, égalité, sororité
En réalité, le coût en euros effrayant du système de publication n'est pas le vrai problème. Il s'agit en fait d'un symptôme du problème réel qui est la privatisation de la conservation et de la diffusion des découvertes et des inventions de l'humanité.
Il y a évidemment d'autres symptômes tout aussi importants que la dépense d'argent public au profit des actionnaires des maisons d'édition. En effet, en plus des symptômes financiers, on compte au moins deux importants symptômes sociaux. Le premier est la difficulté de l'accès citoyen aux résultats de la recherche, alors que celle-ci est financée par l'argent public, y compris dans des domaines très importants comme la médecine ou la pharmacie. Le second est l'inégalité entre les étudiants et les chercheurs dans les universités, non seulement à l'échelle d'un pays, mais aussi dans le monde : les études et la recherche dans les universités des pays émergents, qui ont peu de moyens, ne devraient pas en plus être pénalisées par l'impossibilité d'avoir accès aux résultats de la recherche ailleurs dans le monde.
Le libre accès se pose comme une solution à la plupart de ces symptômes, voire comme une solution au problème, selon comment et à quel point on décide de l'appliquer.
Le libre accès
Le libre accès, c'est la mise à disposition des articles en accès libre, gratuit et illimité via Internet, sans restriction de paiement ou d'abonnement pris auprès des maisons d'édition.
Il est évident que cela résout presque entièrement les symptômes que l'on a soulevés jusque là : la dépense immodérée d'argent public, l'accès citoyen, l'égalité entre étudiants et chercheurs des différentes universités à travers le monde. Cependant, il serait mentir de dire que ça résout entièrement les problèmes, comme nous allons le voir en étudiant ce qu'est le libre accès en pratique, mais aussi ce que ce n'est pas.
Comment le libre accès est-il rendu possible ?
Avant de regarder en détail de quoi il s'agit en pratique, il est nécessaire de s'intéresser à la faisabilité du libre accès. En effet, il faut réunir deux conditions pour rendre le libre accès possible.
La première, c'est de pouvoir diffuser les articles à bas coût dans le monde entier. Cela est comme on l'a déjà dit possible grâce à Internet.
La seconde, c'est le consentement des détenteurs des droits des articles. Pour les anciens articles, ces droits ont été cédés aux maisons d'édition comme on l'a vu dans la section « Le partage des coûts jusqu'à la publication » (encore que légalement ça n'est peut-être pas clair partout, cf. la remarque sur la cession du copyright en France). Si on veut faire ça dans les règles (on verra plus tard que ça n'est pas nécessairement la bonne solution), il faut donc l'accord des maisons d'édition pour diffuser ces articles, qu'elles possèdent jusqu'à 70 ans après la mort des auteurs à cause des lois absurdes sur le droit d'auteur.
En revanche, pour les nouveaux articles, les détenteurs du copyright sont par défaut les chercheurs qui les ont écrits (ou leurs institutions). Si ces derniers (ou celles-ci) choisissent de conserver leur copyright plutôt que de le céder à une maison d'édition, ils peuvent faire le choix eux-mêmes de mettre leur article en libre accès.
L'intérêt du libre accès pour les auteurs
La question qui reste à se poser est alors de savoir pourquoi les chercheurs, auteurs des articles, auraient intérêt à les mettre en libre accès plutôt que de les céder à une maison d'édition.
Il faut comprendre que pour les chercheurs il n'y a aucun intérêt financier en jeu. Dans aucun des deux cas les chercheurs ne perçoivent d'argent, ni à la publication d'un article, ni lorsque celui-ci est vendu.
En fait, un chercheur écrit des articles pour plusieurs raisons. La première est de faire connaître ses résultats, parce qu'il les pense intéressants et importants au moins pour la communauté de son domaine de recherche. La seconde, c'est de se faire connaître lui. La carrière d'un chercheur, et donc les moyens dont il va disposer pour mener à bien ses recherches, et la liberté qu'il aura de faire vraiment ce qu'il désire (grâce à sa renommée et/ou à l'obtention d'un poste permanent par exemple), avancent avec la reconnaissance de ses travaux par la communauté des chercheurs, en particulier par ceux de son domaine.
Vous ne trouverez donc aucun chercheur (ou presque ?) qui refuserait que ses articles soient disponibles plus facilement et à plus de monde. Aucun ne refusera d'être plus lu et donc d'avoir plus de retours pour améliorer ses articles, et par un cercle vertueux de gagner ainsi plus de reconnaissance. C'est ça que leur offre l'option du libre accès.
Les difficultés de la transition vers le libre accès
Les chercheurs, surtout les jeunes chercheurs qui doivent encore faire leurs preuves, ont besoin pour leur carrière de publier des articles dans des revues prestigieuses de leur domaine. Malheureusement, le prestige est quelque chose qui a beaucoup d'inertie, et les revues les plus prestigieuses sont souvent les plus anciennes et sont donc pour la plupart détenues par des maisons d'édition.
Quand c'est le cas, ces revues ne sont que très rarement en libre accès. À l'heure actuelle, il est malheureusement déraisonnable pour un chercheur débutant de résoudre ce conflit d'intérêts en faveur du libre accès. C'est malheureux, comme on l'a expliqué précédemment dans un aparté sur la bibliométrie, mais nécessaire. Le problème, c'est qu'il est rare qu'un article soit écrit par un seul chercheur, et c'est encore plus rare pour un jeune chercheur (peut-être à l'exception des mathématiques), qui co-écrit le plus souvent avec ses encadrants (de thèse ou de post-doc). Ces encadrants sont des chercheurs qui ont déjà fait leurs preuves mais qui se retrouvent dans la situation de devoir choisir entre publier dans des revues fermées mais prestigieuses, ou de pénaliser leurs jeunes co-auteurs. Il y a donc une situation de prise en otage par les maisons d'édition, à cause de l'utilisation de la bibliométrie.
Il ne faut pas perdre espoir pour autant. D'une part, le passage au libre accès est justement l'occasion de remettre en question les méthodes bibliométriques, voire de remettre en question leur utilisation. D'autre part, comme on va le voir dans la suite, il y a plusieurs façons de mettre ses travaux de recherche en libre accès, et certaines ne dépendent pas de la revue dans laquelle on publiera finalement. Mais avant, il est important de répondre aux craintes les plus courantes sur le libre accès.
Ce que le libre accès n'est pas
Dans cette section, on essaye de lister les craintes qui existent vis-à-vis du libre accès et d'y répondre.
-
Ce n'est pas un moyen de se passer de l'évaluation par les pairs.
Ceci est très important. Certains détracteurs du libre accès essayent de faire croire que le libre accès est synonyme de publications de mauvaise qualité puisqu'elles ne subiraient à aucun moment d'évaluation par les autres experts des domaines concernés. Il est évident que ceci est entièrement faux, puisque le libre accès est une question indépendante, totalement orthogonale à la façon de sélectionner les articles. Le libre accès est compatible avec toutes sortes d'évaluations par les pairs : la disponibilité des articles en libre accès n'exclut en aucun cas de les évaluer et de mettre en avant les meilleurs.
John Bohannon essaye de prouver le contraire dans un torchon intitulé « Who's afraid of peer-review? » qu'il a écrit pour le magazine d'actualité scientifique Science. Sa méthode de comparaison des revues en libre accès et de celles qui ne le sont pas est assez remarquable. Son test consiste à envoyer un article de mauvaise qualité avec de faux résultats à plein de revues en libre accès avec frais de publication pour les auteurs, et de voir combien vont l'accepter. Ce qu'il constate, c'est que plus de la moitié à peu près de ces revues ont accepté l'article sans signe d'évaluation par les pairs. Il en conclue donc que les revues en libre accès sont pour la plupart de mauvaise qualité.
Cette conclusion est éminemment ridicule. Premièrement, s'il s'agit de comparer les revues en libre accès et celles qui ne le sont pas, il faudrait aussi faire le test sur celles qui ne le sont pas, or ici ce n'est pas fait, on suppose simplement sans argumenter (et ça serait difficile) que les revues en accès fermé sont de bonne qualité. Deuxièmement, le test qui est fait n'a aucun sens. Aucun chercheur n'envoie ses articles au hasard dans des revues inconnues. Quand un article est soumis à une revue, on la choisit en connaissance de cause, selon deux critères aussi importants l'un que l'autre (et qui vont souvent de pair) : d'un côté le prestige de la revue, car plus elle est prestigieuse plus elle sera lue, et le but est évidemment d'être le plus lu possible par les autres chercheurs de son domaine, qui sont au courant de la qualité des différentes revues ; de l'autre côté pour le sérieux de la revue, parce que l'étape de relecture et d'évaluation est très important pour les auteurs. D'une part pour les rassurer sur la qualité de leurs travaux (on a toujours peur d'avoir raté quelque chose), et d'autre part car les auteurs d'un article ne voudraient surtout pas qu'il soit publié dans une grande revue s'il reste des erreurs dedans. On note que des maisons d'édition comme Elsevier estiment aujourd'hui que travailler le texte n'est plus de leur ressort et que « s'il y a des coquilles, des images dégueulasses, des erreurs dans les références, c'est la faute de l'auteur » comme on l'apprend dans ce témoignage édifiant. Troisièmement, la conclusion à tirer de son expérience est en fait que la pression bibliométrique qui pèse sur les chercheurs (« publish or perish »), couplée à leur désir naturel et souhaitable d'être plus lus et donc de publier en libre accès, a provoqué le développement d'un business malsain de la publication (on rappelle qu'il a choisi des revues avec frais de publication pour les auteurs !) qui nuit directement au monde de la recherche. -
Ce n'est pas une réforme du copyright ou du droit d'auteur.
Aucune réforme du copyright n'est nécessaire pour passer au libre accès. Même les licences libres que l'on peut choisir d'utiliser (on verra cela dans la suite du dossier) se fondent sur le copyright tel qu'il existe actuellement. En ce qui concerne le droit d'auteur, il n'est absolument pas remis en question non plus puisqu'on ne parle pas ici d'œuvres qui font toucher une redevance (royalties en anglais) à leurs auteurs. Cependant, il n'est pas totalement inenvisageable de faire coexister le libre accès et les redevances du droit d'auteur : il existe des livres qui se vendent en version imprimée de manière traditionnelle mais qui sont en libre accès au format électronique, y compris des livres académiques, et cela n'empêche pas les versions imprimées de se vendre convenablement, comme l'ont montré le best-seller de Cory Doctorrow, Little Brother, ou plus modestement les livres libres de la collection Framabook.
-
Ce n'est pas un déni des coûts de publication.
Évidemment, personne ne prétend que publier n'a aucun coût. L'accent est mis sur le fait que ces coûts sont déjà en grande partie assumés publiquement puisqu'ils font partie du travail des chercheurs (recherche, rédaction, comité éditoriaux, comité de lecture), et qu'il est aujourd'hui possible de baisser considérablement les coûts sur le reste de l'activité de publication, notamment grâce à Internet et en ne cherchant pas à maintenir un certain taux de profit.
-
Ce n'est pas un façon de diminuer le contrôle des auteurs sur leur travail.
Au contraire, puisqu'il s'agit de leur laisser le copyright de leurs articles plutôt que de le céder à une maison d'édition. De plus, certaines des maisons d'édition en accès fermé tiennent tellement au monopole qu'elles ont sur les articles qu'elles publient, que leur politique est d'interdire la soumission d'articles qui ont déjà été rendu public sur Internet, comme on l'apprend ici. Avec le libre accès, les chercheurs peuvent mettre au plus tôt leurs articles en ligne (avant même l'évaluation par les pairs, en prenant soin de préciser qu'il s'agit d'un preprint) et ainsi s'assurer d'avoir la paternité des idées qu'ils y développent afin d'en être crédités.
-
Ce n'est pas une façon de banaliser le plagiat.
Ce n'est pas parce qu'un article est disponible en libre accès qu'il est dans le domaine public. Et donc il est tout aussi interdit de plagier son contenu ou de le réutiliser sans attribution, c'est-à-dire sans mentionner les auteurs et citer l'article d'où le contenu provient. Le plagiat est de toutes façons puni bien plus sévèrement par les mœurs que par la loi, et à ce niveau-là non plus le libre accès ne change rien. De plus, même si un article tiers est dans le domaine public, il est généralement interdit d'en copier des morceaux, par exemple dans une thèse. Cette interdiction est le fait des règles de l'institution où la thèse est effectuée, et pas du copyright ou même des mœurs.
-
Ce n'est pas un appel généralisé au boycott des maisons d'édition.
Les maisons d'édition traditionnelles, même si elles vont être amenées à s'adapter ou à disparaître, peuvent tout à fait coexister avec le libre accès comme on le verra dans la section suivantes sur les différents modèles de libre accès.
-
Ce n'est pas uniquement un moyen d'ouvrir la recherche aux citoyens.
Même si cet aspect est très important, il y a toujours des gens pour dire que finalement, les gens qui ne sont ni étudiants ni chercheurs ne s'intéressent pas aux résultats de la recherche. Ils en concluent donc le libre accès ne sert à rien puisque les étudiants et les chercheurs ont déjà accès aux publications via leurs universités ou instituts de recherche. Le problème avec ce raisonnement, c'est que même si la première proposition était vraie, ce qui n'est pas le cas, la seconde serait fausse quand même. En effet, les universités ne sont pas sur un pied d'égalité vis-à-vis des abonnements aux revues dont elles disposent. C'est vrai entre universités d'un même pays et encore plus à l'échelle mondiale, avec des moyens conséquemment moins importants dans les pays en voie de développement. Il y a donc un problème de justice économique et sociale à résoudre, et le libre accès est un moyen d'y parvenir.
-
Ce n'est pas la solution à tous les problèmes.
Malheureusement, le libre accès n'est pas la solution à tous les problèmes, sinon on parlerait d'accès universel. Le libre accès nécessite d'avoir accès à Internet. Il ne permet pas de contourner le filtrage et la censure du réseau. Il ne résout pas la barrière de la langue, la vaste majorité des articles étant écrit en anglais. Il y a bien sûr une barrière d'accessibilité, les sites web n'étant pas toujours parfaitement conçus pour les personnes ayant un handicap, et le format PDF aujourd'hui dominant ne l'étant pas non plus.
Il faut remarquer que si le libre accès n'est pas la solution à ces problèmes, l'accès fermé traditionnel ne les résout pas non plus.
Différents modèles de libre accès
Un article peut être rendu accessible librement par trois voies principales.
-
La voie verte (green open access en anglais).
Cette voie est celle de l'auto-archivage (self-archiving en anglais). Le principe est que les chercheurs eux-mêmes vont mettre leurs articles sur un dépôt (repository en anglais) prévu à cette fin. Ces dépôts peuvent être thématiques, institutionnels, ou nationaux. Ils sont pour la plupart gérés par des institutions publiques et ont pour mission la distribution et la conservation dans le temps des articles qui leur sont confiés. Certains d'entre eux acceptent tous les articles et permettent de préciser où ils ont été publiés quand c'est le cas, et d'autres n'acceptent d'héberger uniquement les articles qui ont déjà été publiés par ailleurs. Les dépôts sont capables de garder la trace des versions successives d'un article. Ils peuvent aussi communiquer entre eux (pour s'échanger des méta-données par exemple) grâce au protocole OAI-PMH. La plupart des revues, y compris les revues en accès fermé, autorisent les auteurs à auto-archiver les preprints de leur article, parfois après une période d'embargo qui varie généralement entre six mois et un an après la parution de l'article dans la revue (on peut vérifier cela au cas par cas sur SHERPA/RoMEO). C'est grâce à cette méthode que presque 100% des nouveaux articles (depuis plusieurs années) sont disponibles en libre accès dans certains domaines comme la physique théorique.
Le dépôt le plus connu et le plus vieux est arXiv, qui est un dépôt thématique pour la physique, les maths, et l'informatique. En France le plus gros est HAL (Hyper-Articles en Ligne), qui accepte tous les domaines de recherche, et dispose de sous-portails dédiés pour certains établissements et instituts de recherche. -
La voie dorée (gold open access en anglais).
Ici, le libre accès se fait directement par la revue. À la place de vendre l'article, la maison d'édition fait payer les auteurs (ou leurs institutions) pour sa publication. La plupart des revues se disant en libre accès ou proposant le choix du libre accès aux auteurs chez les maisons d'édition traditionnelles pratiquent la voie dorée. Ce n'est pas une solution satisfaisante car les frais pour les auteurs sont exorbitants (souvent aux alentours de 3000 €). De plus, les bibliothèques universitaires et de recherche sont toujours obligées de s'abonner aux revues même si elles proposent ce choix. En effet, tous les auteurs n'ont pas forcément choisi de payer pour l'option du libre accès, ce qui rend l'abonnement indispensable pour lire une partie des articles de la revue.
Malheureusement, le lobby des maisons d'édition est très puissant et il y a à cause de lui une confusion entre le libre accès et la voie dorée, à tel point qu'on trouve dans les bourses européennes de financement de projet de recherche des crédits servant à payer ces tarifs déraisonnables. Ces crédits importants, mobilisés dans l'intention louable d'aller vers plus de libre accès, seraient bien mieux employés à favoriser une vraie offre et non cette mascarade. -
La voie diamant (diamond open access en anglais).
Ici aussi, le libre accès se fait directement par la revue. En revanche, il n'y a pas de frais pour les auteurs. Les revues pratiquant la voie diamant sont quasiment toutes nées à l'ère d'Internet. Certaines sont ce qu'on appelle des épi-revues, c'est-à-dire qu'elles fonctionnent en collaboration avec les dépôts (comme ceux permettant la voie verte). Le principe des épi-revues est que les auteurs déposent leurs articles dans les dépôts, et c'est à partir de là que le processus d'évaluation par les pairs prend place, garantissant la qualité et la pertinence des articles. Les articles qui sont acceptés pour publication dans l'épi-revue sont ensuite mis à jour sur le dépôt : pour chacun, une nouvelle version prenant en compte l'évaluation par les pairs, incluant les méta-données de publication (ISSN, date, etc.), et estampillée par l'épi-revue comme la version acceptée pour publication, est alors téléversée sur le dépôt. Enfin, l'épi-revue publie une liste de liens pointant directement sur la version acceptée des articles. Ce modèle permet de se passer entièrement des maisons d'édition dans les domaines où il n'y a plus de travail de mise en page important (tous ceux où les chercheurs utilisent des traitements de texte avancés, comme LaTeX, pour mettre en page leurs articles), ce qui est le cas de plus en plus de domaines (notamment grâce au progrès fait par les logiciels de traitement de texte de type LibreOffice ou Word).
Dans le modèle diamant du libre accès, d'une part le comité éditorial est doué d'une existence légale et il détient la revue et d'autre part les auteurs conservent le copyright de leurs articles. Actuellement, les comités éditoriaux n'ont pas d'existence propre, les revues sont détenues par les maisons d'édition, et leurs contenus aussi.
C'est le modèle à préférer, celui pour lequel il faut lutter.
En parallèle de ces trois voies, on peut faire une autre distinction dans les modèles de libre accès, entre la gratuité seule d'un côté, et l'utilisation de licences libres de l'autre. Peut-être qu'il serait plus judicieux de parler d'accès ouvert pour le premier cas et d'accès libre pour le second.
Lorsqu'un article est mis à disposition gratuitement, par défaut, les détenteurs du copyright sur l'article ne concèdent aucun droit à ses lecteurs ; ces détenteurs sont les auteurs ou les institutions dans lesquelles ils travaillent, ou celles à qui ils auraient cédé leur copyright. Cela veut dire qu'il obéit à la règle « tous droits réservés ». Il est donc interdit d'en faire usage pour autre chose que ce pour quoi il a été mis à disposition : sa lecture. À l'exception des droits dit de « fair use » (« exceptions prévues par l'article L122-5 du Code de propriété intellectuelle » en français), c'est-à-dire les droits de courte citation, de parodie, de copie réservée à l'usage privé, etc. sous réserve d'indiquer clairement les noms des auteurs, tout le reste est interdit sans avoir obtenu l'accord explicite des détenteurs du copyright. Cela signifie qu'il est par exemple interdit de donner une copie d'un article à un collègue ou à des étudiants.
Lorsqu'un article est distribué sous licence libre, les détenteurs du copyright donnent par avance bien plus de possibilités aux lecteurs.
L'article obéit alors à la règle « certains droits réservés ».
Les licences libres pour le contenu s'inspirent de celles qui ont fait le succès du logiciel libre.
Les plus connues et les plus utilisées sont les licences Creative Commons, car elles ont été rédigés par des juristes et sont donc valides dans la plupart des législations, en plus d'être avantageusement disponibles en trois versions :
la version légale, compliquée mais précise ;
la version simplifiée, lisible et compréhensible par tout le monde ;
et la version électronique, permettant aux machines de comprendre la licence (par exemple pour les moteurs de recherche).
La licence libre la plus appropriée aux articles de recherche, et celle qui est conseillée par la plupart des initiatives existantes pour le libre accès, est la licence « Creative Commons Attribution », aussi appelée « CC-BY ».
Cette licence permet de partager (copier, distribuer et communiquer le matériel par tous moyens et sous tous formats) et adapter (remixer, transformer et créer à partir du matériel), sous réserve d'attribution.
C'est-à-dire qu'il est nécessaire pour jouir de ses droits supplémentaires de créditer l'article original, en donnant le nom de ces auteurs, son titre, et en précisant si il a été modifié et sans laisser entendre que les modifications sont soutenues par les auteurs originaux.
Cela autorise par exemple les traductions, les changements de format (il faut penser dès aujourd'hui à l'après-PDF), une amélioration (par exemple, corriger des fautes de langue avant de le distribuer, ou encore améliorer la qualité de certaines figures), ou de faire des compilations d'articles sur un même sujet sous forme de livres.
Ce qui est intéressant, c'est que les licences Creative Commons peuvent aussi s'appliquer aux jeux de données, aux illustrations, aux vidéos, au code source, etc. qui peuvent à l'ère d'Internet accompagner les articles pour les rendre plus complets.
Comment passer au libre accès ?
Il y a plusieurs façons de passer au libre accès.
-
Par des efforts individuels.
Chaque chercheur est responsable de ce qu'il choisit de faire avec ses articles. Il est toujours utile de discuter du libre accès avec ses co-auteurs quand ceux-ci ne sont pas déjà en sa faveur.
Il est aussi toujours utile de remettre en question les contrats des maisons d'édition. Quand un article est accepté dans une revue à accès fermé, il faut toujours demander s'il serait possible, plutôt que de céder le copyright, de le conserver et de donner à la place une licence de distribution à la maison d'édition, de préférence une licence libre type CC-BY.
Dans tous les cas, si la revue est en accès fermé il faut mettre au plus vite l'article à disposition sur sa page web et/ou l'auto-archiver dans un dépôt, sans nécessairement respecter la période d'embargo de la maison d'édition. En effet, les risques sont limités : d'une part, on a déjà vu que la cession du copyright a une valeur légale douteuse en France, d'autre part aucune maison d'édition n'oserait s'attaquer à un chercheur pour cette raison seulement, car cela lui donnerait une bien trop mauvaise image et elle risquerait une levée de boucliers de la part du monde académique. Ce n'est, à ma connaissance, jamais arrivé jusqu'à aujourd'hui. -
Par des politiques d'institutions ou des politiques nationales.
Quand les chercheurs d'une institution le décident collectivement dans les instances démocratiques de l'institution (Conseils de labo, Conseil scientifique), il est possible de mettre en place une politique de publication en libre accès. Par exemple l'institution peut décider qu'elle conserve le copyright des articles, et donc ne pas laisser d'autre choix aux maisons d'édition que d'accepter une licence de distribution plutôt que de récupérer le copyright. Cela permet à l'institution des chercheurs qui ont écrit un article de le mettre à disposition en libre accès sur un dépôt de l'institution quand l'article n'est pas dans une revue en libre accès.
Il est important de noter que les maisons d'édition acceptent systématiquement ce genre de situation, car elles savent qu'elles sont bien plus dépendantes des auteurs que les auteurs ne sont dépendants d'elles. Le risque à s'engager dans une telle politique institutionnelle est donc faible, mais il est malgré tout évident qu'il appartient tout de même aux plus grosses et aux plus prestigieuses institutions d'ouvrir la voie, puisqu'elles ont plus de poid face aux maisons d'édition. Et justement, on peut observer que ce modèle fonctionne bien depuis qu'il a été mis en place dans certaines universités, y compris de grandes universités comme Harvard ou le MIT, ou encore par des organismes comme l'OMS. La liste est de plus en plus longue. -
Par la prise d'indépendance par rapport aux maisons d'édition.
Comme avec les épi-revues, il est possible de se passer entièrement des maisons d'édition, en auto-hébergeant les articles en ligne. Il est indispensable d'insister sur l'importance de la prise d'indépendance par rapport aux maisons d'édition. Actuellement, les maisons d'édition sont propriétaires des revues qu'elles distribuent. Cela signifie que le comité éditorial (qui on le rappelle, est composé de chercheurs ayant intérêt à passer au libre accès) ne peut pas partir avec la revue et son prestige. La seule solution actuellement pour prendre son indépendance est de créer une nouvelle revue, qui doit repartir de zéro.
La réappropriation des revues par les chercheurs est donc indispensable pour mener à bien les deux batailles du mouvement pour le libre accès et du mouvement contre les effets néfastes de la bibliométrie. Les corrections et mises en forme typographiques ainsi que l'impression ne sont finalement que des services qui peuvent tout à fait être découplés du travail du comité éditorial et de celui du comité de lecture de la revue. Les économies conséquentes que les universités et instituts de recherche pourraient réaliser en arrêtant de payer des abonnements à des prix indécents seraient largement suffisantes pour mener à bien ces missions par ailleurs. Cela peut être fait en interne par les presses universitaires, mais aussi par des entreprises de services spécialisées.
Dans le cas de l'utilisation de licences libres, ces deux missions (que ce soit les corrections et mises en forme typographiques ou l'impression) pourraient même être menées à la demande, par ceux qui en ont besoin, puisque les auteurs ont déjà donné leur accord. Si la licence libre oblige ceux qui font des modifications à les partager avec la communauté (on appelle ces licences « copyleft »), alors les frais induits par les corrections et mises en forme typographiques n'auront à être assumés qu'une seule fois, et seulement dans les cas où cela sera effectivement jugé utile (puisque sinon personne ne le fera). Une licence copyleft qui pourrait être utilisée pour les articles, les données, et le code issu de la recherche est la licence « Creative Commons Attribution et Partage dans les même conditions », aussi appelée CC-BY-SA. On remarque que les licences qui ont fait le succès des plus grands logiciels libres (Linux, Mozilla Firefox, VLC, etc.) sont aussi des licences copyleft.
Tout ce que l'on vient de voir sont des moyens de se mettre au libre accès pour les nouveaux articles. Or il reste le problème de l'accès aux anciens articles. Pour cela, il y a besoin d'une coopération de la part des maisons d'édition qui détiennent légalement ces archives. Une solution possible serait de réformer le droit d'auteur, typiquement pour le limiter fortement dans le temps au moins pour les œuvres qui, comme les articles de recherche, sont principalement financées publiquement. Ce n'est pas irréaliste : par exemple, tout ce qui est produit par le gouvernement fédéral des États-Unis s'élève immédiatement dans le domaine public. Ce qui serait plus compliqué, c'est de rendre cela rétro-actif, car cela demanderait une volonté politique très forte et très interventionniste, ce qui n'est pas évident au niveau international. En attendant que le rapport de force vis-à-vis des lobbies de l'industrie de la publication scientifique penche en faveur du libre accès, il n'y a pas d'autre choix que de mener une guerilla : ceux qui le peuvent doivent faire profiter les autres de leurs accès autant que possible, même si ça n'est pas censé être légal.
Quelques initiatives
En 2001, l'Initiative de Budapest pour l'accès ouvert tente de définir ce qu'est le libre accès, et appelle à l'auto-archivage et à la création de revues alternatives en libre accès. Elle lance aussi les travaux de création d'un protocole, l'OAI-PMH (Open Archives Initiative Protocol for Metadata Harvesting) qui va permettre aux différents dépôts de communiquer, notamment pour s'échanger des méta-données.
Cette initiative est suivie, deux ans plus tard en 2003, de la Déclaration de Berlin sur le libre accès à la connaissance. Les signataires y réclament la mise à disposition en libre accès de la littérature scientifique mondiale et de l'ensemble des données et logiciels ayant permis de produire cette connaissance. Cette déclaration a aujourd'hui été signée par plus de 470 organisations dont le CNRS, l'INSERM, l'Institut Pasteur, et l'UPMC.
À nouveau deux ans plus tard, naît la déclaration de Berlin III, qui prend des position plus fortes avec une exigence pour les chercheurs de déposer leurs travaux de recherche dans des dépôts, et de les encourager à publier dans des revues en libre accès. Elle a été signée entre autre par le CNRS, Inria, l'INSERM, et le CERN.
Ce genre d'initiatives se multiplie. En France le Centre pour la Communication Scientifique Directe s'occupe de maintenir les dépôts nationaux HAL et TEL (« Thèse En Ligne »). Il est aussi responsable de projets comme Scienceconf, une plateforme de gestion de conférences qui permet de simplement les organiser de manière indépendante, ou Episciences, qui offre une plateforme de gestion d'épi-revues (y compris la gestion de l'évaluation par les pairs).
Dans les domaines des lettres, des sciences humaines et des sciences sociales, la situation actuelle est un peu meilleure. C'est en partie dû aux plus faibles enjeux financiers de ces domaines : en l'absence de lobbies industriels, les chercheurs disposent d'un champs d'action plus large. Mais ce n'est pas la seule raison : très tôt, certains chercheurs de ces domaines ont compris l'intérêt de fuir les maisons d'éditions traditionnelles, et l'opportunité offerte par l'arrivée d'Internet. Lorsque la bibliométrie a commencée à frapper, il n'a plus été question que des revues de « rang A ». Pour être de ce rang, une revue doit être internationale, et seule les revues en anglais étaient considérées comme pouvant l'être. Cela ne fait évidemment pas beaucoup de sens de publier en anglais quand on est spécialiste de l'ancien français, par exemple. De fait, les meilleures revues dans ces domaines étaient rarement en anglais. Des chercheurs ont donc profité de l'arrivée d'Internet et ont pris l'initiative dès 1999 de monter une plateforme leur permettant d'auto-gérer leurs revues, se passant ainsi totalement des maisons d'édition. Aujourd'hui, le projet revues.org est international, et est même devenu incontournable. Il héberge plus de 400 revues dans 14 langues différentes, toutes en libre accès.
Dans mon domaine de recherche, en cryptologie, près de 100% des papiers sont disponibles en ligne avant leur publication (et sont mis à jour au fur et à mesure) sur le portail Cryptology ePrint Archive de l'International Association for Cryptologic Research. Cela permet d'avoir très tôt des retours de la communauté sur nos articles, avant même leur soumission à des revues, ce qui est très utile.
Cette idée est poussée encore plus loin par les partisans de l'« open peer-review » (évaluation par les pairs ouverte en français). Par exemple le Self-Journal of Science propose aux chercheurs de mettre en ligne leurs preprints pour les faire évaluer par la communauté de manière ouverte, c'est-à-dire que les rapports d'évaluation des articles sont eux-mêmes publics, signés, et citables. Cela permet aux chercheurs d'être crédités pour leur travail d'évaluation. Le texte « Independent Peer-Review Manifesto » est une bonne lecture sur le sujet. Sur le sujet de l'auto-publication, qui va de pair avec l'évaluation ouverte, je conseille la lecture du texte « Academic self-publishing: a not-so-distant-future ». Ces méthodes, en rendant public le processus d'évaluation par les pairs, permettent de le remettre au centre du système de publication scientifique, c'est à dire à sa place naturelle puisque il s'agit l'aspect le plus important scientifiquement du processus de publication.
Conclusions
Il y a deux problèmes principaux auxquels on s'est intéressé : d'un côté, celui de l'accès à tous à la connaissance, aux inventions et aux découvertes, aux savoirs et aux techniques ; de l'autre, celui de l'influence néfaste de la bibliométrie sur la recherche. On a vu que ces deux problèmes sont étroitement liés, et on a étudié les solutions offertes par le libre accès. Le libre accès permet de résoudre en majeure partie le premier problème, et est l'occasion de faire des avancées significatives sur le second, en particulier sous certaines des formes que le libre accès peut prendre (voie diamant, réappropriation des revues par les comités éditoriaux, utilisation de licences libres). Que ce soit grâce un mouvement politique ou à cause d'une nécessité économique, une chose est sûre : le monde de la publication scientifique est en train d'évoluer. Il ne tient qu'à nous d'en profiter pour le faire aller dans la bonne direction.
Rejoignez le mouvement et parlez-en autour de vous !
Quelques liens en vrac
- Open Access, de Peter Suber.
- Les pages Wikipédia open access et libre accès.
- L'Initiative de Budapest pour l'accès ouvert ou Open Archives Initiative.
- La Déclaration de Berlin sur le libre accès à la connaissance.
- Le portail du Centre pour la Communication Scientifique Directe du CNRS.
- Le portail Open Access de l'Institut de l’information scientifique et technique.
- Guerilla Open Access Manifesto d'Aaron Swartz.
- Site web de l'initiative The Cost of Knowledge.
- Les textes Independent Peer-Review Manifesto et Academic self-publishing: a not-so-distant-future chez Open Scholars.
- Le blog de Tim Gowers.
- Le blog de veille de Couperin.
- Quelques extraits de la conférence à l'ENS (lien vers la vidéo complète dans la description).
- AJOUT 2015-06-05 : Papiers Dorés, très bon reportage sur le sujet.
- AJOUT 2016-09-04 : Les communs de la connaissance : défense du libre accès à la recherche, ma conférence Les Ernest.
- AJOUT 2016-10-17 : Privés de savoir ?, *enfin* le DATAGUEULE sur le sujet du libre accès.
Le contenu de cette page est diffusé sous licence CC-BY-SA.