dimanche 15 mars 2020

To blog or not to blog

Le Département Documentation, Archives, Médiathèque et Édition m'a invité à participer aux journées d'études des 12 et 13 mars consacrées à "La Médiation et les métiers de la documentation du livre et des archives : entre permanence et renouvellement, enjeux et prospectives".

J'étais invité à proposer une réflexion à propos de l'état de l'art en matière de blogs en sciences de l'information. Or il se trouve que je n'ai pas alimenté le présent blog depuis plus d'un an, de sorte qu'une telle présentation ne pouvait selon moi, faire l'économie d'un questionnement sur la nécessité ou non de continuer en 2020 à tenir un blog.

Ce billet, qui inclut une présentation explicitant pourquoi ce blog a été mis en silence,  est donc en soi une jolie contradiction performative.


J'aimerais ici revenir sur quelques éléments de réflexion, et notamment dissiper certains malentendus. Tout d'abord, le constat que je fais d'un certain déclin des blogs n'est pas étayé par la compilation préalable d'un ou plusieurs travaux de recherche sur le sujet. Je revendique en la matière une analyse subjective de la question des interactions, des entrecroisements et des jeux de substitutions entre blogs et réseaux sociaux (pour la clarté du propos, j'ai fait comme si le blog n'était pas un réseau social, pour mieux le distinguer des réseaux sociaux proposés par les grandes plateformes centralisées: Facebook, Twitter, Instagram, etc). 

Ensuite, comme me l'a fait remarquer très justement une personne dans la salle, je n'ai pas envisagé certains aspects de l'articulation entre blogs et réseaux sociaux : on trouve fréquemment sur les réseaux sociaux des messages brefs comportant un lien invitant à continuer la lecture sur un blog. Dans ce cas, l'antagonisme s'efface au profit d'une complémentarité.

Enfin, puisque la question m'a été posée et que je pense ne pas y avoir répondu assez nettement et assez clairement, j'aimerais dire ici que oui, le blog, bien plus que les réseaux sociaux, est un espace adapté à l'expression d'une réflexion construite et approfondie, et en cela, l'hypothèse inverse selon laquelle les blogs ont un bel avenir, n'est pas à exclure. Ma réflexion consistait à mettre en doute la visibilité et la pérennité des blogs en général à l'ère de l'hégémonie des réseaux sociaux centralisés ; il n'en reste pas moins que subsiste actuellement un espace pour les blogs écrits à des fins journalistiques ou scientifiques ou bien pour tous autres types de blogs bénéficiant d'une large audience (blogs culinaires pas exemple, ou en sciences de l'information...). C'est seulement dans quelques années qu'on saura précisément si les blogs ont survécu au rouleau compresseur des réseaux sociaux, ou bien si un nouveau médium les a remplacés. Tel le chat de Schroedinger, les blogs sont simultanément morts et non-morts...

Ma première thèse consistait à montrer comment la conversation s'était déplacée des blogs aux réseaux sociaux.  La seconde consistait à montrer comment le rêve d'un web émancipateur, libre et ouvert s'était brisé sur les récifs du capitalisme de surveillance et que le droit n'a plus prise sur la réalité du web des plateformes centralisées. "Move fast and break things", disait Mark Zuckerberg en 2009. Avancer vite, quitte à faire éclater les cadres législatifs et démocratiques. 

Au passage, je montrais, au travers du cas emblématique du scandale Clearview, comment la reconnaissance artificielle n'est au fond que l'excroissance hypertrophiée du web centralisé : non seulement la base de données de 3 milliards d'images s'est constituée en siphonnant les contenus des principales plateformes de réseaux sociaux (Facebook, YouTube, Twitter, Instagram, Snapchat, etc), mais l'un des premiers soutiens financiers de la firme n'est autre que Peter Thiel, également actionnaire de  Facebook.


J'ai fait ma présentation le 12 mars... quelques heures avant l'allocution présidentielle au sujet du coronavirus. Il y a comme un avant et un après... Un trait qui me semble frappant dans le traitement préventif appliqué au coronavirus est la façon dont il s'accommode bien du recours aux technologies du capitalisme de la surveillance. 

L'arsenal de technologies mises en œuvre pour répondre à la propagation du virus permet, comme le dit très bien Olivier Tesquet, d'évaluer les modalités de notre soumission à la surveillance. Ou pour le dire autrement, les mesures prophylactiques sont le prétexte d'un déploiement toujours plus étendu des cybertechnologies de la surveillance. 

En Chine, la lutte contre le coronavirus a trouvé à se matérialiser par le recours aux drones, à la vidéo-surveillance et à une application pour smartphones qui décide en temps réel "si quelqu'un présente un risque de contagion [et] partage les informations avec la police, établissant un modèle pour de nouvelles formes de contrôle social automatisé".  En Israël, le Shin Bet, le service de sécurité intérieure, projette de mettre en œuvre "le suivi en temps réel des téléphones portables des personnes infectées pour repérer les violations de la quarantaine et le traçage a posteriori des déplacements grâce à des métadonnées pour savoir où elles ont été et qui elles ont contacté." Un pareil dispositif est déjà mis en œuvre à Singapour et en Corée du Sud. Des entrepreneurs avides aux aguets poussent à faire de même en Belgique. A Moscou, c'est la reconnaissance faciale qui est mobilisée. Les Etats-Unis s'apprêteraient à proroger le Patriot Act au nom de la menace de santé publique.

Et en France ? Les politiques tâtent le terrain. Le terreau a déjà été préparé par la menace sécuritaire liée aux attentats. Car au fond, la mise en œuvre d'un nouvel arsenal de cybertechnologies est toujours déclenché par une peur, qu'elle soit liée à une menace purement humaine ou virale. Le 8 octobre 2019, le président de la République en appelait à une "société de vigilance", que Mireille Delmas-Marty qualifie de "nouveau coup d’accélérateur aux glissements de l’Etat de droit vers un Etat de surveillance [voire à une] surveillance sans Etat", à l'heure du déploiement de contrats entre municipalités et partenaires privés. On pense notamment au projet SafeCity à Nice, issu d'une convention entre la municipalité et la société Thalès. Dans la foulée des propos du président, Cédric O, secrétaire d’État au numérique, a appelé de ses vœux, et appelle toujours, à l'expérimentation de la reconnaissance faciale. Est-ce bien cela que nous voulons ?



PS : Merci à X. pour son écoute attentive, ses conseils avisés et sa patience.



dimanche 25 novembre 2018

Direct2AAM : un tutoriel à destination des chercheurs pour retrouver leurs postprints


C'est parfois avec des idées simples qu'on fait progresser une grande cause. L'équipe qui œuvre au projet "Open Access Button" vient d'en donner une éclatante illustration, en annonçant le 21 novembre, la mise en ligne d'un tutoriel (en cours de finalisation) expliquant aux chercheurs comment récupérer leurs postprints en se loguant sur les plateformes d'outils d'édition : Editorial Manager, ScholarOne, eJournal Press, etc. Le tutoriel est dénommé Direct2AAM, AAM étant l'acronyme de "Author Accepted Manuscript".

https://docs.google.com/document/d/1E8nSWyMwCHyJgiKpwDS6dYK14Efm99Fa2LZ97TG0NXw/edit#heading=h.clbvz43nrm75

Un tutoriel pour faire avancer la cause de l'open access 


La Loi République Numérique, promulguée le 7 octobre 2016, consacre un droit d'exploitation secondaire des articles scientifiques au bénéfice de leurs auteurs. Ces derniers, moyennant le respect d'un certain nombre de conditions cumulatives (financement au moins pour moitié sur fonds publics, parution dans un périodique,  accord des co-auteurs...) sont en droit de mettre à disposition gratuitement, passé un délai de 6 mois (en sciences, techniques, médecine) ou de 12 mois (en sciences humaines et sociales) après la première date de publication, la dernière version de leur papier acceptée avant publication :

Art. L. 533-4.-I.-Lorsqu'un écrit scientifique issu d'une activité de recherche financée au moins pour moitié par des dotations de l'Etat, des collectivités territoriales ou des établissements publics, par des subventions d'agences de financement nationales ou par des fonds de l'Union européenne est publié dans un périodique paraissant au moins une fois par an, son auteur dispose, même après avoir accordé des droits exclusifs à un éditeur, du droit de mettre à disposition gratuitement dans un format ouvert, par voie numérique, sous réserve de l'accord des éventuels coauteurs, la version finale de son manuscrit acceptée pour publication, dès lors que l'éditeur met lui-même celle-ci gratuitement à disposition par voie numérique ou, à défaut, à l'expiration d'un délai courant à compter de la date de la première publication. Ce délai est au maximum de six mois pour une publication dans le domaine des sciences, de la technique et de la médecine et de douze mois dans celui des sciences humaines et sociales.
« La version mise à disposition en application du premier alinéa ne peut faire l'objet d'une exploitation dans le cadre d'une activité d'édition à caractère commercial. (...)
Or, en pratique, les chercheurs sont souvent bien en peine de mettre la main sur la dernière version de leur papier acceptée avant publication, s'ils n'ont pas pris la précaution de l'archiver dans un espace de stockage personnel. Bien souvent, seul l'éditeur détient la version finale acceptée pour publication et sans les marques éditeur (logos, copyright, etc). C'est là qu'intervient le tutoriel Direct2AAM, pour aider les chercheurs à récupérer la dernière version auteur acceptée avant publication. L'idée est d'une grande simplicité : Direct2AAM explique aux chercheurs comment se connecter aux principaux outils d'édition (ScholarOne, Editorial Manager...), plateformes par lesquelles transite et s'opère le travail de peer-reviewing en amont de la publication. Or ces outils hébergent les "publications et  textes intermédiaires déposés par les auteurs, les évaluateurs et les editors" (Pierre-Carl Langlais a consacré aux outils d'édition la première partie d'un rapport paru en 2016).

 Retour d'expérience d'un chercheur


Le tutoriel permet-il de récupérer exactement la version finale du manuscrit acceptée pour publication, ou bien s'agit-il d'une version légèrement antérieure avant remaniement ultime par les reviewers ou l'éditeur?  Pour le savoir, encore faut-il mettre en pratique le tutoriel. Un chercheur (merci Jean-José !) s'est prêté spontanément à l'exercice. Voici son retour d'expérience :
"J'ai suivi la procédure indiquée et, pour certains de mes articles, j'ai pu récupérer le dernier PDF envoyé à l'éditeur (version acceptée).
Le problème, c'est que ce PDF subit parfois/souvent des modifications pendant la phase dite de PROOF.
Après mise en page de la version acceptée, l'éditeur envoie à l'auteur principal une version pour vérification que tout est OK.
Pendant cette phase de vérification, il arrive (assez souvent) que l'on détecte des bugs, qui sont corrigés par l'éditeur mais que les auteurs ne corrigent généralement pas de leur côté.
Du coup, la version acceptée et la version publiée ne sont pas toujours identiques (hors aspects mise en page).
A ce bémol près, la procédure proposée permet bien de récupérer le post-print, suivant la définition "version acceptée, intégrant les corrections demandées par les reviewers, sans mise en page de l'éditeur".
Il est probablement préférable de déposer ce post-print que de ne rien déposer du tout."
Donc, modulo quelques retouches mineures effectuées par l'éditeur à la toute fin du travail de relecture, au moment de la correction des épreuves, la version du manuscrit récupérée via les outils d'édition correspond bien au postprint que l'auteur, en vertu de l'article 30 de la Loi République Numérique, est en droit de mettre à libre disposition, passé le délai de 6 ou 12 mois après la date de première publication.

Le même chercheur est tombé sur un cas problématique : le PDF d'un article est non disponible et un message automatique de l'éditeur explique que le papier a été retiré en application des "règles de conservation des enregistrements "(record retention policies). Lesquelles ne permettent malheureusement pas d'expliquer les motifs de la suppression du PDF, qui semble, en l'état, pour le moins arbitraire.





Derrière les outils, les murs...


Le tutoriel Direct2AAM a cela aussi d'instructif, qu'il donne à tout un chacun une information claire sur l'identité des groupements économiques détenteurs des deux outils d'édition les plus répandus sur le marché : Elsevier détient depuis août dernier Editorial Manager, et Clarivate Analytics a racheté en 2016 ScholarOne (en même temps que le Web of Science). Ainsi le tutoriel met indirectement en lumière un processus de captation progressive des outils d'édition par les grands acteurs de l'édition scientifique.

La remarque procède d'un constat plus général : les grands éditeurs scientifiques, au premier rang desquels Elsevier, sont en train de bâtir "un écosystème captif qui embrasse tous les pans de l'édition scientifique" (pour reprendre une formule très juste de Pierre-Carl Langlais). Cette "plateformisation" de l'édition scientifique qui va du rachat des réseaux sociaux académiques (Mendeley) à celui d'archives ouvertes (SSRN), en passant par l'acquisition de Current Research Information Systems (PURE) ou de produits d'altmetrics (Elsevier a également fait l'acquisition de Plum Analytics), se fait à toute vitesse. Si rapidement à vrai dire, que l'infographie concernant Elsevier, disponible dans le cadre du projet "Innovations in Scholarly Communications", n'est tout simplement pas à jour ; le rachat d'Editorial Manager par Elsevier en août dernier n'y figure toujours pas :

https://101innovations.wordpress.com/workflows/


Comment ne pas s'inquiéter du caractère hautement problématique de cette omniprésence des poids lourds de l'édition scientifique à tous les stades du workflow de la publication et des services associés ? Non seulement, les chercheurs sont de plus en plus captifs, enfermés à l'intérieur d'un seul écosystème propriétaire, mais cette agrégation de plateformes laisse peu à peu "enfermés dehors" la myriade des petits éditeurs qui composent les franges de l'oligopole mondial constitué des "big 6" : Elsevier, Springer Nature, Wiley, WoltersKluwers, Clarivate Analytics et Informa.

Effet de bord de la captation des multiples pans de l'édition scientifique ou ironie suprême : quand l'Union Européenne cherche un prestataire technique pour la réalisation du projet « Open Science Monitor », elle se tourne vers... Elsevier.




PS: merci à Marlène Delhaye qui a diffusé cette info sur Twitter !

jeudi 12 juillet 2018

Plan national pour la science ouverte : beaucoup d'avancées et trois questions

Mercredi 4 juillet, à l'occasion du congrès annuel de la Ligue des Bibliothèques Européennes de Recherche, Frédérique Vidal, Ministre de l'Enseignement Supérieur, de la Recherche et de l'Innovation, a présenté un Plan national pour la science ouverte.
Le plan comporte différentes mesures qui se déclinent en 3 axes :

Premier axe : généraliser l'accès ouvert aux publications

1. Rendre obligatoire la publication en accès ouvert des articles et livres issus de recherches financées par appel d’offres sur fonds publics.
2. Créer un fonds pour la science ouverte.
3. Soutenir l’archive ouverte nationale HAL et simplifier le dépôt par les chercheurs qui publient en accès ouvert sur d’autres plateformes dans le monde.

 Deuxième axe : structurer et ouvrir les données de la recherche

4. Rendre obligatoire la diffusion ouverte des données de recherche issues de programmes financés par appels à projets sur fonds publics.
5. Créer la fonction d’administrateur des données et le réseau associé au sein des établissements.
6. Créer les conditions et promouvoir l’adoption d’une politique de données ouvertes associées aux articles publiés par les chercheurs.

Troisième axe : s'inscrire dans une dynamique durable, européenne et internationale

7. Développer les compétences en matière de science ouverte notamment au sein des écoles doctorales.
8. Engager les opérateurs de la recherche à se doter d’une politique de science ouverte.
9. Contribuer activement à la structuration européenne au sein du European Open Science Cloud et par la participation à GO FAIR.

Ce plan ambitieux est une excellente nouvelle pour le rayonnement international de la production scientifique française. Il s'accompagne de différentes actions complémentaires. La liste est longue et elles mériteraient d'être toutes citées. Voici certaines des plus marquantes :

- "Reconnaître la science ouverte dans les évaluations des chercheurs et des établissements". Il s'agit non seulement de ne plus établir une hiérarchie des valeurs entre les publications sous pay wall et les publications en accès libre (comme le faisait jusqu'il y a peu la section 60 du CNU "Mécanique, génie mécanique, génie civil"), mais de valoriser les publications en accès libre. Comme le précise Frédérique Vidal dans son discours inaugural : "Pour relever les défis de la science ouverte, nous devons réformer en profondeur tout notre système pour que l’ouverture des publications et des données soit enfin reconnue comme une bonne pratique."

-  "Réduire l’emprise de l’évaluation quantitative au profit de l’évaluation qualitative." L'objectif fait ici écho aux nombreuses critiques adressées à l'encontre des mesures bibliométriques traditionnelles, telles que le facteur d'impact d'une revue ou le h-index conçu pour évaluer la carrière d'un chercheur. En 2013, la Déclaration de San Francisco sur l'évaluation de la Recherche en appelait déjà à une réforme des méthodes d'évaluation des revues, de façon à mettre un terme à l'erreur consistant à établir une corrélation entre le facteur d'impact d'une revue et la qualité des articles qui y sont publiés. Plus près de nous, le Manifeste de Leiden en 2015 et le colloque "Open Eval" en 2016 faisaient état de la  perte de confiance dans les processus classiques d’évaluation et de la nécessité de leur substituer une « évaluation ouverte ».

- "Encourager l’adoption des citations ouvertes (Initiative for Open Citations – I4OC) à la place de citations dans des environnements propriétaires." Encore peu connue en France, l'I4OC vise à promouvoir le développement des citations structurées et ouvertes, c'est-à-dire librement accessibles et réutilisables.

- "Explorer les nouveaux modèles économiques pour les revues comme pour les livres en accès ouvert." Il s'agit de préserver un objectif de "bibliodiversité", tel que défini dans l'Appel de Jussieu, qui plaide pour le "développement de modèles innovants de publication scientifique".

- "Construire autour de l’administrateur des données un réseau de correspondants dans les établissements, pour répondre aux questions que se posent les chercheurs sur les données de la recherche." La gestion des données de la recherche ne sera pas simplement pilotée de façon centralisée par administrateur général des données (Chief Data Officer) mais se déploiera de façon réticulaire par une série de relais au sein de chacun des établissements de l'enseignement supérieur.

- "Créer un label « science ouverte » pour les écoles doctorales" et "Développer les compétences sur les données de la recherche, notamment à travers des offres de formation en ligne à destination de la communauté scientifique." Le plan pour la science ouverte intègre donc clairement un volet dédié à la formation, qu'il s'agisse de celle des doctorants ou de celle des enseignants-chercheurs.

- "Adhérer au niveau national à ORCID, système d’identification unique des chercheurs qui permet de connaitre plus simplement et sûrement les contributions scientifiques d’un chercheur." Le système ORCID (Open Researcher and Contributor ID) est en effet le meilleur moyen d'identifier précisément les auteurs et de réduire les risques d'homonymie. Si ORCID est un jour largement adopté à un niveau international, on ne verra plus, comme en 2011, 3926 articles publiés sous le nom d'un seul auteur.

- "Ouvrir les données du financement de la recherche en constituant des jeux de données publiques concernant :
  • les dépenses relatives aux acquisitions électroniques dans les bibliothèques universitaires et par les organismes de recherche,
  • les dépenses relatives aux frais de publications d’articles et de livres
  • les financements de recherche sur appel à projets et leurs bénéficiaires."
La formulation du premier point laisse une question pendante. Quel est le degré de précision des informations ? S'agit-il simplement pour les bibliothèques universitaires et les organismes de recherche de rendre public le montant global des sommes dépensées en matière de  documentation électronique ? Ou bien s'agit-il de détailler, éditeur par éditeur, le montant des sommes qui sont facturées ?
Si l'on suppose que c'est la seconde interprétation qui est la bonne, force serait de constater que le fait d'enjoindre les présidents ou les directeurs des établissements de l'enseignement supérieur et de la recherche à communiquer le montant des dépenses d'acquisition en matière de documentation électronique est assez nouveau et mérite d'être souligné. Cela va à l'encontre des recommandations du consortium Couperin qui a toujours invité les négociateurs et les établissements à ne pas communiquer publiquement le montant des acquisitions, en application de "la réglementation française en vigueur au titre de l’atteinte aux intérêts financiers du titulaire et du secret des affaires". C'est ainsi que les Enquêtes annuelles sur les Ressources Électroniques" (ERE), remplies ressource par ressource par chaque établissement membre du consortium Couperin, ne sont pour l'instant pas en accès libre.
Cette culture du secret ne date pas d'hier. Déjà, en 2008, l'une des premières préconisations du rapport Salençon était de « rendre publiques les conditions de vente une fois les marchés publics conclus. » En 2011, l'Inspecteur Général des Bibliothèques Pierre Carbone constatait que "les clauses de confidentialité ont surtout pour effet de fragmenter les institutions d’enseignement supérieur et de recherche et de leur empêcher d’avoir une vision d’ensemble".
Mais cet état de fait va changer très vite. Car dès le 3 avril, donc avant même la diffusion du plan pour la science ouverte, le Ministère de l'Enseignement Supérieur, de la Recherche et de l'Innovation a pris l'engagement de diffuser ces données de manière transparente sur le site https://data.enseignementsup-recherche.gouv.fr/. Cette initiative correspond à l'une des actions de l'engagement 18 du programme français "Pour une action publique transparente et collaborative : Plan d'action national pour la France 2018-2020" :
Mettre en place un dispositif de monitoring transparent (public) des dépenses relatives aux acquisitions électroniques dans les bibliothèques universitaires. Diffusion des dépenses en open data sur le portail open data du MESRI (enquête ERE sur les ressources électroniques des bibliothèques et des établissements d’enseignement supérieur).
 Un questionnaire officiel adressé le 27 juin par Couperin à tous les présidents et directeurs des établissements de l'enseignement supérieur et de la recherche leur demande d'exprimer leur accord ou leur désaccord à la diffusion publique des données recueillies lors de l’enquête annuelle ERE. Sans réponse d'ici le 23 juillet, le MESRI considèrera par défaut les réponses comme affirmatives.
En dernier ressort, c'est le MESRI qui décidera du degré de précision des jeux de données : ce point n'est donc pas totalement tranché. Il se pourrait que les conditions de sa compatibilité avec certaines dispositions de la Loi pour une République numérique nécessitent d'être précisées, comme on le verra plus bas.

***

 On notera au passage que la CURIF (Coordination des universités de recherche intensive françaises), avait fait le 3 juillet, soit la veille de la publication du plan, 4 propositions pour la science ouverte, lesquelles s'inscrivent parfaitement dans les grandes lignes du plan :

1. S’investir pleinement dans la création d’un fonds pour le développement de la Science Ouverte
2. Changer nos pratiques internes d’évaluation des structures, des personnels et des appels à projets pour s’inscrire dans une démarche de Science Ouverte
3. Pérenniser et ouvrir l’accès aux données issues de la recherche
4. Assurer des formations sur la Science Ouverte à tous les niveaux

Ces propositions ont été rendues publiques avec l'accord et le soutien de Frédérique Vidal. Il semblerait donc que la CURIF soit la "tête de pont" de la mise en œuvre du plan national.

***

Au travers de cette présentation succincte du plan pour la science ouverte, quelques interrogations se font jour. Elles portent sur l'articulation de certaines mesures avec les dispositions de la Loi pour une République Numérique.

1 - Obligation de publier en accès ouvert les articles et livres issus de recherches financées par appel d’offres sur fonds publics :

Alors que l'article 30 de la Loi pour une République Numérique énonce que la mise "à disposition gratuitement dans un format ouvert, par voie numérique" d'un écrit scientifique dépend du libre choix de son auteur et de ses coauteurs éventuels, le plan pour la science ouverte rend la mise à disposition obligatoire.

Cependant, le champ d'application des deux dispositifs semble sensiblement différent. L'article 30 de la LRN concerne "un écrit scientifique issu d'une activité de recherche financée au moins pour moitié par des dotations de l'Etat, des collectivités territoriales ou des établissements publics, par des subventions d'agences de financement nationales ou par des fonds de l'Union européenne". Tandis que la formulation moins précise de la mesure 1 du plan national ne permet pas de savoir si elle s'applique seulement aux écrits scientifiques financés à 100 % sur fonds publics, ou si le seuil des 50% est suffisant. Si c'est la première branche de l'alternative qui est la bonne, l'obligation de dépôt s'appliquerait donc potentiellement à un nombre plus restreint d'écrits scientifiques.

2 - La question des licences ouvertes :

Les rédacteurs du plan indiquent que "la France recommandera l’adoption de licences ouvertes pour les publications et les données, à la fois compatibles avec la loi française et avec les pratiques scientifiques internationales."

Concernant, les données de la recherche, on note ici une zone de conflit potentiel avec les dispositions de la LRN. L'article 30 énonce que les données de la recherche sont librement réutilisables :
Dès lors que les données issues d'une activité de recherche financée au moins pour moitié par des dotations de l'Etat, des collectivités territoriales, des établissements publics, des subventions d'agences de financement nationales ou par des fonds de l'Union européenne ne sont pas protégées par un droit spécifique ou une réglementation particulière et qu'elles ont été rendues publiques par le chercheur, l'établissement ou l'organisme de recherche, leur réutilisation est libre.
Par conséquent, l'apposition d'une licence, aussi ouverte soit-elle (CC0 par exemple), aux données de la recherche serait non seulement inutile, mais contraire à la lettre de la loi.

3 - La publication des dépenses relatives aux acquisitions électroniques dans les bibliothèques universitaires et par les organismes de recherche

Le gouvernement semble déterminé à publier de manière transparente sur le site https://data.enseignementsup-recherche.gouv.fr/, les dépenses des établissements de l'ESR, ressources par ressources (ce qui est de notre point de vue une excellente décision). Il n'en reste pas moins que les conditions de compatibilité de cette action vis-à-vis du texte de la Loi pour une République Numérique mériteraient d'être clarifiées. L’article 6 de la LRN prévoit des exceptions au principe général d'open data, listées aux articles 311-5 et 311-6 du code des relations entre le public et l’administration. Ce second article pointe notamment le cas de l’atteinte au secret commercial :

« Ne sont communicables qu’à l’intéressé les documents administratifs :
1° Dont la communication porterait atteinte à la protection de la vie privée, au secret médical et au secret en matière commerciale et industrielle, lequel comprend le secret des procédés, des informations économiques et financières et des stratégies commerciales ou industrielles et est apprécié en tenant compte, le cas échéant, du fait que la mission de service public de l’administration mentionnée au premier alinéa de l’article L. 300-2 est soumise à la concurrence; »

***

Bien que des questionnements sur la portée exacte du Plan national pour la science ouverte et sur sa compatibilité avec les textes  en vigueur émergent ici ou là, il n'en reste pas moins que le Plan marque une étape importante dans la diffusion et le partage de la science à un niveau national et international.
Il faudra cependant rester vigilant notamment vis-à-vis de la négociation nationale qui se profile autour de RELX-Elsevier. Il ne faudrait pas que, sous couvert de promotion de la science ouverte, le gouvernement finisse par reconduire à l'identique un accord de licence nationale, dont les conditions de négociation s'étaient avérées assez désastreuses par le passé.




dimanche 22 octobre 2017

"Mother!" ou la fin de la vie privée

Jérome Garcin, animateur-producteur bien connu de l'émission radiophonique "Le Masque et la Plume", m'a fait récemment l'amitié de citer en début d'émission le courrier que j'avais adressé à l'équipe du Masque pour faire part de ma lecture très différente et beaucoup moins hostile du dernier film de Darren Aronofsky, "Mother!". Cependant, mon propos a été tellement raccourci, qu'il ne restait rien de sa substantifique moelle. Coupé, mon propos en est devenu obscur. C'est pourquoi je republie ici mon courrier dans son intégralité. 




"Cher Masque,

Que de sévérité pour le dernier opus de Darren Aronofsky : "une des plus grosses merdes de l'année"  selon Xavier Leherpeur, "un film épouvantable" selon Sophie Avon, qui ajoute, dans un aveu de lucidité qui l'honore : "on n'y comprend rien"...

Et pourtant,le film est bien loin d'être inintelligible. Darren Aronofsky explore une situation extrême où un écrivain reconnu pousse l'autofiction jusqu'à partager avec ses lecteurs, non pas seulement par le pouvoir du verbe, mais réellement, les moments les plus intimes de sa vie. Comme chez Kafka ou Michaux, l'intimité du dedans est retournée comme un gant pour être piétinée par l'espace du dehors.

Qui plus est, le film est ancré dans la réalité la plus contemporaine. Car, bien que ne mobilisant jamais le moindre écran d'ordinateur ou de tablette, le film est une métaphore sur la grande dissolution de la notion même de vie privée, à l'oeuvre à l'échelle planétaire, dans une époque folle où les internautes partagent leurs moindres faits et gestes, leurs moindres états d'âme, les moindres événements de leur vie quotidienne sur les réseaux sociaux (Facebook en particulier). Comme le disait en 2013 Vint Cerf, l'un des pères fondateurs du Web et actuellement "chef évangéliste (sic.) de l'Internet" chez Google : « La vie privée peut être considérée comme une anomalie (...) il sera de plus en plus difficile pour nous de garantir le respect de la vie privée ».

 Quand on partage sa vie privée avec un nombre potentiellement infini d'internautes, c'est finalement le monde entier qui est susceptible de débarquer un jour ou l'autre dans son jardin ou sa maison. D'où le caractère "monumental" du film, souligné par Sophie Avon.

"Mother!", un chef d'oeuvre ? Je ne sais pas. Mais assurément une belle mise en abyme de notre "modernité".

Pour toutes ces raisons, j'invite Eric Neuhoff à aller voir le film en salle, en dépit de l'avis contraire de ses confrères (que j'apprécie grandement par ailleurs)."

Post Scriptum. La scène de cannibalisme eucharistique constitue le point ultime du retour du réel sur la folie du partage indéfini de soi sur les réseaux sociaux. "Ceci est mon corps" devient "Ceci est notre corps". "Ceci est mon sang" devient "Ceci est notre sang". 

jeudi 17 novembre 2016

RIP ReLIRE... et la taxe Google Images

La Cour de Justice de l'Union Européenne a rendu sa décision mercredi 16 novembre dans l'affaire ReLIRE. La CJUE suit globalement les conclusions de l'Avocat Général Melchior Wathelet dont j'avais parlé dans un précédent billet. La question préjudicielle posée par le Conseil d'Etat était la suivante :

« Les [articles 2 et 5] de la directive 2001/29 s’opposent-[ils] à ce qu’une réglementation, telle que celle qui a été [instituée par les articles L. 134-1 à L. 134-9 du code de la propriété intellectuelle], confie à des sociétés de perception et de répartition des droits agréées l’exercice du droit d’autoriser la reproduction et la représentation sous une forme numérique de “livres indisponibles”, tout en permettant aux auteurs ou ayants droit de ces livres de s’opposer ou de mettre fin à cet exercice, dans les conditions qu’elle définit ? »

La CJUE répond trois fois "oui".



Une réglementation triplement incompatible avec le droit communautaire


1° La liste des exceptions et des limitations au droit d'auteur de l'article 5 "revêt un caractère exhaustif"

Une législation nationale ne saurait donc créer de toutes pièces une nouvelle exception.

2° La loi française ne garantit pas "l'information effective et individualisée des auteurs"

Or " tout auteur doit être effectivement informé de la future utilisation de son œuvre par un tiers et des moyens mis à sa disposition en vue de l’interdire s’il le souhaite."

3° Les modalités de retrait du dispositif ReLIRE sont doublement incompatibles avec le régime de la directive européenne


1° Atteinte au droit exclusif des auteurs

Rappelons que parmi les trois types de démarches possibles pour les auteurs qui souhaitent la sortie de leurs ouvrages de la gestion collective au-delà des 6 mois suivant la publication du registre ReLIRE, figure l'hypothèse du retrait conjoint de l'auteur et de l'éditeur. Or dit la Cour, "ce droit doit pouvoir être exercé sans devoir dépendre, dans certains cas, de la volonté concordante de personnes autres que celles que cet auteur a préalablement autorisées à procéder à une telle exploitation numérique, et donc de l’accord de l’éditeur ne détenant, par ailleurs, que les droits d’exploitation de ladite œuvre sous une forme imprimée."

On notera au passage le coup de boutoir porté par la Cour aux fondements mêmes de la loi française. Car incidemment, la Cour estime invalide le mécanisme sous-jacent à la loi, qui permet aux éditeurs de récupérer leurs droits sur l'exploitation numérique des livres, quand bien même l’œuvre imprimée était techniquement "épuisée" depuis plusieurs années.

2° le formalisme est une atteinte à la jouissance et à l'exercice des droits d'auteur

Comme l'avait relevé dès 2013 le collectif Le droit du Serf en déposant auprès du Conseil d'Etat un recours pour excès de pouvoir, les formalités imposées par la législation française, sont en contradiction avec les principes énoncés par la Convention de Berne et le Traité de l'OMPI. Parmi les trois types de retraits visant à la sortie de la gestion collective au-delà des 6 mois suivant la publication du registre ReLIRE, la loi du 1er mars 2012 prévoit le cas du retrait de l’auteur en tant que seul titulaire des droits numériques: "l'auteur d'un livre indisponible peut décider à tout moment de retirer à la société de perception et de répartition des droits mentionnée au même article L. 134-3 le droit d'autoriser la reproduction et la représentation du livre sous une forme numérique s'il apporte la preuve qu'il est le seul titulaire des droits définis audit article L. 134-3". Le décret d'application du 27 février 2013 précise que l'auteur "produit à l'appui de sa demande de retrait tout élément probant". C'est précisément cette inversion de la charge de la preuve de la titularité des droits, qui s'accompagne inévitablement d'un formalisme, qui est sanctionnée par la Cour :

Il en découle, notamment, que, dans le cadre d’une réglementation telle que celle en cause au principal, l’auteur d’une œuvre doit pouvoir mettre fin à l’exercice, par un tiers, des droits d’exploitation sous forme numérique qu’il détient sur cette œuvre, et lui en interdire ce faisant toute utilisation future sous une telle forme, sans devoir se soumettre au préalable, dans certaines hypothèses, à une formalité consistant à prouver que d’autres personnes ne sont pas, par ailleurs, titulaires d’autres droits sur ladite œuvre, tels que ceux portant sur son exploitation sous forme imprimée.

Par conséquent, les termes de de la directive "Infosoc" de 2001 s'opposent à ce que la loi du 1er mars 2012 relative à l'exploitation numérique des livres indisponibles du XXe siècle instaure un mécanisme de nature à confier à une société de perception et de répartition des droits (la SOFIA en l'occurrence) "l’exercice du droit d’autoriser la reproduction et la communication au public, sous une forme numérique, de livres dits « indisponibles »".

La "taxe Google Images" bientôt dans le viseur de la CJUE ?


Comme l'a relevé immédiatement Calimaq, il existe une autre loi dont une disposition spécifique présente un grand nombre de traits communs avec la loi sur les indisponibles. La toute récente loi du 7 juillet 2016 relative à la liberté de la création, à l'architecture et au patrimoine prévoit en effet un mécanisme similaire de mise en gestion collective des images diffusées en ligne, sans l'accord préalable des auteurs :

Art. L. 136-2.-I.-La publication d'une œuvre d'art plastique, graphique ou photographique à partir d'un service de communication au public en ligne emporte la mise en gestion, au profit d'une ou plusieurs sociétés régies par le titre II du livre III de la présente partie et agréées à cet effet par le ministre chargé de la culture, du droit de reproduire et de représenter cette œuvre dans le cadre de services automatisés de référencement d'images. A défaut de désignation par l'auteur ou par son ayant droit à la date de publication de l'œuvre, une des sociétés agréées est réputée gestionnaire de ce droit.
« II.-Les sociétés agréées sont seules habilitées à conclure toute convention avec les exploitants de services automatisés de référencement d'images aux fins d'autoriser la reproduction et la représentation des œuvres d'art plastiques, graphiques ou photographiques dans le cadre de ces services et de percevoir les rémunérations correspondantes fixées selon les modalités prévues à l'article L. 136-4. Les conventions conclues avec ces exploitants prévoient les modalités selon lesquelles ils s'acquittent de leurs obligations de fournir aux sociétés agréées le relevé des exploitations des œuvres et toutes informations nécessaires à la répartition des sommes perçues aux auteurs ou à leurs ayants droit.
Il s'agit d'une véritable "mainmise légale" (Marc Rees), de nature à générer ce qu'il convient d'appeler purement et simplement une "pompe à fric" au profit des sociétés désignées pour la perception et la répartition des droits, étant donné qu'une très grande partie des sommes collectées resteront, du fait de l'impossibilité de l'identification de leurs auteurs, tout bonnement irrépartissables.

Mais au vu du récent arrêt de la Cour de Justice de l'Union, Européenne, il n'y a aucun doute possible sur l'incompatibilité de la "taxe Google Images" avec le droit communautaire.