Le libre accède à la politique

Pour une fois, on va parler un peu de la genèse de ce dossier. J’ai eu cette idée de dossier après la fermeture de MegaUpload et de la série d’attaques de déni de service revendiquée par Anonymous. Elle-même s’inscrivait dans un combat sur les lois de protections du droit d’auteur au États-Unis et de la ratification d’un accord international pour lutter contre la contrefaçon du nom d’ACTA. J’avais également en tête d’autres groupes proposant des actions politiques en lien avec ce qu’on pourrait appeler la “culture internet” comme La Quadrature du Net en France ou les Partis Pirates de par le monde.

Me voilà partie à la recherche d’informations scientifiques sur ces mouvements. Je connaissais déjà ce qu’en disaient les journalistes et autres experts mais pas les universitaires. Il faut dire que le noyau de ces groupes est une communauté particulière différente de l’internaute lambda. Du coup, j’ai eu du mal à trouver des sources scientifiques mais j’en avais quelques unes. La plupart expliquait les modes d’organisation de ces mouvements, comment ils se structuraient (ou pas), la structure de leur argumentaires. Souvent, c’étaient des observations assez ponctuelles. Bref, il me manquait un lien entre tout ça, un fil conducteur, le petit truc d’un bon dossier Podcast Science. Au moment où je désespérais de le trouver dans la littérature scientifique, une thèse a été publiée et là tout est devenu simple. Il s’agit de la thèse de Sébastien Broca, disponible librement sur TEL, l’archive ouverte des thèses françaises. Je reviendrai plus tard sur la notion d’archive ouverte. Cette thèse de sociologie s’intéresse à la construction de projets de transformation sociale en lien avec le mouvement du logiciel libre. En effet ces mouvements libertaires (basés sur la notion de liberté de l’individu) proposent un monde en se reposant sur leurs deux plus grands succès: Internet et le logiciel libre. Nous verrons comment doucement on est passé d’une culture partagée par un petit groupe d’universitaires à des réalisations marquées par leurs idéaux et de ces réalisation à une action politique qui modifiera le monde de la recherche.

La culture hacker

Avant d’aller plus loin, il faut revenir aux créateurs d’Internet et du mouvement du logiciel libre. Il s’agit d’universitaires imprégnés de l’idéologie libertaire présente sur les campus américain dans les années 60 et 70 (mouvement des droits civiques, hippie…) Ils se sont auto-nommés hackers (ou bidouilleur en français). Le choix du terme de hacker n’est pas anodin puisqu’il signifie celui qui fait un hack en anglais. Le terme de hack en informatique signifie une solution rapide et bricolée pour contourner un problème. Il ne faut pas le confondre avec le cracker qui est celui qui trouve une faiblesse dans un logiciel ou dans un système. Il peut ou non exploiter cette faiblesse, l’indiquer aux créateurs ou la rendre publique.

Ces valeurs libertaires sont mises en forme à travers différents textes des années 80 proposant un cadre aux programmeurs et surtout aux hackers. L’« éthique hacker » a été codifiée par Steven Levy (journaliste spécialisé dans l’histoire du mouvement hacker) selon les principes suivants :

  • Toute information est par nature libre;
  • Ne pas se fier à l’autorité, promouvoir la décentralisation;
  • Les hackers se jugent par leurs prouesses, non par d’autres hiérarchies sociales;
  • Art et beauté peuvent être créés avec un ordinateur;
  • Les ordinateurs peuvent changer et améliorer la vie.

La question qu’on peut se poser est de savoir si ces hackers sont de droite ou de gauche. A vrai dire, il existe des hackers de toutes les tendances politiques entre l’extrême gauche à l’extrême droite. Pour bien comprendre, il faut changer la façon de représenter les positions politiques. Classiquement on les représente sur un axe gauche/droite, mais il est possible de classer les opinions politiques selon d’autres axes tels que l’écologie, le rôle de la religion, le commerce extérieur etc… Un politicien américain, Nolan, a ainsi proposé un graphique a deux axes : l’horizontal sur la liberté économique et le vertical sur la liberté individuelle. Ce graphique a été modifié pour être représenté sous la forme d’un cadran ou d’une boussole :

Ainsi les hackers se retrouvent vers le pôle libertaire mais répartis le long de l’axe gauche/droite. On remarquera qu’avec ce genre de représentation, la plupart de nos hommes politiques sont plutôt du côté “autoritaire” de l’axe libertaire/autoritaire. Cette non-appartenance à un parti en particulier a poussé à la création en 2006 d’un Parti Pirate en Suède puis dans d’autres pays (33) qui se regroupent au sein du Parti Pirate International. C’est en Allemagne que le Parti Pirate fait actuellement ses meilleurs scores. Peut-on y voir la politisation ancienne des hackers allemands en particulier via le Chaos Computer Club à Berlin, un espace de partage de ressources informatiques ou hackspace qui à toujours eu une réflexion sociétal?

Les valeurs de la culture hacker vont être importantes dans la construction d’Internet et le fondement des logiciels libres. Ainsi le sociologue des usages numériques Antonio A. Casilli nous explique :

“La spécificité de la culture numérique réside dans l’inséparabilité de ses valeurs politiques et des usages technologiques. L’architecture même du Web actuel représente la mise en place de la décentralisation  et de l’autonomie prônées pas ses pionniers. Internet est un réseau de réseaux, une multitude d’ordinateurs qui ne sont reliés à aucun grand serveur central. Malgré les restrictions du trafic des données, les filtres aux contenus et les dispositifs de surveillance imposés constamment par les pouvoirs étatiques, l’effort pour normaliser ce bourdonnement d’informations et d’opinions antagoniques s’avère vain.”

La naissance d’Internet et des logiciels libres et leurs principes de base

Il nous faut bien comprendre ce que sont le logiciel libre, l’Internet et leur morale libertaire. Pour cela rien ne vaut de revenir leurs origines universitaires, maintenant que nous avons vu la culture qui imprègne leurs créateurs.

Si le mythe veut qu’Internet soit né d’une demande de l’armée américaine d’avoir un réseau qui résiste une attaque nucléaire, la réalité est quelque peu différente. Tout commence en 1958 quand la société Bell invente le premier modem qui permet de transférer des données binaires sur une ligne téléphonique. A cette époque, il existe des réseaux d’ordinateurs mais ils sont limités et reposent sur un ordinateur central. En 1961, l’informaticien Leonard Kleinrock du Massachusetts Institute of Technology (MIT) publie une première théorie sur l’utilisation de la commutation de paquets pour transférer des données. Il s’agit de découper les données en plusieurs paquets pour accélérer le transfert. Bien sûr, chaque paquet a un en-tête qui indique le contenu et sa destination. En 1962, J.C.R. Licklider défend avec succès l’idée d’un réseau global d’ordinateurs au sein de l’ARPA, un organisme de recherche de l’armée américaine.  Si l’idée d’un réseau informatique résistant à une attaque nucléaire a bien été avancée dans les années 60, l’armée n’a pas retenu cette idée. Elle développe néanmoins un réseau, ARPANET, pour rendre service aux militaires et aux scientifiques. C’est le 29 octobre 1969 qu’a lieu la première connexion via ARPANET entre l’Université de Californie à Los Angeles et le Stanford Research Institut. La connexion fut brève et racontée ainsi par Kleinrock :

“Nous avons appelé au téléphone les gars de SRI. Nous avons tapé L et nous avons demandé au téléphone:

_ Voyez-vous le L?

_ Oui, nous voyons le L.

Nous avons tapé le O et nous avons demandé “Voyez-vous le O?”

_ Oui, nous voyons le O.

Alors nous avons tapé le G et le système a crashé.”

Tandis que 23 ordinateurs sont reliés sur ARPANET en 1972, le premier mail est envoyé. Pendant dix ans, ce sera l’application majeure du réseau. Vers 1975, le protocole IP (Internet Protocol) est développé. C’est l’adresse nécessaire à l’envoi des paquets. En 1979, apparaît le réseau USENET, un réseau de forum toujours actif.  Plusieurs autres réseaux se développent et s’interconnectent en 1981 grâce au protocole IP. C’est la naissance d’Internet. En 1988, un système de messagerie instantané est mis en place : l’IRC (Internet Relay Chat) qui est toujours très utilisé par les développeurs et les Anonymous en particulier. Début 1990, Tim Berners-Lee travaillant au CERN propose l’idée d’une architecture permettant de lier et d’accéder à des informations via une interface de navigation et utilisant la technique de l’HyperText (langage HTML et protocole HTTP). Il s’agit du World Wide Web  (WWW) qui se mettra en place l’année suivante.

Dans le même temps, les premiers micro-ordinateurs arrivent sur le marché et avec cette arrivée, le monde du logiciel se trouve chamboulé. Jusque-là, les fabricants vendaient l’ordinateur et “offraient” le logiciel nécessaire à l’acheteur. L’entreprise qui achetait des ordinateurs, avait des informaticiens qui amélioraient au besoin le logiciel. Mais la micro-informatique démocratisait l’ordinateur et multipliait son usage. Des entreprises se créaient pour vendre des logiciels en fournissant une version dite “compilée”. Si on peut assimiler un logiciel à un plat, la version compilée est le plat tout prêt tandis que le code source est la recette. Pour protéger leurs logiciels, ces entreprises affirmèrent leurs droits d’auteurs sur ceux-ci et émirent des licences d’utilisation restreignant les droits des usagers à partager et à modifier les logiciels.

Cela trancha avec les habitudes des programmeurs puisque au début de l’informatique, cette communauté était restreinte et travaillait en collaboration. Bon nombre d’étudiants en informatique des années 1960 et 1970 sont des hackers (ou bidouilleurs). Ils prônent l’autonomie individuelle, le partage et la coopération. C’était en particulier le cas au laboratoire d’intelligence artificielle du MIT où travaillait Richard Stallman. Voyant ses possibilités de travailler à partir de logiciels déjà existants se réduire à zéro, il décida de partager ses propres programmes avec la communauté d’informaticiens. Il voulait créer un système d’exploitation et créer le projet GNU (GNU’s Not UNIX) en 1984. Pour protéger le partage de son travail, il créa une licence (la GNU/GPL – GNU General Public License -) pour garantir 4 libertés fondamentales :

0. la liberté d’exécuter le programme, pour tous les usages;
1. la liberté d’étudier le fonctionnement du programme et de l’adapter à ses besoins;
2. la liberté de redistribuer des copies du programme (ce qui implique la possibilité aussi bien de donner que de vendre des copies);
3. la liberté d’améliorer le programme et de distribuer ces améliorations au public, pour en faire profiter toute la communauté.

Pour pouvoir donner cette liberté à l’utilisateur, il est nécessaire de publier le code-source du logiciel (ou la recette). Le logiciel est alors appelé logiciel libre ou open source. Il se créait alors une petite communauté pour aider Stallman sur son projet. Ce projet resta inutilisable car il manquait un cœur qui fut codé par un jeune finlandais Linus Torvalds qui nomma son logiciel Linux en 1991. Si Stallman a créé les logiciels libres par idéologie, Linus Torvalds explique son choix de ces licences pour une raison pratique. La coopération technique est très efficace pour améliorer les logiciels. C’est cette position qui permit aux logiciels libres d’exploser dans le monde informatique. On peut affirmer que les licences libres sont des hacks du droit d’auteur.

Même si les licences permettent en général de modifier et même de revendre les logiciels libres, ou des applications basées sur des logiciels libres, le modèle restera gratuit car il se trouvera toujours quelqu’un pour les redistribuer gratuitement. Au lieu de gagner de l’argent sur les licences, les éditeurs de libre font leur chiffre d’affaire sur le développement, les formations, le support et des versions premium (par exemple le business modèle de MySQL). D’ailleurs, il ne faut pas confondre gratuit et libre. Les navigateurs Internet Explorer et Safari par exemple sont gratuits mais ils ne sont pas libres. Idem pour la technologie Flash. Tout le monde peut s’en servir gratuitement mais la technologie reste “propriétaire” et son développement n’est pas collaboratif.

Au niveau d’Internet, ces valeurs libertaires se traduisent essentiellement par le fait que l’information doit être libre, gratuite, de n’être pas soumise à la propriété privée et une certaine méfiance vis-à-vis de pouvoir. C’est dans cette optique qu’est né Wikipédia dont le but est de créer une encyclopédie libre et coopérative au début des années 2000. De même, WikiLeaks se veut être un espace qui diffuse l’information pour faire un contre-pouvoir en publiant et relayant des fuites.

On voit bien à travers cette histoire que les idéaux libertaires présents dans les campus américain des années 60 et 70, en particulier dans certains laboratoires d’informatique ont influencé la naissance d’Internet et des logiciels libres. Le succès de chacun des deux étant lié à l’autre : sans logiciels libres pas de réseau des réseaux (chacun ayant son propre langage) et sans Internet, la possibilité de développer des logiciels de façon communautaire et de les proposer aux plus grand nombre n’est pas faisable.

Du code à la culture libre

Depuis le début des années 2000, pour défendre la possibilité de faire des logiciels libres, les programmeurs se mobilisèrent contre différentes régulations renforçant la protection de la propriété intellectuelle. Les développeurs adoptèrent un discours plus large que leurs intérêts propres : on ne se bat pas pour défendre le logiciel libre mais la liberté d’expression et donc la démocratie (avec une liberté d’expression totale). Dans ces combats, les programmeurs utilisèrent les mêmes méthodes que celles qu’ils utilisaient dans les projets de logiciels libres : discussion démocratique, coopération dans la collecte d’information et diffusion des idées. Ces combats ont aussi donnés naissance à différentes formes d’engagement politique que soit sous forme d’un parti politique (le Parti Pirate), d’associations militantes telle que La Quadrature du Net ou des groupes d’actions plus directes tel qu’Anonymous. Enfin ces combats permirent la rencontre entre les défenseurs des logiciels libres et d’autres militants libertaires.

En 1998, aux États-Unis, le congrès vote le Sonny Bono Copyright Term Extension Act suite au lobbying de Disney qui, sans cette loi, perdait le copyright du personnage de Mickey Mouse. En effet, cette loi étendait le copyright à 70 ans après la mort de l’auteur, à 95 ans après publication ou 120 ans après création pour les copyrights détenus par des entreprises. Devant ce renforcement de la propriété intellectuelle,

[…] plusieurs personnes travaillant sur des projets similaires à contre-courant des idées reçues avec différents degrés d’interconnexion, semblèrent converger vers un mouvement intellectuel commun, centré sur l’importance des biens communs pour la production de l’information et la créativité de manière générale, et pour l’environnement numérique en réseau en particulier»

Explique Yochai Benkler, un professeur de droit s’intéressant à cette question.

Pour résister à cette privatisation, le juriste Lawrence Lessig prit pour modèle le monde du logiciel libre et il créa avec l’aide d’autres juristes les licences Creative Commons pour laisser libre des pans entiers de la culture contemporaine. Il est intéressant que si certaines de ces licences sont libre dans le même sens que celui défini par Stallman, d’autres sont des licences de libre distribution.

Les militants libertaires ont vu dans le logiciel libre une alternative concrète au capitalisme industriel. Ainsi il est possible de créer en coopération ou/et en autogestion des biens ou des services de façon indépendante du marché ou de l’État. Pour le libertaire, cela permet à l’individu de faire ce qui lui plait même s’il ne veut ou ne peut pas le monétiser. Par exemple, Lessig, le créateur des Creatives Commons et Benkler propose l’idée de “biens communs” qui serviraient la communauté et serait en autogestion. Cela soulève deux problèmes : la mise en place de l’autogestion sur de grandes communautés et la réutilisation d’un travail gratuit pour faire de l’argent.

Application de l’idéal du logiciel dans le monde de la recherche scientifique

Si ce mouvement provient du monde universitaire américain, il a un effet boomerang et vient modifier le monde de la recherche et en particulier sur la diffusion de l’information scientifique.

Un petit rappel (ou non) du mode de traditionnel de diffusion du travail scientifique est nécessaire avant de pousser plus loin l’effet de la culture libre sur les Sciences. Quand un scientifique obtient un résultat, il écrit un article qu’il soumet à une revue scientifique. Cette revue fait appel à d’autres scientifiques spécialistes du domaine ou “reviewers” pour vérifier si les résultats semblent corrects et corriger quelques erreurs. Si l’article est de bonne qualité, l’auteur fait les quelques corrections nécessaires indiquées par les reviewer. Ces échanges sont censés être anonymes: les reviewers ne connaissent pas le nom du ou des auteurs qui à leur tour ne connaissent pas leur reviewers. Une fois accepté, l’article peut être publié dans un numéro du journal. Selon les disciplines et les journaux, entre la découverte du résultat et la publication, il peut se passer plusieurs années. Tout ce travail est fourni gratuitement par les universitaires. Seule la publication faite par les éditeurs est monétisée. Ainsi l’abonnement et l’achat d’article à l’unité est payant.

Dès l’apparition du web (1991), des physiciens créèrent une archive (arXiv) de pré-print (version de l’article soumis au journal mais sans les correctifs de reviewers). Cela permettait d’envoyer par e-mail les pré-prints. Cette première archive ouverte mit au jour la possibilité de mettre un article en ligne permettant à tous d’y accéder et de le lire. Cette possibilité est arrivée au même moment où le système traditionnel d’impression papier de revues scientifique était en crise. Si le nombre d’articles augmentait, les abonnements augmentaient plus vite que l’inflation alors que les budgets des bibliothèques universitaires stagnaient. Cela entraîna une diminution de l’accès à l’information alors qu’elle pouvait être facilement accessible. Les bibliothécaires ont alors alerté les chercheurs et l’administration sur cette crise puis ont fait une promotion active de l’Open Access.

La première déclaration de l’accès libre remonte à 2001 et l’Open Access Initiative de Budapest.  Il existe deux façons de rendre un article libre d’accès:  soit l’auteur le dépose dans une archive ouverte ou une page personnelle. L’article y est accessible gratuitement pour tous. Il s’agit de l’auto-archivage ou la voie verte. La plus grande archive française est HAL du CNRS mais les autres grands organismes de recherche en ont souvent une. Sinon, l’auteur publie son article directement dans une revue dite Open Access, c’est-à-dire donnant accès librement aux articles immédiatement. Il s’agit de la voie en or. Certains journaux proposent leurs articles gratuitement après une période dite d’embargo où seuls les abonnés ou les acheteurs peuvent avoir accès aux articles. Cette période est le plus souvent comprise entre 6 mois et 1 an mais peut durer plus longtemps. De même, certains éditeurs refusent aux auteurs d’archiver eux-mêmes un article trop récent.

Pourcentage de publications en accès libre par discipline

L’usage de l’Open Access est très variable selon les domaines scientifiques ainsi en physique des particules 100% des publications sont en accès libres (par auto-archivage) alors qu’en chimie, il ne s’agit que de 13% des publications sont en accès libre. Ces variations dépendent de l’habitude et la mentalité propre à chaque discipline. La physique des particules a très tôt utilisé arXiv pour archiver ces publications et elle repose sur de forte collaboration. En chimie, au contraire, une forte compétitivité industrielle peut limiter une diffusion libre de l’information.

Les principaux arguments pour l’accès libre aux articles scientifiques sont l’accès de tous les chercheurs à l’information scientifique en particulier les étudiants et les chercheurs dans les pays en voies de développement dont les institutions ne peuvent pas payer d’abonnement. Mais ce libre accès permet également à la connaissance de quitter la sphère de la recherche pour être accessible à des professionnels tels que des médecins, aux journalistes -en particulier scientifiques-, aux hommes politiques ou aux simples amateurs. Aux USA, cette accessibilité est mise en avant pour la recherche publique dont les résultats doivent être accessibles à celui qui paye – alias le contribuable.

Néanmoins, le libre accès n’est pas sans coût. Pour les archives ouvertes, ce sont de grandes institutions qui payent pour l’hébergement et le support technique nécessaire à leur fonctionnement. Mais pour les journaux en libre accès se posent la question du financement du travail d’éditions. Ils font supporter ce coût non pas aux lecteurs mais à l’auteur. Ce mode de monétisation est critiqué puisque les journaux pourraient être tentés d’accepter tous les articles quelque soit leurs qualités scientifiques. De même ce type de financement oblige les institutions à prévoir un budget pour la publication en plus de ceux pour la recherche en elle-même.

Si logiciel libre propose des alternative intéressante en dehors du libre marché, il soulève d’autres problèmes comme le support des coûts non réductible, l’application des licences libres

 

Derniers épisodes