LA CULTURE HACKER L’EMPORTERA-T-ELLE SUR LES MONOPOLES DU SAVOIR?

Omar ODERMATT, fondateur de la plateforme SavoirLibre

Introduction 

La question centrale qui a guidé notre réflexion lors du séminaire intitulé «Repenser l’exil –1» est la suivante: «sommes-nous tous des exilés?». Il m’a été demandé de réfléchir sur ce thème à propos de la question spécifique du rapport entre exil et savoir ; étant donné qu’actuellement j’expérimente des nouvelles possibilités de diffusion et de partage des savoirs scientifiques dans le cadre d’un nouveau projet Internet du nom de «SavoirLibre» –2. L’écriture de ce texte constitue donc pour moi en quelque sorte une étape de travail, car il m’offre l’occasion de réaliser un retour réflexif sur ce projet et sur mes pratiques.

Afin de traiter la question du lien entre savoir et exil, j’ai jugé intéressant de me pencher sur la question des mutations du savoir et de l’information qu’implique ce la «révolution internet –3», qui débuta il y a environ 20 ans, en m’intéressant en particulier à retracer les grandes lignes de l’histoire des mouvements d’expropriation et de réappropriation des savoirs qui marquent cette période contemporaine. Les questions suivantes orienteront ma réflexion : en quoi cette innovation technologique majeure, que représente la technologie Internet, reconfigure-t-elle le champ du savoir? L’avènement de cette technologie a-t-elle permis ou a-t-elle accéléré l’émergence de nouveaux lieux de production de savoirs, de nouvelles pratiques, de nouveaux acteurs et de nouveaux conflits? En quoi les enjeux soulevés par les questions du savoir peuvent-ils être considérés comme une question universelle : c’est-à-dire nous concernant toutes et tous?

Afin d’initier cette réflexion, je commencerai par tenter d’articuler les concepts de savoir et d’exil.

Articuler les concepts de savoir et d’exil: petit détour théorique 

Peut-on entrevoir un quelconque rapport entre les concepts de savoir et d’exil? Ceci semble à priori difficile à envisager, car l’exil est en général appréhendé comme une expérience individuelle ayant trait à un déplacement physique volontaire ou forcé. Ce terme est d’ailleurs souvent associé à celui de «bannissement». Exil provient du latin Exil essilio et signifie littéralement: «sauter dehors». Or, si l’on aborde cette notion complexe d’un point de vue holistique et qu’on essaie de l’envisager non pas comme une expérience physique et individuelle, mais comme une expérience possiblement universelle, mentale et partagée, il est alors envisageable d’établir des liens entre ces deux notions.

Le concept de savoir comporte cette dimension universellement partagée. Deux approches retiendront ici notre attention. Le savoir peut d’une part être associé à un bien commun universel partagé, c’est-à-dire un bien public, car il est le fruit de la coopération des êtres humains. Nous entendrons ici par le mot «public»: «le monde lui-même en ce qu’il nous est commun à tous»–4. Ce monde comprend certes un espace au sein duquel évolue les être humains – un monde physique fait d’objets, d’un environnement naturel – mais il comprend aussi les relations qui existent entre les habitants de ce monde ». D’autre part, le savoir peut être envisagé comme une manière pour le sujet d’être en relation avec son monde –5. Le savoir nous permettrait donc, en quelque sorte, de nous situer dans le monde, de participer à sa construction et de nous relier les uns aux autres en créant un sens commun. Or, si ce monde commun dépérit, si ce lien au monde que permet le savoir est détruit ou disparaît quel danger court-on? On peut émettre ici l’hypothèse que le danger de «l’acosmie» nous guette, ce qui signifie, selon H. Arendt, de se retrouver «hors du monde» ou «être aliéné du monde»–6 ; c’est-à-dire donc: être exilé du monde.

Le free software mouvement et les logiciels libres 

Le savoir – envisagé dans une acception générale comme relation du sujet avec un monde commun – évoque la technologie Internet qui a pour caractéristique de relier les être humains au sein d’un monde virtuel lequel offre la possibilité d’un partage inédit et sans limite des informations et des savoirs.

Il est intéressant à présent de revenir sur les origines de la culture dite «libre», qui s’est initialement développée à partir des progrès technologiques qu’a connu le monde de l’informatique durant les années 50 à 80 aux Etats-Unis, et qui se constitue justement autour de cette possibilité inédite de partage du savoir.

La culture libre a pour point de départ le mouvement du logiciel libre (le free software movement) qui a été initié par Richard Stallman en 1983 (que nous développerons par la suite). Elle peut être définie comme «un mouvement social qui promeut la liberté de distribuer et de modifier des oeuvres de l’esprit sous formes d’oeuvres libres par l’utilisation d’Internet ou d’autres médias»–7. Ce courant de pensée a donné naissance à une communauté dite «du libre» qui se fonde sur un ensemble de valeurs, dont les principales sont les suivantes: la liberté d’expression, le contrôle donné à l’utilisateur des logiciels, le respect de la vie privée, le partage du savoir, la dynamique citoyenne et participative dans l’économie du savoir, un modèle économique fondé sur la coopération et basé sur l’intelligence collective. D’un point de vue politique, la communauté du libre combat les lois pouvant porter atteinte à la diffusion d’oeuvres libres comme les brevets de logiciels ainsi que celles visant à contrôler Internet ou menaçant sa neutralité comme les lois françaises Hadopi 1 et 2, Lopsi 2. Ou plus récemment les projets de lois antipiratage américains comme SOPA (Stop online piracy act) et PIPA (Protecting IP Act), dont l’adoption fut bloquée à cause d’une moblisation sans précédent de plateformes internet et de hackers contre la fermeture du site internet Megaupload. A cette fin, la communauté du libre a développé les licences libres, dont la particularité est de détourner les monopoles accordés par les droits d’auteurs en autorisant les usages que ces droits proscrivent.

Pour comprendre comment se sont développées ces nouvelles pratiques de la culture libre, nous devons nous plonger dans le contexte des Etats-Unis des années 1950. Au milieu du 20ème siècle, entre les années 50 et 70, l’informatique était une science expérimentale qui se développait uniquement dans le domaine de la recherche. Les usagers qui développaient des logiciels à cette époque avait pour ambition de faire progresser et de partager leurs connaissances en laissant accessibles les codes sources des logiciels créés, afin que d’autres usagers puissent les améliorer à leur tours en les utilisant, en les étudiant et en les modifiant. Des communautés de développeurs comme SHARE –8 s’étaient même formées afin de faciliter les échanges de logiciels. La structure du marché dans lequel étaient utilisés les logiciels était très restreintes, car seules des grandes compagnies pouvaient acquérir des ordinateurs. Ces pratiques d’échange et de coopération ne posait alors aucun problème –9.

Durant les années 70 et 80, le prix des logiciels augmente de manière significative, l’industrie et le marché du logiciel se développent et commencent à prendre des mesures pour empêcher les usagers de copier et modifier leurs logiciels. Finalement, sous la pression des lobbies des logiciels, dont fait partie un certain Bill Gates, le «Copyright Act» de 1976 est adopté par le Congrès américain qui vise à réglementer de manière plus large l’émergence des nouveaux médiums de communication comme la télévision ou les enregistrements sur bandes son –10.

En parallèle à ce développement de l’industrie du logiciel durant les années 70 et 80, des étudiants passionnés d’informatique du Massascuset Institut of Technology (MIT) développent une culture alternative dite «hacker» et établissent en quelque sorte leur quartier général au sein du laboratoire d’intelligence artificielle du MIT. Cette culture hacker s’étend à d’autres universités américaines comme l’Université de Californie ou Berkley via le réseau Arpanet – qui est l’ancêtre l’ancêtre d’Internet – et qui était alors un réseau informatique délocalisé, mis en place en 1969, –11 qui reliait plusieurs universités américaines grâce à des «noeuds».

Aujourd’hui la dénomination de hacker est connotée péjorativement, car le hacker est associé dans l’imaginaire collectif à un criminel, dont l’activité consiste à dérober des données personnelles sur internet pour les revendre ou exploiter des données de cartes bancaires déposées sur Internet. Le hacker est donc communément associé à un pirate informatique. Or, à l’origine, un hacker – ce qui signifie en anglais «bricoleur», «bidouilleur» est un programmateur informatique débrouillard et astucieux qui possède une connaissance technique lui permettant de modifier un mécanisme ou un objet pour l’améliorer et le détourner de sa fonction première –12. Il s’agit d’une personne curieuse qui adore explorer les détails des programmes et leurs capacités, pour avoir une compréhension approfondie de la manière dont fonctionne un système informatique. A distinguer des «crackers» qui se lancent des défis dans le but de détruire des systèmes. Cette passion pour l’étude des systèmes implique un rejet global de toute idée ou comportement tendant à monopoliser le savoir. Plus précisément, «l’éthique hacker», qui se développe au sein de cette communauté, comprend les principales valeurs suivantes: pouvoir créer librement des logiciels et pouvoir les partager; toute information doit pouvoir être librement partagée; l’autorité doit être rejetée; la liberté de questionner et d’enquêter est promue ce qui implique, en contre-partie, une attitude hostile vis-à-vis du secret; l’habilité, l’intelligence et l’humour sont particulièrement valorisés –13. C’est ainsi que les hackers développent une culture subversive au sein de l’univers informatique.

Richard Mathiew Stallman est un membre très actif de cette communauté des hackers du laboratoire d’Intelligence Artificielle du MIT. Remarqué pour ses prouesses en mathématique à l’Université de Harvard, il devient ensuite programmeur au MIT en 1971 –14 Constatant que le fait d’utiliser des codes sources –15 protégés par copyright devenait la norme et outré par les restrictions d’utilisation imposées par les lobbies de l’industrie du logiciel à travers le «Copyright Act» de 1976, Stallman rend public en septembre 1983 le développment du projet « GNU » qui est le premier système d’exploitation –16 libre. Le projet GNU comprend la mise en place d’outils informatiques libres et sera combiné avec le premier noyaux –17 libre Linux créé par Linus Trovales en 1991 qui parachevera le système d’exploitation GNU/Linux. Ces créations techniques seront accompagnées du développement de la Free Softwear Fondation (FSF) qui constituera l’infrastructure légale pour la communauté du logiciel libre. Considérant par la suite que les pratiques du MIT ne correspondent plus à sa vision du développement informatique, il quitte son emploi en 1984 pour se consacrer pleinement au projet GNU. Il publie une année plus tard le manifeste GNU–18 dans lequel il explicite ses motivations et appelle la communauté informatique mondiale à soutenir sa démarche. Il formule ensuite la «Free Software Definition» qui établit une série de principes clés qui guideront l’action de la FSF. La Free Software Definition précise en premier lieu que le terme de «libre» ne se réfère pas à l’idée de gratuité, mais s’apparente bien à l’idée de liberté au sens par exemple de liberté d’expression –19. La Free Software Definition dénombre quatre libertés fondamentales que sont: la liberté d’utiliser l’oeuvre, la liberté d’étudier l’oeuvre, la liberté de copier et de partager l’oeuvre avec d’autres, la liberté de modifier l’oeuvre et de distribuer des oeuvres dérivées –20. Pour s’assurer que les logiciels développés au sein du projet GNU restent libres, Stallman invente la licence libre qui appliquent le principe du «copyleft» –21. La première licence développée portera le nom de «General Public Licence» (Licence GPL).

J’estime que la règle d’or est que, si j’aime un programme, je dois le partager avec d’autres qui aiment ce programme. Les éditeurs de logiciels cherchent à diviser et à conquérir les utilisateurs, en interdisant à chacun de partager avec les autres utilisateurs. Je refuse de rompre la solidarité avec les autres utilisateurs de cette manière. Je ne peux pas, en mon âme et conscience, signer un accord de non-divulgation ou une licence de logiciels. Pendant des années, j’ai œuvré au sein du Laboratoire d’Intelligence Artificielle du MIT pour résister à ces tendances, mais finalement, ils sont allés trop loin: je ne pouvais pas rester dans une institution où de telles choses avaient lieu contre ma volonté.

R. Stallman, extrait du Magnifeste GNU

Penchons-nous à présent davantage sur les principes qui régissent le copyleft et les licences libres.

Une licence libre peut être définie comme «une licence s’appliquant à une œuvre de l’esprit par laquelle l’auteur concède tout ou partie des droits que lui confère le droit d’auteur, en laissant au minimum les possibilités de modification, de rediffusion et de réutilisation de l’œuvre dans des œuvres dérivées. Ces libertés peuvent être soumises à des conditions, notamment l’application systématique de la même licence aux copies de l’œuvre et aux œuvres dérivées, principe nommé copyleft» –22.

Relevons maintenant les deux aspects fondamentaux qu’implique l’utilisation de licences libres et le principe du copyleft. Au niveau des droits et des libertés: la cessation des droits propriétaires partielle ou totale de l’auteur confère en retour des libertés aux usagers. Elle tend à rendre égaux en droits tous les usagers devant l’oeuvre. Néanmoins, elle ne leur confère pas le droit d’ajouter des restrictions à l’oeuvre par la suite. Au niveau de la diffusion de l’oeuvre, la licence libre ouvre les possibilités d’étudier, de diffuser, de réutiliser et de modifier l’oeuvre. Cette caractéristique assure alors une diffusion illimitée du savoir qu’elle encadre, mais aussi une diffusion large du principe du libre, car à chaque nouvelle diffusion ou rediffusion c’est toujours la même licence libre qui s’applique à l’oeuvre. La licence libre comprend donc dans son fonctionnement-même une logique que l’on peut qualifier de «virale» qui lui permet de répandre et de généraliser son utilisation.

Ainsi, en premier lieu, l’application du principe du copyleft offre donc une alternative au copyright en déplaçant les oeuvres du domaine privé (l’oeuvre en tant que propriété individuelle) au domaine public. En second lieu, le copyleft procède littéralement à un détournement du copyright en utilisant les droits qu’il confère aux auteurs pour maintenir les oeuvres dans la sphere du libre ou publique. Ce principe du détournement se retrouve d’ailleurs dans l’appellation même du procédé qui est double un jeu de mots: «D’une part, il oppose left (gauche) au right de copyright (ici droit, dans le sens légal du terme, mais qui signifie aussi droite, la direction, voire la rectitude morale). D’autre part, il oppose au «droit de copie» l’expression copy left (copie laissée ou copie autorisée)»–23.

Généralisation de la culture libre: les Creative Commons

En 1998, le Congrès américain adopte la «Sonny Bono Copyright Term Extension Act»–24. Cette nouvelle loi – dont l’adoption a été largement incitée par des lobby comme Disney – rallonge à nouveau la protection des droits d’auteurs de 20 ans, ce qui totalise une entière protection de l’œuvre de l’auteur de 70 ans après sa mort.

Lawrence Lessig –25 est à la fois un philosophe, un juriste et un militant. Il s’est formé au sein d’universités comme Yeal et Cambridge et devient ensuite Professeur de droit à l’Université de Chicago puis à Harvard. Ce dernier s’insurge contre cette nouvelle extension des droits d’auteurs en affirmant d’une part, que le copyright est un obstacle à la création culturelle et à l’innovation technologique et d’autre part, que les intérêts privés l’emportent sur le bien public en déterminant les lois. Il entamme alors une longue série de conférences dans les collèges et les campus américains, ce qui initie un mouvement étudiant qui sera fondé au Swearthmore College par deux étudiants: «the Students for Free Culture –26». En 1999, Lawrence Lessig saisit la Court Suprême des Etats-Unis pour tenter d’abolir cette nouvelle loi, mais cette démarche se solde par un échec. En 2001, Lessig fonde alors une organisation à but non lucratif: Creative Commons,–27 dont le but est de promouvoir le partage des oeuvres créatives, l’innovation et la diffusion des idées pour stimuler une dynamique culturelle et scientifique. Il initie, en 2002, un système alternatif de licences qui s’inspirent des licence GPL: Les licences Creative Commons –28 – reconnaissables par l’emploi du sigle «CC» – qui autorisent la distribution de contenus protégés par des droits d’auteurs selon différentes modalités. En 2009, l’organisation Creative Commons évalue à environ 350 millions –29 le nombre de travaux publiés sous l’égide des licences CC. QuestionCopyright.org est une autre organisation importante à but non lucratif, spécialisée dans les licences dédiées aux productions artistiques, qui poursuit l’objectif de mettre en évidence «le mal économique, artistique et social causé par les monopoles de distribution» et de démontrer «comment une distribution libre est meilleure pour les artistes et le public»–30.

Lawrence Lessig pose ainsi les bases de la culture libre, en s’inspirant des idées élaborées par le mouvement Free Softwear dans le domaine de l’informatique, pour les étendre à toutes les productions culturelles comme l’art, l’éduction et la science.

Diffusion du savoir et émergence du mouvement des sciences ouvertes

Les développements de la technologie Internet et de la culture libre ont également eu un impact sur le domaine des connaissances scientifiques, ce qui se concrétisa principalement par l’émergence de l’Open Access mouvement (le mouvement du libre accès) au sein de l’édition scientifique.

Le libre accès –31 consiste à mettre à disposition en ligne de contenus numériques, qui sont soit libres (sous licence Creative Commons), soit sous un des régimes de propriété intellectuelle. Il existe deux types de libre accès. D’une part, les revues rendent leurs articles directement et immédiatement accessibles au public. Ces publications s’appellent des Open access journals (des revues en accès ouvert) comme la Public Library of Science –32. D’autre part, l’on trouve le libre accès par auto-archivage qui propose aux auteurs de déposer des copies de leurs articles sur une page personnelle ou une archive ouverte comme le permet le site Fedora Commons Repository Software –33.

Les années 1990 sont marquées par la crise de l’édition scientifique due à l’augmentation du nombre de revues scientifiques et parallèlement de leurs coûts, alors que les budgets des bibliothèques universitaires stagnent. Il résulte de cette tendance que l’accessibilité des connaissances était restreinte. Or, en même temps, l’émergence de la technologie Internet ouvre la voie à une diffusion des connaissances sans limite. C’est ainsi que l’Association of research Libraries développe la Scholarly Publishing and Academic Resource Coalition (SPARC) en 1997, qui constitue une alliance entre les bibliothèques universitaires et d’autres organisations, pour développer des alternatives permettant de surmonter cette crise de l’édition scientifique –34. S’en suit alors plusieurs rencontres dont le but est de développer le libre accès aux connaissances scientifiques sur internet qui donnèrent lieu à des déclarations. Les 1er et 2 décembre 2001, l’Open Society Institute organise la Budapest Open Access Initiative –35, qui constitue le premier rassemblement fondateur du mouvement du libre accès –36. 16 personnalités du monde de la recherche et de l’édition scientifique se rencontrent et rédigèrent une déclaration qui a été signée par 6156 organisations et personnalités dont des chercheurs, des universités, des laboratoires, des bibliothèques, des fondations, des journaux et des éditeurs. La déclaration stipule notamment que «(Internet) rend possible le bienfait public qu’est la distribution électronique mondiale de la littérature scientifique et l’accès complètement libre et sans restriction à cette littérature par tous les scientifiques, les lettrés, les professeurs, les étudiants et à tout autres esprits curieux –37». Cette déclaration invite «les gouvernements, universités, bibliothèques, directeurs de revues, éditeurs, fondations, sociétés savantes, associations professionnelles et savants qui partagent notre vision à nous rejoindre dans notre action pour lever les obstacles vers l’accès libre, et pour construire un futur dans lequel recherche et éducation soient beaucoup plus libres de s’épanouir dans toutes les parties du monde –38». Afin d’atteindre son objectif, l’Open Access Initiative établit le constat que «les savants ont besoin des moyens pour lancer une nouvelle génération de revues alternatives engagées dans le libre accès et pour aider les revues existantes qui choisissent d’opérer la transition vers l’accès libre. Puisque les articles de revues devraient être diffusés aussi largement que possible, ces nouveaux périodiques n’invoqueront plus le droit d’auteur pour restreindre l’accès et l’utilisation du matériel qu’ils publient. Puisque le prix constitue un obstacle à l’accès, ces nouvelles revues ne factureront pas l’abonnement ou l’accès, et se tourneront vers d’autres méthodes pour couvrir leurs frais –39». Une seconde réunion internationale majeure du mouvement Open Access est organisée à la Société Max-Plank à Berlin et aboutit, le 22 octobre 2003, à «la Déclaration de Berlin sur le libre accès à la connaissance en sciences exactes, sciences de la vie, sciences humaines et sociales». Les 357 signataires établissent le constat que «pour la toute première fois, l’Internet nous offre la possibilité de constituer une représentation globale et interactive de la connaissance humaine, y compris son patrimoine culturel, et la garantie d’un accès mondial» or, «nous remplissons par trop imparfaitement notre mission de diffusion de la connaissance si l’information n’est pas mise rapidement et largement à la disposition de la société. De nouvelles possibilités de diffusion de la connaissance, non seulement sous des formes classiques, mais aussi, et de plus en plus, en s’appuyant sur le paradigme du libre accès via l’Internet, doivent être soutenues».

Cette dynamique, qui se manifeste dans le développement d’outils de diffusion du savoir, s’accompagne également d’une dynamique visant à transformer les logiques de production du savoir.

Le développement des outils informatiques durant les années 1990-2000, ainsi que celui du mouvement free software s’accompagne de la création de réseaux scientifiques d’«open scientists» organisés de manière non gouvernementale avec des ONG comme the Openscientists.org qui se construisent autour du projet Wikiversity –40. Par la suite, une branche de l’organisation Creative Commons se spécialise dans la science et la recherche dites «ouvertes». Il s’agit du projet Science Commons –41, qui a été initié en 2005, et dont le but est « d’abaisser les barrières inutiles qui entravent l’innovation et le partage des fruits de la recherche comme certaines politiques, des accords légaux ou encore des limites techniques. Science Commons cherche à développer une technologie pour rendre les données de recherche plus faciles à trouver et à utiliser –42.

La notion de «science ouverte» se rapporte essentiellement à «une démarche de recherche scientifique (dite Open science pour les anglophones) conduite dans un esprit non-concurrentiel (au sens commercial du terme) et de travail collaboratif, utilisant des outils collaboratifs et partagés, et souvent des logiciels libres et open source, toujours en publiant des résultats librement accessibles et utilisables par tous (à certaines conditions, dont la citation des sources, etc.)»–43. La spécificité des sciences ouvertes est que les modes de gouvernance de la recherche sont ouverts tout comme le rendu des résultats. L’idée centrale qui guide la recherche ouverte est de produire une méthodologie et des protocoles ouverts qui seront soumis à la critique et au débat dans le but de les améliorer. Une fois les résultats de la recherche produits, ceux-ci sont mis à disposition du public gratuitement sur Internet. Etant donné que les données primaires de la recherche sont accessibles, celles-ci peuvent être critiquées et interprétées par toute personne disposant des compétences adéquates qui peut ainsi participer à l’effort de collaboration. Dès lors, la recherche aboutie est le fruit d’un effort collectif large plutôt que de l’effort d’un individu ou d’un petit groupe de personnes.

Cette inspiration du mouvement du libre implique une redéfinition plus globale du domaine du savoir et de ses usages. Cette redéfinition est initiée par l’invention de Wikipedia par Jimmy Wales qui a été rendue publique le 15 janvier 2011. Wikipedia –44 est la première encyclopédie sur internet multilingue, universelle et librement diffusable –45. Il s’agit d’une encyclopédie «libre comme toute autre forme de connaissance libre, qui peut être consultée librement sans obtenir la permission de quiconque. La connaissance libre peut être librement partagée avec d’autres. La connaissance libre peut être adaptée à vos propres besoins. Et vos versions adaptées peuvent être librement partagées avec d’autres»–46. Aujourd’hui, Wikipedia est l’un des site internet les plus consulté au monde et est devenu le modèle de coopération sur internet, étant donné que tout à chacun peut contribuer à son développement et donc à l’amélioration de cet outil. Un autre acteur important qui initie les propositions les plus actuelles concernant la redéfinition du savoir à l’aire de l’Internet est sans doute l’Open Knowledge Fondation –47. Fondée le 24 mai 2004 à Cambridge en Grande Bretagne, cette organisation à but non lucratif a pour but de promouvoir le savoir libre dans toutes ses formes. Elle développe depuis août 2005 –48 la version 1.1 de la définition du savoir libre –49 sous forme de travail collaboratif (l’Open knowledge Definition). Dans ce document, le terme de savoir est entendu dans une acception très générale car il recouvre des contenus tels que la musique, les films ou les livres, des données scientifiques, historiques, géographiques et d’autres données publiques émanant des gouvernements ou des administrations publiques (paragraphe «Terminologie»). De manière générale, l’on retrouve dans cette définition les principes fondamentaux du libre établis par le free software movement. L’oeuvre doit être en libre accès sur Internet et accessible dans un format utilisable et modifiable, ce qui est qualifié de «liberté d’accès sociale» (paragraphe «1. Accès»). La licence de l’oeuvre doit autoriser les modifications et la réalisation d’oeuvres dérivées (paragraphe «3. Redistribution»). Le principe de coopération est également mis en avant. L’oeuvre doit être accessible à toutes et tous et «la plus grande diversité de personnes ou de groupes doit bénéficier de la même possibilité de contribuer à l’élaboration d’un savoir en libre accès» (commentaire du paragraphe «7. Non discrimination de personnes ou de groupes de personnes»).

Mouvement du libre et «capitalisme cognitif»

Quelles sont les conséquences des pratiques novatrices de coopération qu’encourage le mouvement du libre? Nous avons vu que l’avènement de la technologie Internet a pour conséquence l’émergence de pratiques de coopération inédites, ce tant au niveau de leur forme qu’au niveau de leur échelle qui est planétaire. Initiées par les hackers du free software movement, nous avons pu constater la nature virale de ces pratiques, qui ont eu des incidences sur les domaines de la culture et du savoir, notamment par un usage de plus en plus répandu des licences libres. A présent, il convient de se pencher sur l’impact de ces pratiques inédites sur la sphère économique – et plus généralement sur le système capitaliste – étant donné qu’elle nient la notion de propriété qui est au coeur de la logique capitaliste.

Certains auteurs affirment que le système capitaliste serait entré dans une nouvelle phase caractérisée par l’accumulation de la connaissance comme nouvelle forme du capital. Alors que durant la phase industrielle du capitalisme, la connaissance était «incorporée»: c’est-à-dire qu’elle était échangée et véhiculée lorsque les supports qui l’incorporaient se déplaçaient; la spécificité de notre époque actuelle est qu’un nombre conséquent de données circulent de manière «dématérialisée». Les coûts de production et de circulation deviennent alors très faibles et les possibilités d’imitation et de copie sont nombreuses –50. En outre, il faut ajouter que la dimension immatérielle des produits l’emporterait sur leur réalité matérielle; leur valeur symbolique, esthétique ou sociale, sur leur valeur d’usage pratique et sur leur valeur d’échange, qu’elle annule. C’est ainsi que la majeur partie des bénéfices est réalisée grâce à la dimension immatérielle des marchandises –51. Cette mutation du système capitaliste est qualifiée entre autres par Bernard PAULRE de «capitalisme cognitif» entendu comme «une forme historique émergente de capitalisme dans lequel l’accumulation, c’est-à-dire la dynamique de transformation économique et sociale de la société, est fondée sur l’exploitation systématique de la connaissance et des informations nouvelles» –52. Les connaissances accumulées comprennent autant les connaissances d’organisation et de gestion que les connaissances scientifiques et techniques; et les profits se dégagent à partir de rentes de situation qui découlent de positions occupées dans le réseaux de production des connaissances –53.

Dans cette nouvelle configuration du système capitaliste, les positions de monopole sont indispensables pour la création de la plus-value et comme le souligne Enzo RULLANI «la valeur d’échange de la connaissance est donc entièrement liée à la capacité pratique de limiter sa diffusion libre, c’est-à-dire de limiter avec des moyens juridiques (brevets, droits d’auteurs, licences, contrats) ou monopolistes, la possibilité de copier, d’imiter, de «réinventer», d’apprendre des connaissances des autres. En d’autres termes, la valeur de la connaissance ne découle pas de sa rareté naturelle mais uniquement des limitations établies, institutionnellement ou de fait, à l’accès à la connaissance» –54. Dans le capitalisme cognitif, les profits sont donc réalisés au niveau du contrôle des noeuds d’accès aux connaissances, afin d’empêcher que celles-ci deviennent un bien collectif abondant. L’on comprend ainsi que l’accès et les moyens d’accès à la connaissance, notamment via Internet, cristallisent un enjeu majeur contemporain –55 au centre duquel le mouvement du libre joue un rôle central en propageant des pratiques de libre partage et de mise en commun des connaissances. Pratiques qui fragilisent bien entendu les monopoles en «instaurant des rapports sociaux qui ébauchent une négation pratique des rapports sociaux capitalistes» –56.

C’est ainsi qu’une fracture se dessine entre deux conceptions du savoir. L’une le considère comme un bien privé offrant des rentes de situation. L’autre le considère comme un bien public auquel tout à chacun est invité à participer à son développement et à son amélioration. Ce conflit est notamment thématisé par Wark McKenzie –57 dans un article intitulé «Un manifeste Hacker». L’auteur introduit son texte en évoquant un conflit qui oppose selon lui deux nouvelles classes: La classe des hackers à la classe vectorialiste:

00. L’époque dans laquelle nous vivons voit l’émergence d’une instabilité globale. La prolifération des vecteurs de communication engendre une géographie virtuelle d’évènements qui s’opposent à l’espace de rationalité et de transparence promis par les «cyber». Cette géographie virtuelle constitue un espace d’événements, source de grand danger, mais aussi de grand espoir. Grand danger, en ce qu’une nouvelle classe dominante, statuée sur le contrôle des vecteurs commerciaux et stratégiques d’information, une classe vectorialiste, accède au pouvoir. Grand espoir, en ce qu’un nouveau mouvement subversif surgisse aussi, non pas pour mettre ce nouvel ordre au défi, mais s’en extraire. C’est ce que j’appelle la «classe des hackers» — nommée ainsi d’après ses éléments fondateurs dans l’industrie du logiciel et des machines, mais qui comprend réellement tous les créateurs de « propriété intellectuelle» que la classe vectorialiste cherche à monopoliser —. Le défi, pour la classe des hackers, est de déstabiliser l’unité de la propriété et de la représentation proposée par l’ordre vectorialiste d’information marchandisée –58.

Extrait de «Un manifeste Hacker» de Wark McKenzie

Synthèse et discussion

Le fait de retracer les grandes lignes de l’histoire du mouvement du libre nous a permis de constater que le terreau des nouvelles pratiques et conceptions du savoir était un contexte historique marqué par les nouvelles possibilités de partage des connaissances qu’offre les innovation technologiques qui sont advenues dans le domaine de l’informatique. Ces innovations technologiques – au premier rang desquelles se trouve Internet – ont notamment permis de voir émerger le mouvement social du libre capable de se structurer en un réseau à une échelle planétaire grâce à l’utilisation du cyberespace. En outre, les nouvelles possibilités qu’offre la technologie Internet ont réellement déployé leurs effets, car les acteurs du mouvement libre ont rapidement su se les réapproprier pour les transformer en un véritable laboratoire d’expérimentation sociale. Ces expérimentations débouchent sur des nouvelles pratiques, des nouvelles valeurs et des nouvelles conceptions du savoir qui, semble-t-il, ont été renforcées à chaque tentative de limitation (essentiellement sur le plan légal avec le Copyright Act de 1976 ou la Sonny Bono Copyright Term Extension Act), qui ont stimulé des mouvements d’opposition. Il faut également relever la rapidité avec laquelle ces nouvelles pratiques se sont propagées dans d’autres domaines que l’informatique – comme la culture et la science – ce qui témoigne de la force des alternatives que la culture libre propose. Pour terminer, relevons aussi le fait que ces pratiques inédites initiées par la culture libre et fondées sur la coopération et la participation libres menace le système capitalisme dans sa phase «cognitive» en affaiblissant les monopoles du savoir et de l’information qui génèrent leurs profits grâce à la transformation des savoirs en propriété privées.

Deux conceptions du savoir sont donc actuellement en conflit. La première est une conception qui considère le savoir comme un bien privé, qui considère que l’œuvre de l’esprit appartient à l’individu et selon laquelle le droit d’auteur stimule la création par la protection de l’auteur et par la compétition (comme la course aux brevets). La seconde est une conception qui considère le savoir comme un bien public. L’œuvre de l’esprit est produite et appartient à la communauté mondiale, la communauté est en droit d’avoir un accès universel à ce savoir et c’est la coopération des individus qui stimule la création de nouveaux savoirs.

Le débat est toujours en cours et de nombreuses questions restent en suspens. Rappelons cependant au moins une chose. Les innonvations technologiques sont appropriées par l’être humain et engendrent toujours des nouvelles pratiques sociales. Les limitations juridiques pourront donc difficilement entraver la facilité avec laquelle les savoirs circulent grâce à Internet et des pratiques sociales généralisées. Nous avons vu que la technologie Internet offre actuellement des possibilités inédites de partage, de co-construction des savoirs et de participation à un monde commun. Bien que ce nouveau monde commun soit virtuel et qu’il puisse nous sembler parfois quelque peu aliénant, il fait aujourd’hui partie intégrante de notre réalité. Toute tentative d’en limiter ses usages devrait être considérée comme une atteinte possible à un bien public et être soumise au débat public. Toute tentative d’en limiter ses usages devrait éveiller nos soupçons et être considérée comme une possible menace d’exil au sens d’Arendt: c’est-à-dire un danger de se retrouver hors du monde.

BIBLIOGRAPHIE

Ouvrages et articles:

Hannah ARENDT, La condition de l’homme moderne, Presses-Pocket, Paris, 1988.

Christian AZAIS, Antonella CORSANI, Patrick DIEUAIDE (sous la dir.), Vers un capitalisme cognitif Entre mutations du travail et territoires, L’Harmattan, Paris, 2001.

André GORZ, L’immatériel: connaissance, valeur et capital, Galilée, Paris, 2003.

Wark MCKENZIE, Un manifeste Hacker, Criticalsecret, Paris, 2006.

Enzo RULLANI, «Le capitalisme cognitif: du déjà vu?» in Multitudes, n°2, mai 2000.

Jacques SCHLANGER, Une théorie du savoir, Paris, J. Vrin, 1978.

Sources électroniques:

Wikipedia, encyclopédie libre en ligne www.wikipedia.org

NOTES

1– Séminaire dispensé par la Prof. Marie-Claire Caloz-Tschopp à l’Université Ouvrière de Genève (UOG) du 17 février au 19 mai 2011 qui a mis en perspective le thème de l’exil à travers plusieurs thèmes. Voir le détail sur le site.

2– SavoirLibre est une plateforme internet de diffusion des savoirs scientifiques dont le but est de rendre plus accessibles les savoirs produits au sein des universités suisses. Elle est accessible à l’adresse suivante au courant du printemps 2012 : www.savoirlibre.net

3– L’impact de cette innovation technologique majeure sur le champ du savoir est comparable à l’invention de l’imprimerie par Gutemberg autour de 1450 – qui révolutionna la diffusion du savoir par la possibilité de reproduire le support qu’est le livre – couplée à la découverte du «nouveau monde» par Christophe Colomb en 1492. En effet, par la construction d’un monde virtuel immatériel aux frontières indéfinies, à l’image de la découverte du Nouveau Monde qui bouleverse de manière radicale les repères spatio-temporels qui constituent les jalons de notre expérience de la réalité.

4– Hannah ARENDT, La condition de l’homme moderne, Presses-Pocket, Paris, 1988.

5– Jacques SCHLANGER, Une théorie du savoir, Paris, J. Vrin, 1978.

6– Hannah ARENDT, La condition de l’homme moderne, Presses-Pocket, Paris, 1988.

7– http://fr.wikipedia.org/wiki/Culture_libre 

8– http://www.share.org/AboutSHARE/tabid/65/Default.aspx 

9– http://fr.wikipedia.org/wiki/Histoire_du_logiciel_libre 

10– http://en.wikipedia.org/wiki/Copyright_Act_1976 

11– http://fr.wikipedia.org/wiki/Arpanet 

12– http://fr.wikipedia.org/wiki/Hacker 

13– http://en.wikipedia.org/wiki/Hacker_%28programmer_subculture%29 

14– http://en.wikipedia.org/wiki/Stallman 

15– Un code source est un ensemble d’instructions écrites dans un langage de programmation informatique de haut niveau, permettant d’obtenir un programme pour un ordinateur.

16– Un système d’exploitation est l’ensemble de programmes central d’un appareil informatique qui sert d’interface entre le matériel et les logiciels applicatifs.

17– Le noyau est la partie fondamentale du système d’exploitation informatique.

18– http://www.gnu.org/gnu/manifesto.html 

19– http://www.gnu.org/philosophy/free-sw.html 

20– http://en.wikipedia.org/wiki/The_Free_Software_Definition 

21– http://fr.wikipedia.org/wiki/Richard_Stallman 

22– http://fr.wikipedia.org/wiki/Licence_libre 

23– http://fr.wikipedia.org/wiki/Copyleft 

24– http://en.wikipedia.org/wiki/Sonny_Bono_Copyright_Term_Extension_Act 

25– http://en.wikipedia.org/wiki/Lawrence_Lessig 

26– http://freeculture.org/ 

27– http://creativecommons.org/ 

28– http://en.wikipedia.org/wiki/Creative_Commons_licenses 

29– http://creativecommons.org/about/history 

30– http://en.wikipedia.org/wiki/Free_culture_movement 

31– http://fr.wikipedia.org/wiki/Libre_acc%C3%A8s_%28%C3%A9dition_scientifique%29 

32– http://www.plos.org/ 

33– http://fedora-commons.org/ 

34– http://en.wikipedia.org/wiki/Open_access_movement 

35– http://www.soros.org/openaccess/translations/french-translation 

36– http://fr.wikipedia.org/wiki/Open_access 

37– http://www.soros.org/openaccess/read 

38– http://www.soros.org/openaccess/translations/french-translation 

39– http://www.soros.org/openaccess/translations/french-translation 

40– http://fr.wikiversity.org/wiki/Accueil 

41– http://sciencecommons.org/about/ 

42– http://en.wikipedia.org/wiki/Science_Commons 

43– http://fr.wikipedia.org/wiki/Science_ouverte 

44– http://wikipedia.org 

45– http://fr.wikipedia.org/wiki/Wikipedia 

46– http://en.wikipedia.org/wiki/Wikipedia:Free_encyclopedia 

47– http://okfn.org/ 

48– http://opendefinition.org/history/ 

49– http://opendefinition.org/okd/francais/ 

50– Bernard PAULRE, «Le capitalisme cognitif. Un nouveau programme de recherche» in Christian AZAIS, Antonella CORSANI, Patrick DIEUAIDE (sous la dir.), Vers un capitalisme cognitif Entre mutations du travail et territoires, L’Harmattan, Paris, 2001, p.20.

51– Jeremy RIFKIN, The age of Access. The New culture of hypercapitalisme where All of Life is a Paid-For Experience, New York, GP. Putnam, 2000 ; tr. fr Marc Saint-Upéry, L’Age de l’accès, Paris, La Découverte, 2000.

52– Bernard PAULRE, «Le capitalisme cognitif. Un nouveau programme de recherche» in Christian AZAIS, Antonella CORSANI, Patrick DIEUAIDE (sous la dir.), Vers un capitalisme cognitif Entre mutations du travail et territoires, L’Harmattan, Paris, 2001, p.10.

53– Ibid. p.13.

54– Enzo RULLANI, «Le capitalisme cognitif: du déjà vu?» in Multitudes, n°2, mai 2000, p.90.

55– André GORZ, L’immatériel: connaissance, valeur et capital, Galilée, Paris, 2003, p.48.

56– Ibid. p.93.

57– Professeur Associé en sociologie des médias et de la culture au Collège Eugene Lang et à la New School for Social Research à New York.

58– Wark MCKENZIE, Un manifeste Hacker, Criticalsecret, Paris, 2006.

Exil, Création Philosophique et Politique
Repenser l'Exil dans la Citoyenneté Contemporaine

Programme du Collège International de Philosophie (CIPh), Paris
© 2010-2016