IHOES PRODUCTIONS Articles / analyses en ligne
Collections
Productions
Historique
Infos pratiques
Contacts
Liens
Utopie et résistance sur Internet (analyse n°13, publiée le 6/12/2006)
Par Lionel Vanvelthem

Le présent article a été répertorié dans la catégorie :
"Sensibilisation au pacifisme et aux résistances d'hier et d'aujourd'hui"

Il traite des sujets suivants :
Nouvelles technologies (sujet principal)

Vous pouvez également télécharger le présent article sous format PDF (avec notes scientifiques, iconographie et mise en page) en cliquant ICI.

Pour citer cet article :

Lionel Vanvelthem, « Utopie et résistance sur Internet », Analyse de l'IHOES, n°13, 6 décembre 2006,
[En ligne] http://www.ihoes.be/PDF/Utopie_et_resistance_sur_Internet.pdf.


Introduction

L’Institut d’histoire ouvrière, économique et sociale accorde une très grande importance à l’étude de la résistance, présente au XXe siècle sur de nombreux fronts : contre le fascisme durant la Seconde Guerre mondiale et contre l’extrême droite d’hier et d’aujourd’hui ; contre l’ultra-libéralisme économique qui place le profit et la rentabilité avant le bien-être de l’humanité ; contre les projets liberticides en général ; contre l’endoctrinement et les systèmes visant à couler l’être humain dans le moule d’une pensée unique et formatée, etc.

Ces résistances sont par essence protéiformes, leur cadre d’action est multiple : résistance par la presse (presse clandestine durant l’Occupation ; journaux alter-mondialistes, anarchistes, contestataires…), résistance culturelle (cinéma et théâtre indépendants, musiques « alternatives », artistes engagés…), résistance « concrète » (manifestations, actions pacifistes, luttes armées...).

A côté de ces moyens « traditionnels », une nouvelle forme de résistance se développe au travers et à côté d’un nouveau média : Internet, immense réseau informatique à l’échelle mondiale qui donne la possibilité à quiconque possédant un ordinateur connecté d’avoir accès à une série d’applications et de services, le plus connu étant le World Wide Web, système public qui permet de consulter en ligne des pages hypertextuelles (HTML) regroupées la plupart du temps sous forme de sites Web.

En Occident, de plus en plus de personnes connaissent, ont accès et utilisent Internet, mais peu d’entre elles savent de prime abord que le « réseau des réseaux » est le centre d’un combat qui oppose deux conceptions, deux philosophies incompatibles : d’un côté les tenants d’un Internet commercial, utilisé par les entreprises pour s’imposer sur le marché économique, Internet constituant le plus grand réservoir de clients potentiels du monde ; de l’autre côté les partisans d’un Internet libre et indépendant, héritiers d’une conception utopique du réseau, pour lesquels Internet doit être un outil au service de la libre connaissance, bref un lieu où le profit n’a pas sa place.

Aujourd’hui, les projets commerciaux sont on ne peut plus présents sur la Toile : les sites payants sont légions ; les entreprises se servent du Web comme d’une plateforme au service de leur propre image ; les publicités pullulent à tel point qu’il est de plus en plus rare de trouver une page Web sans banderole ou message à caractère publicitaire… D’aucuns trouvent cette situation normale, tant le marché économique, la publicité et les marques sont désormais omniprésents au sein des sphères publique et privée.

D’autres, par contre, sont en désaccord avec cette logique d’appropriation féroce du réseau par le marché et tentent de résister à leur manière. Ces « résistants de l’Internet », présents dans divers « combats » qui se déroulent actuellement principalement sur la Toile, constitueront le thème principal de la présente analyse, qui évoquera en premier lieu l’origine utopique et non commerciale d’Internet (le réseau Arpanet) et son incidence sur la pensée des partisans d’un Internet libre, pour étudier en second lieu les problématiques actuelles (les logiciels libres, le « manifeste GNU », Linux, le Web indépendant, les projets « wikis »…).

A l’origine d’Internet : Arpanet et l’utopie technologique

À la source d’Internet, une utopie. Ou presque. L’idée d’un réseau d’ordinateurs interconnectés, ancêtre direct d’Internet, remonte à la Guerre froide. C’est en effet sous l’égide de l’Advanced Research Projects Agency (ARPA) – agence du département de la Défense des États-Unis fondée en 1958 en réaction au lancement du satellite soviétique Sputnik en 1957 – que fut conçu et développé un réseau informatique répondant au nom d’Arpanet, à la fin des années soixante.

Comme de nombreuses avancées techniques majeures du XXe siècle, le développement de ce réseau était, au départ du moins, indirectement lié à la bataille technologique et militaire que se livraient les deux superpuissances du moment, les États-Unis et l’U.R.S.S.

Les principaux objectifs du réseau Arpanet étaient alors :

- de transférer des données de manière quasi-instantanée entre deux ordinateurs connectés, via une simple ligne téléphonique, à travers les États-Unis ;
- d’échanger, grâce à un protocole de communication standard, des informations entre deux ordinateurs de types différents, ce qui était loin d’être facile à l’époque car, dans une logique purement marchande, chaque fabricant d’ordinateurs faisait en sorte que ses machines ne soient pas compatibles avec celles fabriquées par la concurrence ;
- de décentraliser le transfert des données de telle manière qu’il existe toujours plusieurs « chemins » de transmission possibles entre deux ordinateurs (très utile en cas de panne d’une partie du réseau).

Conçu sous l’égide d’un organisme de défense territoriale et d’intelligence militaire, Arpanet fut dès l’origine détourné par les savants pour servir des intérêts purement scientifiques. Le projet fut développé en collaboration étroite avec le monde universitaire américain (les quatre premiers centres – appelés « nœuds » dans le jargon du réseau – connectés à Arpanet, en 1969, étaient tous d’origine universitaire ), qui vit dans ce réseau un outil formidable pour le partage des connaissances ainsi qu’une liberté d’expression et de communication sans pareil : étant totalement décentralisé, Arpanet ne pouvait pas être contrôlé par une seule instance, même étatique ; en outre, grâce à ce premier réseau, des ordinateurs de marques différentes, normalement incompatibles, pouvaient communiquer entre eux, enlevant ainsi toutes les contraintes techniques imposées par les fabricants d’ordinateurs.

Il faut noter que de nombreux chercheurs travaillant sur ce projet avaient alors développé une vision utopique du réseau : si l’utilisation de ce dernier servait le désintéressement et l’humanisme, alors Arpanet deviendrait un moyen de communication sans précédent dans l’histoire du monde, faisant progresser à grands pas la recherche fondamentale et l’intelligence humaine. Ainsi, dans un article daté d’avril 1968, J.C.R. Licklider et R.W. Taylor, directeurs à tour de rôle de l’Information Processing Techniques Office (IPTO) de l’ARPA et proches des milieux scientifiques, conclurent-ils leur texte avec optimisme :

« Pour la société, l’impact [d’un réseau global d’ordinateurs] sera bon ou mauvais et dépendra en grande partie d’une question : est-ce que le fait d’être "en ligne" sera un privilège ou un droit ? Si seul un segment privilégié de la population a la possibilité d’apprécier l’avantage de "l’accroissement de l’intelligence", le réseau ne fera qu’élargir le fossé en matière d’opportunité intellectuelle.

À l’inverse, si le concept de réseau devait entraîner ce que quelques uns ont envisagé (si ce n’est concrètement tout au moins dans l’espoir) en matière d’éducation et si tous les esprits faisaient preuve de responsabilité, l’avantage qu’en tirerait l’humanité serait au-delà de toute mesure. »


Alors qu’Arpanet n’était pas encore lancé, les deux auteurs anticipaient génialement les possibilités extraordinaires d’un tel réseau sur l’humanité, allant jusqu’à imaginer son ouverture à un nombre très large d’utilisateurs – non plus seulement scientifiques donc – chose réalisée aujourd’hui pleinement avec Internet. De fait, Licklider et beaucoup de chercheurs de cette époque pensaient le réseau en terme d’avancée démocratique permettant le développement de la connaissance et des relations humaines. Pour eux, le réseau devait constituer un droit et non un privilège.

Cette utopie à l’origine du réseau mondial aura une très grande incidence sur les premiers utilisateurs particuliers d’Internet au début des années 1990 ainsi que, de nos jours, sur certains utilisateurs avertis. Dans son livre Confessions d’un voleur, Laurent Chemla décrit ainsi ces premiers temps en soulignant l’idée de partage alors sous-jacente à l’utilisation d’Internet :

« Nous étions loin de penser qu’un jour nous aurions besoin d’une pléthore de juristes pour organiser le réseau. Qu’un jour, il faudrait des comités interministériels pour traiter de la question. Qu’un jour, il faudrait mettre noir sur blanc les quelques règles de savoir vivre qui ne se nommaient pas encore la ‘nétiquette’ et qui nous semblaient bien naturelles. Notre seule envie, c’était de partager cette formidable invention avec le plus grand nombre, d’en faire l’apologie, d’attirer de plus en plus de passionnés qui partageraient avec nous leurs compétences, leur savoir et leur intelligence. »

Logiciels libres contre logiciels propriétaires

La question du partage et de l’utilisation libre des données sur Internet est liée à un autre débat, très important, qui touche au monde du logiciel. Un logiciel est un ensemble de programmes permettant à un ordinateur d’effectuer une tâche définie.

Certains logiciels sont propriétaires. L’achat d’un logiciel de ce type vous donnera le droit de l’utiliser sous certaines conditions :

- son usage est strictement limité : à moins d’acheter plusieurs licences, vous ne pouvez utiliser le logiciel que sur un seul ordinateur et pour un usage bien particulier ;
- la copie, la modification et la distribution du logiciel sont interdites ;
- l’accès au code source est la plupart du temps protégé : vous ne pouvez pas voir comment le logiciel a été programmé.

Les logiciels propriétaires, nés dans les années 1960 avec la constitution des premières grandes firmes informatiques, sont à l’origine d’un problème de taille : étant le produit d’une société commerciale qui a tout intérêt à garder ses clients et ses secrets de fabrication, les formats de fichier d’un logiciel propriétaire sont rarement ouverts. On ne pourra pas étudier la façon dont ils sont structurés et il faudra très souvent un logiciel bien spécifique pour les lire.

Richard Stallman, les logiciels libres et le projet GNU

Face à cette situation, Richard M. Stallman, un informaticien du Massachussetts Institute of Technology, inventa et tenta de populariser un nouveau concept : celui de logiciel libre. En 1984, il commença à développer, avec l’aide de nombreux bénévoles, un système de logiciels entièrement libre auquel il donna le nom de GNU :

« GNU, l'acronyme de GNU's Not Unix (GNU n'est pas Unix), est le nom du système complet de logiciels compatible Unix que j'écris pour pouvoir le donner librement à tous ceux qui en auraient besoin. »

Son argumentation, fort proche de celle des fondateurs d’Arpanet, était la suivante :

« J'estime que la règle d'or est que, si j'aime un programme, je dois le partager avec d'autres qui aiment ce programme. Les éditeurs de logiciels cherchent à diviser et à conquérir les utilisateurs, en interdisant à chacun de partager avec les autres. Je refuse de rompre la solidarité avec les autres utilisateurs de cette manière. (…) »

Pour faire partie du projet GNU, un logiciel doit assurer à l’utilisateur les quatre libertés fondamentales suivantes :

- la liberté d’exécuter le logiciel, quel qu’en soit l’usage ;
- la liberté d’accéder au code source du logiciel, de l’étudier, de le modifier ;
- la liberté de redistribuer des copies du logiciel, modifiées ou non, payantes ou non ;
- la liberté d’améliorer le logiciel et d’en faire profiter toute la communauté.

A cela s’ajoute la notion très intelligente de copyleft (jeu de mots inventé par Don Hopkins en opposition au copyright et popularisé par Richard Stallman), qui stipule que l’on ne peut en aucun cas ajouter à un logiciel libre des restrictions portant atteinte aux quatre libertés fondamentales : ainsi, par exemple, un distributeur peut sans problème vendre un logiciel libre mais il ne peut pas interdire à l’acheteur de le copier, le modifier et le redistribuer (gratuitement ou non).

Linus Torvalds et Linux

Ne manquait plus au projet GNU qu’un système d’exploitation libre, c'est-à-dire un système informatique permettant à tous les logiciels libres de fonctionner de concert… Dans les années 1980, les deux principaux systèmes d’exploitation pour les ordinateurs personnels étaient le MS-DOS (Microsoft Disk Operating System) puis Microsoft Windows pour les ordinateurs de la firme IBM (ou compatibles IBM) et le Mac OS (Macintosh Operating System) pour les ordinateurs Apple Macintosh, tous deux systèmes propriétaires, fermés (au code source inaccessible donc) et inapplicables dans le cas présent.

La solution arriva au début des années nonante, lorsque un jeune étudiant de l’université d’Helsinki, Linus Torvalds, décida pour ses besoins personnels de créer un noyau de système d’exploitation (Linux) et de le partager gratuitement avec la communauté informatique le 5 octobre 1991. Étant donné que le code source de ce noyau fut dès le départ mis librement à la disposition de tous, Linux s’améliora très rapidement grâce à la contribution de centaines de particuliers ou de sociétés bénévoles intéressés pas le projet.

Le noyau constituait à l’époque l’ultime pièce manquante permettant aux logiciels libres d’être réellement indépendants de tout système propriétaire. Avec l’arrivée de Linux, de nombreuses firmes et associations commencèrent à développer leurs propres distributions GNU/Linux. Aujourd’hui, il existe de nombreuses solutions pour des particuliers ou des entreprises voulant essayer ce système, solutions souvent gratuites et « prêtes à l’emploi » qui concurrencent sérieusement les systèmes d’exploitation propriétaires et payant comme Microsoft Windows.

Actualité et avantages des logiciels libres

Les avantages des logiciels libres par rapport aux logiciels propriétaires sont nombreux et se démarquent tant sur un niveau éthique que sur un plan plus pragmatique :

- la gratuité ou le faible coût de l’achat du logiciel : un logiciel libre pouvant être copié et redistribué gratuitement sur un nombre infini de postes de travail, le budget consacré à la licence tend vers zéro, contrairement à un logiciel propriétaire, pour lequel il faudra payer la plupart du temps une licence par poste de travail. Cela ne veut pas dire pour autant que l’installation et la maintenance d’un système basé entièrement sur des logiciels libre ne coûtent rien ;
- l’indépendance par rapport à une marque : lors d’un problème avec un logiciel propriétaire, il est fréquent de devoir faire appel au service après-vente de la firme qui a créé le logiciel, ce qui entraîne une dépendance vis-à-vis de cette firme. Dans le cas d’un logiciel libre, l’aide peut être apportée par toute une communauté de programmeurs : il y a donc toujours la possibilité de choisir son prestataire de service ;
- la possibilité de contrôler l’information : à l’inverse des logiciels propriétaires, dont les données sont souvent cachées, le logiciel libre est par définition ouvert. Son mode de fonctionnement peut être étudié et compris par n’importe quel informaticien ;
- l’interopérabilité des formats, c'est-à-dire la possibilité pour n’importe quel utilisateur, quel que soit son matériel informatique et les logiciels qu’il utilise, d’ouvrir un fichier donné ;
- la sécurité : contrairement à ce que l’on pourrait croire de prime abord, les logiciels libres, dont le code est ouvert à tous les programmeurs (y compris ceux qui ont pour ambition de nuire à autrui), ne sont pas plus vulnérables que leurs pendants propriétaires. Lorsqu’une faille de sécurité est décelée sur un logiciel libre, de nombreux développeurs de par le monde trouveront une solution très rapidement. Par ailleurs, avoir la possibilité de voir comment est structuré un logiciel est justement une façon de vérifier qu’il n’y a pas de code malveillant ou de programme espion mettant en cause la vie privée des utilisateurs.

Dans les services publics, ces avantages propres aux logiciels libres sont capitaux. En effet, une administration démocratique doit donner les moyens au citoyen d’accéder le plus facilement possible à l’information publique. Si le format d’un fichier est propriétaire, il ne sera lisible que par les utilisateurs d’un certain logiciel (souvent payant), d’où l’intérêt pour l’administration d’utiliser des formats de fichiers libres et ouverts, qui seront lisibles avec un logiciel libre et gratuit, et par conséquent accessibles à un public plus large. Les logiciels libres empêchent par ailleurs la création d’une situation de dépendance de l’Etat par rapport à une seule entreprise privée… Raisons pour lesquelles de nombreux gouvernements réfléchissent actuellement très sérieusement à l’utilisation de logiciels libres au sein de leur administration.

Concrètement, il existe actuellement de nombreux logiciels libres concurrençant les logiciels propriétaires. Parmi les plus grands succès, on citera OpenOffice (une suite bureautique libre, gratuite et complète), Apache (logiciel permettant de faire tourner un serveur Web, le logiciel du genre le plus répandu sur Internet), Mozilla Firefox (célèbre et excellent navigateur Web, concurrent de Microsoft Internet Explorer), Mozilla Thunderbird (client de courrier électronique, concurrent de Microsoft Outlook), The GIMP (logiciel de traitement d’images faisant partie du projet GNU), CDex (logiciel d’encodage et de compression de musique numérique), MPlayer (lecteur multimédia pouvant lire de nombreux formats audio et vidéo), etc.

Quelques autres projets utopiques, coopératifs et alternatifs sur Internet

D’autres projets alternatifs, liés de près ou de loin à ceux cités plus haut, sont également intéressants dans le cadre d’une étude sur « l’utopie Internet ».

Hébergeurs indépendants et non-marchands

Un hébergeur Web est une société qui propose l’hébergement d’un site Web, c’est-à-dire son stockage sur un serveur, permettant ainsi sa consultation par tous les utilisateurs d’Internet. La plupart des hébergeurs sont des entreprises à but lucratif. Leurs services sont soit payants, soit gratuits, mais dans le deuxième cas, cette gratuité est toute relative car elle signifie la présence massive sur les sites hébergés de publicités, qui ne sont somme toute qu’un moyen détourné de collecter de l’argent.

Parallèlement à ces hébergeurs commerciaux, il existe des projets d’hébergements coopératifs et non-marchands, dont l’éthique et la démarche excluent toute logique de profit. Cela ne signifie pas nécessairement que l’hébergement d’un site Web est gratuit, mais simplement que l’argent récolté est utilisé à des fins de maintenance et non lucratives. Le profit s’efface pour laisser place à la solidarité des utilisateurs et à la coopération. Parmi les projets d’hébergements indépendants, on citera :

- l’Autre Net, « hébergeur autogéré » qui « oriente (…) son action vers une gestion solidaire du service, une mise en commun de moyens menant à la production d'un service par ceux qui le consomment » ;
- Ouvaton, hébergeur coopératif, où « les webmasters seront réellement des hébergés/hebergeurs. Ils seront en effet co-propriétaires et co-entrepreneurs de la co-opérative » ;
- Domaine Public, « hébergeur indépendant et autogéré », qui « a pour objectif principal de mettre sur pied et de développer une structure d’hébergement Internet non-marchand et indépendant qui soit géré collectivement par l’ensemble de ses membres, ceci en exploitant les possibilités offertes par Internet en matière de travail collectif ». Cet hébergeur privilégie et encourage l’utilisation des logiciels libres et des formats de fichiers ouverts.

Tenir un service d’hébergement indépendant sur le Web n’est pas sans risque. En témoigne l’affaire « Altern.org » qui constitua une très grosse défaite pour les partisans de l’Internet libre. Altern.org était un service d’hébergement gratuit sans la moindre contrepartie (sans aucune publicité, entre autres) qui fut contraint de fermer ses services au début du mois de juillet 2000 à cause d’une série de procès dirigés contre lui. La première grosse plainte contre Altern.org fut celle d’Estelle Hallyday pour la publication, sur un des sites hébergés, de photos érotiques de sa personne. Plutôt que de demander réparation au concepteur du site, Estelle Hallyday intenta un procès à l’hébergeur, qui gérait alors plus de 45.000 sites Web et qui était donc dans l’incapacité de tout contrôler. A la suite de ce procès sans précédent, d’autres plaintes furent déposées et, face à de très gros problèmes financiers, le créateur d’Altern.org, Valentin Lacambre, fut obligé de mettre la clé sous la porte, supprimant en une seule fois tous les sites qu’il hébergeait. Les hébergeurs l’Autre Net et Ouvaton (voir plus haut) ont été créés à la suite de cette histoire.

Les projets « wikis »

Un wiki est un site Web qui donne à ses utilisateurs la possibilité de créer ou de modifier son contenu. En plus d'être les simples lecteurs d'une page Web, les internautes peuvent donc en devenir les créateurs, sur le fond tout au moins.

L'exemple le plus connu en matière de wiki est Wikipédia, une encyclopédie en ligne, multilingue, gratuite et aux articles totalement ouverts... Toute personne se connectant sur Wikipédia peut, sans même s'identifier, lire et modifier son contenu. Le vandalisme (c'est-à-dire la falsification ou la destruction d'un article de l'encyclopédie par une personne « malveillante ») est la plupart du temps très vite enrayé par les autres utilisateurs, qui ont la possibilité de rétablir une version précédente de l'article.

L'encylopédie Wikipédia, étant ouverte à tous, est bien sûr moins fiable quant à son contenu qu'une encyclopédie « fermée » (comme Universalis par exemple), surtout en ce qui concerne des sujets très spécialisés ou peu lus, mais elle a l'avantage de mettre l'accent sur des aspects du savoir délaissés par les grandes encyclopédies et – plus important encore – elle constitue une véritable révolution quant à la façon de concevoir la construction de la connaissance humaine. Wikipédia prouve qu'Internet peut être un vaste espace coopératif où chaque internaute, de par son expérience et ses intérêts, a la possibilité d'apporter sa pierre à l'édifice.

Conclusion

Internet et le Web (son service prédominant) peuvent être autre chose qu'une vitrine pour les entreprises, autre chose qu'un média rempli de publicités envahissantes, autre chose qu'une plateforme payante, formatée et cloisonnée.

Internet et le Web peuvent servir la connaissance, la coopération, la solidarité. Certains internautes, on l'a vu, militent clairement dans ce sens ; des projets alternatifs, pleinement fonctionnels, existent. Le véritable problème aujourd'hui réside plus dans l'éducation à ce nouveau média : d'aucuns, utilisant pourtant Internet presque tous les jours, ne connaissent pas les enjeux d'un Internet réellement indépendant et ne savent pas qu'il existe des alternatives viables (les logiciels libres, les projets coopératifs).