archée
                 • • •  revue d'art en ligne : arts médiatiques & cyberculture


Le texte et la machine

Pascale Gustin

section cybertheorie

Article sous licence : GNU General Public License

Je crois que l'ordinateur et de manière plus générale les technologies de l'information, transforment de façon radicale notre rapport au monde et à nous même. C'est même devenu un lieu commun de dire cela aujourd'hui, c'est devenu un truisme. Paradoxalement, mesurer l'importance et les conséquences de ces changements est loin d'être simple, cela ouvre même de nombreux champs d'investigations et de réflexions qui depuis environ 60 ans font l'objet de recherches de plus en plus diversifiées dans des domaines toujours plus étendus. Je pense, à l'instar de Pierre Levy que l'outil informatique est une découverte au moins aussi importante dans l'histoire de l'humanité que celle de l'écriture ; elle en est probablement même la continuité, en poursuivant le processus d'hominisation de l'homme 1 2.

J'aimerais par ce texte explorer de manière tout à fait personnelle la naissance de l'outil informatique du point de vue du texte et de l'écriture. Je ne prétends pas ici à un essai exhaustif sur le sujet mais seulement à rassembler quelques réflexions et notes de lectures qui m'apparaissent pertinentes. Selon le procédé d'une pensée analogique, je souhaiterais former un ensemble cohérent de réflexions et d'idées dans la continuité de ce qui à mon sens me parait trop peu questionné actuellement mais non pas moins important, c'est à dire le problème de l'écriture en regard de l'outil informatique et la façon dont à mon avis celui-ci transforme et remet en question de multiples manières la notion même de texte.


- L'écriture, le code, le texte.

L'écriture est la première technologie d'enregistrement de la parole; constituée de symboles, d'images ou de signes, elle est un système, un code mis en place afin de pouvoir garder trace du langage parlé. De ce point de vue, l'écriture est un code, certes relativement souple, qui "encode" la réalité et tout à la fois en transforme et en remodèle la perception. Un des tous premiers systèmes d'écriture que l'on ai retrouvé est l'écriture à noeuds, système "d'inscription" mnémotechnique et synthétique. On en a découvert des traces au Pérou dans les tombeaux Incas, par exemple. Ce sont des paquets de noeuds et de fils attachés de couleurs différentes ou semblables, placés de manière à obtenir un grand nombre de significations. Ces "quippus" servaient à enregistrer les comptes, la chronologie; il était possible également de s'en servir comme d'un moyen de calcul. On retrouve cette forme ancestrale d'écriture partout dans le monde et jusqu'au milieu du vingtième siècle, dans certaines régions elle était encore utilisée par les ouvriers afin de comptabiliser leurs journées de travail 3.

L'écriture dans son essence apparaît alors comme un système de différences. (J. Derrida et Saussure) 4

Le codage binaire a été utilisé sous une forme symbolique très tôt, en chine, avec le système divinatoire du Yi-King. Le Yi-King est un ensemble de 64 hexagrammes constitués d'une collection d'images symboliques représentatives d'un certain ordre de l'univers et était utilisé pour procéder à diverses interprétations divinatoires. Ces images symboliques résultent de l'assemblage et de la combinatoire de traits pleins et de traits brisés représentant les deux états essentiels par lesquels chaque être et chaque chose sont appelés à se mouvoir et à se transformer. Mais c'est le philosophe anglais Francis Bacon (1561-1626) qui fait de ce principe binaire un système à part entière afin de pouvoir transmettre des messages de manière rapide et sûre 5. Dans ce sens le "code", l'acte de coder un message serait en somme la transcription de celui-ci dans une langue "non-naturelle".

Mais le mot de code se dérobe à mesure qu'on souhaite en saisir le sens. A l'origine du mot, nous trouvons le codex, c'est à dire la planchette, le recueil; nous avons également le code juridique qui est l'ensemble des lois qui régissent une société, signification qui n'est pas sans rappeler la programmation puisqu'elle-même est régie par une syntaxe, un ensemble de règles auxquelles on ne peut déroger d'aucune manière sous peine de "planter" le programme. Nous avons également le code vestimentaire ou le code génétique. Le code serait en quelque sorte un moyen de conservation et de transmission d'informations, un support de significations non spécifiquement humain.

L'écriture pourrait être une sorte de code plus souple où le sens est tissé de différentes manières : les lettres avec les lettres une à une ou par grappes, les mots ensembles pour former des phrases et les phrases tissées les unes aux autres, interagissant les unes avec les autres au cours de la lecture, nouant liens de sens et de significations afin de former le texte. On utilise l'expression "le fil de la lecture" ou "au fil du texte" pour parler de cet écheveau du sens qui prend forme au moment du "déchiffrement". Le texte est une trame de significations, dont les fils se croisent et s'entrecroisent entre les lettres elles-mêmes, les mots, les sons, dans le texte et entre le texte et le lecteur. Le mot texte vient du terme latin "texere" qui signifie tisser.

Une autre définition du mot peut être : un nombre fini de signes discrets choisis dans un ensemble fini de signes (Florian Cramer).

Les machines 

Une des toutes premières utilisations technologiques du langage binaire a été développée par Jacquard (1752-1834) afin d'améliorer la technique du tissage. Il s'agissait de cartes perforées de trous, c'est à dire de l'utilisation des pleins et des vides des cartes pour "coder" le passage des fils de couleurs différentes dans les fils de chaînes. La technologie du tissage a toujours été à l'avant-garde des techniques de son temps, même aux époques les plus reculées; au moyen-age, on utilisait déjà des cartes réalisées sur du papier divisé en damier pour la reproduction des dessins. Charles Babbage (1792-1871), initiateur de la machine différentielle et plus tard de la machine analytique connaissait les travaux de Jacquard dans le domaine du tissage et eu cette intuition fondamentale d'appliquer ce principe --en quelque sorte combinatoire des différents fils entre eux-- au calcul selon une méthode semblable. Ada Lovelace (1815-1852) collaboratrice de Charles Babbage fût chargée de la partie logicielle de la machine, c'est à dire du "texte" (au sens large du terme) qui devait permettre à la machine analytique de fonctionner. Mais le projet n'aboutit pas, faute de moyens et probablement aussi d'organisation 6.

Les machines telles que les ordinateurs actuels ne peuvent fonctionner, ne peuvent "comprendre" une serie d'instructions que si celles-ci se trouvent écrites sous la forme de suites de 0 et de 1 ou plus exactement sous forme de séquences trés rapides d'impulsions électriques; une impulsion représente une connection c'est à dire le 1, l'absence d'impulsion le 0. Un ensemble organisé de 0 et 1 a donc un sens pour la machine, c'est à dire un "sens électrique". Le terme de sens n'est peut-être pas tout à fait approprié pour parler d'instructions que la machine, programmée dans ce but, effectura : la machine n'interprète pas le programme ou les instructions entrées dans le processeur, elle ne fait que les exécuter. La rapidité avec laquelle le courant circule entre les différents éléments de l'appareil informatique (liée à la vitesse d'horloge du processeur), offre des possibilités quasi illimitées de calcul (quantités de connexions et d'absences de connexions, de 0 et de 1 de plus en plus importantes dans des laps de temps très courts). Ainsi, nous pouvons, en tant qu'utilisateur de machines et de programmes, charger des images à l'écran, les dupliquer ou les transformer, faire jouer des sons, ou bien écrire des textes que nous rentrons dans la mémoire vive de l'ordinateur. En quelque sorte ces suites de 0 et de 1 sont le seul code ou alphabet avec lequel nous pouvons utiliser l'outil informatique.

Les premiers ordinateurs étaient en quelque sorte programmés "en direct" à l'aide de fiches et de fils reliés ensembles. Si la fiche est connectée, le courant passe, la valeur est donc 1, à l'inverse, l'absence de connection prend la valeur 0. Pour faire fonctionner un programme, il fallait donc connecter une à une des centaines de fiches et de fils entre eux. Le temps de mise en route d'un programme était trés important; les erreurs fréquentes et pénibles à retrouver. On devait suivre chaque fils pour voir où il était relié au milieu de paquets de fils entrelassés les uns dans les autres. Plus tard, dans les années 50 et 60 les fils électriques seront remplacés par des valeurs situées en mémoire 7 8 9.

Les ingénieurs imaginèrent ensuite un moyen de simplifier les opérations de programmation. On substitua à un ensemble d'instructions, un code dit mnémotechnique, plus facile à retenir. Ces premiers langages permettaient d'effectuer rapidement des taches complexes sur les machines, mais restaient encore malaisés d'utilisation car trés proche du code de la machine (exemple : le langage assembleur). Peu à peu, les langages devinrent plus performants. L'utilisation des premiers compilateurs firent des machines, des outils plus souples et faciles à utiliser (avec le fortran). De véritables mots furent employés et les instructions au fur et à mesure de l'évolution des langages devinrent plus compréhensibles pour l'homme, encodèrent des algorithmes entiers et rendirent ainsi la conception des programmes rapide et efficace.

L'arrivée des interfaces graphiques donnera par la suite les moyens à tout utilisateur non-informa- ticien, d'effectuer facilement, rapidement, par l'intermédiaire de l'écran graphique des taches compliquées pré-programmées.

Le code de la machine, le texte en quelque sorte se trouve alors dissimulé sous des couches logicielles mais c'est toujours un code, une "texture" de calcul, de 0 et de 1 qui, dans les "profondeurs" de l'ordinateur, officie afin que les programmes puissent avoir lieu en "surface" 10 11.

Les langages de programmation (je pense par exemple aux langages de programmation orientés objet comme java ou python) les plus récents bien que plus proches d'une part du langage humain et peut-être également de la pensée humaine (du moins d'une petite part caractéristique de celle-ci : la catégorisation; mais je doute que cette forme de la pensée humaine soit la plus "naturelle" à l'humain mais peut-être bien plutôt sa part la plus sociale ou socialisée) restent toujours malgré tout soumis aux nécessités internes des machines.

Le langage humain, tel que nous le parlons, l'écrivons met en place un monde de significations. Le discours oral est contextualisé. Il en est de même pour le texte écrit. Une marge d'ambiguité est toujours tolérée et même presque souhaitable car c'est pratiquement dans cette marge qu'a lieu l'expression de l'individu qui parle ou écrit. La dimension culturelle ainsi qu'une prise de conscience de tous les discours qui ont précédemment eu lieu, interviennent également de manière plus ou moins prégnante pour celui qui écoute ou lit selon la culture qu'il a du sujet énoncé. Ainsi le sens du texte oral ou écrit est un ensemble de liens qui se tissent de toute part entre les interlocuteurs ou entre le lecteur et le texte, la société, la culture, les lois etc. Souvent, la compréhension du sens dépasse largement la structure de base du langage --linéaire et séquentielle, celle du discours oral ou du texte.
Il en va ainsi de la pensée humaine car c'est à partir d'elle, à partir de cette matrice que cette texture de liens peut avoir lieu.

C'est en poursuivant un tel raisonnement que Ted Nelson élabora ses recherches sur l'hypertextualité dés le milieu des années 60 avec son projet "Xanadu" (nommé ainsi en référence à un poème de Coleridge). Son prédécésseur Vannemar Buch eu une intuition semblable lorsqu'il imagina vingt ans plus tôt "le Memex" --MEMory EXtander--, une bibliothèque de documents reliés les uns aux autres en fonction du sens que pouvait prendre chaque paragraphe, phrase ou mot de tel ou tel texte mémorisé en regard de tel ou tel autre paragraphe, phrase ou mot issus d'un autre texte ou d'une autre partie de ce même texte. Conservés sur microfilms spéciaux, ces textes, photographies ou tout autre document auraient été accessibles grace à plusieurs écrans, claviers et manettes. Une membrane sensible aurait pu permettre de photographier et d'enregistrer de nouveaux documents. L'utilisation d'un tel appareil aurait permis au chercheur ou à l'homme moderne de faire face à la prolifération d'informations prévisibles en raison du développement des instruments de médiatisation de l'information 12.

Pour Ted Nelson, la pensée humaine est hypertextuelle par essence alors que le langage humain, la parole ou l'écrit, ne sont que séquentiels. Ainsi, le langage humain apparait comme incapable de reproduire véritablement la pensée dans toute sa richesse, sa diversité et son foisonnement 13.

C'est sur ce travail, cette nouvelle manière d'appréhender le texte que je terminerai cette suite de notes et de reflexions car à partir de cette notion d'hypertexte et d'hypertextualité de nombreuses possibilités de tissage de sens et de textes sont mises à jour et en explorer les dimensions et les possibilités serait l'objet d'une recherche à part entière. J'aimerais seulement pour conclure, amener à l'attention du lecteur que le texte apparaît désormais non plus comme quelque chose d'abstrait et d'homogène qui permet à l'information d'être diffusée mais comme un corps à part entière, concret qui peut prendre de multiples formes; ainsi être utilisé aussi bien pour programmer les outils de l'informaticien, ou du simple usager de l'informatique, pour concevoir des programmes que pour les appliquer. Je crois que le travail du poète ou de l'écrivain s'en trouve profondément bouleversé. Ecrire ce n'est pas seulement faire un texte mais aussi ce peut être mettre en route un instrument, l'outil informatique, se servir d'un programme (un logiciel de traitement de texte par exemple) ou d'un langage de programmation ; c'est couper, coller, assembler telle portion de texte avec tel autre (un morceau de programme, un lien qui menera à une image ou à un son). C'est jouer également avec différentes formes de langages car tout ceci à mon sens constitue encore du texte; c'est mettre l'écriture, le langage --quelque soit l'origine de ce langage-- en contact avec d'autres branches de la communication.

 

NOTE(S)

1 Levy, Pierre. La machine univers. Editions La Découverte 1987

2 Levy, Pierre. L'intelligence collective. Editions La Découverte 1997

3 Fevrier, James. L'histoire de l'écriture. Editions Payot et Rivages 1948

4 Kristeva, Julia. Le langage, cet inconnu. Editions du seuil 1981

5 Breton, Philippe. Une Histoire de l'informatique. Editions du seuil 1990

6 Plant, Sadie. "Tissages du futur: tramer ensemble femmes et cybernétique". In Connexions : art réseaux média. Ecole Nationale Supérieure des Beaux-Arts, Paris 2002

7 Rossi, Serge. http://histoire.info.online.fr/

8 Guillier, François. http://www.histoire-informatique.org/

9 Bordeleau, Pierre. http://www.scedu.umontreal.ca/sites/histoiredestec/

10 Every, David K. http://membres.lycos.fr/cgiguere/vdn/vdn24.htm traduit de l'anglais par Charles Giguère

11 Sureau D. G. http://www.scriptol.org/histlang.html

12 Bush, Vannemar. "Comme nous pourrions le penser". In Connexions : art réseaux média. Ecole Nationale Supérieure des Beaux-Arts, Paris 2002

13 Nelson, Ted. http://www.tednelson.org/

 

NOTICE BIOGRAPHIQUE

Copyright © 2002 Pascale Gustin. Ce texte est placé sous GNU General Public License. Il a paru initialement sur Atelier Blanc. Sur ce dernier, on peut consulter quelques oeuvres réalisées par Pascale Gustin.

Pascale Gustin gustin.pascale@free.fr

 

haut de la page / retour à la page d'accueil /

 


 

Cette publication a été rendue possible grâce au soutien financier d'Hexagram, du groupe de recherche des arts médiatiques (GRAM), de la Faculté des arts de l'UQAM, de la Chaire du Canada en esthétique et poétique de l'UQÀM (CEP), ainsi qu'à une subvention, pour une quatorzième année consécutive, du Conseil des arts du Canada (CAC).