L’invention de l’hypertexte
L’idée d’hypertexte apparaît vers la fin de la seconde guerre mondiale. En 1945, Vanevar Bush, secrétaire de Roosevelt, avait imaginé une machine censée rendre plus facile l'accès à l'information. Il appela MEMEX ce dispositif car il était destiné à prolonger la mémoire de l'Homme. Il s’agissait en fait d’un système d'information jamais réalisé reposant sur l’exploitation méthodique et technique des connaissances livresques de 1945 (indexation, vocabulaires contrôlés, mise en relation et transfert sur microfilms). L’apport essentiel de cette idée était la radicalisation de la notion de relation ou d’association déjà présente — mais de façon très sommaire — dans le livre, sous la structure fortement hiérarchisée de notes, commentaires ou gloses. Memex était pensé comme une machine devant élargir et soutenir la mémoire humaine ainsi que ses facultés d'associations... Bush s'imaginait un appareil photographique qui devait être accroché au front du travailleur intellectuel et par lequel tout ce qui, au cours de la journée, éveillait l'intérêt de son propriétaire devait être immédiatement enregistré et rendu disponible. Rien de numérique là-dedans, manquaient les technologies nécessaires, or, le premier ordinateur, l’ENIAC, ne fut créé qu’en 1946.
Ce qu’il faut ici remarquer, c’est que, comme dans de nombreux domaines de la créativité humaine, l’idée précède de beaucoup ses réalisations techniques même si les possibilités techniques en permettent quelque chose comme une anticipation imaginaire. Ce qui importe, et c’est ce qui explique le succès de cette idée, c’est que l’état technique de l’époque fait émerger un besoin qui se concrétise alors dans une conceptualisation bien avant que son expérimentation pragmatique soit possible.
La période de l'après-guerre fut riche en mises au point et découvertes en tous genres parmi lesquelles il faut compter autant l'apparition des théories de la communication, que les avancées de la technologie et la nécessité de traiter efficacement des volumes d'information de plus en plus grands ce qui, lié au désir de ne pas se trouver noyé sous leur quantité, a favorisé le développement de nouvelles façons de gérer l'information, notamment, la nécessité de pouvoir sélectionner la quantité d'information à laquelle, à tout moment, l'utilisateur accepte d'être exposé et pour cela de proposer diverses possibilités de stockage et de marquage.
L’évolution technique converge ainsi vers le concept.
Presque vingt ans après MEMEX, alors que les technologies informatiques ont déjà bien avancé, Ted Nelson crée, en 1963, les mots hypertexte et hypermédia, puis, en 1965, un concept plus global qu'il appelle XANADU.
Ce projet XANADU formalise les fonctionnalités d'un système d'information et de connaissances selon les 17 règles suivantes qui vous rappelleront certainement quelque chose:
1. Chaque serveur Xanadu est unique et sécurisé.
2. Chaque serveur Xanadu peut être mis en service séparément ou en réseau.
3. Chaque utilisateur est unique et identifié.
4. Chaque utilisateur peut rechercher, récupérer, créer et stocker des documents.
5.
Chaque document peut consister en un nombre quelconque de parts donc
chaque élément peut être constitué de quelque genre que ce soit.
6.
Chaque document peut contenir des liens de tous types, voire de
copies virtuelles ("transclusions") d'un autre document accessible par
son propriétaire.
7. Les liens sont visibles et peuvent être suivis depuis les deux extrémités.
8. La permission de lier vers un document est explicitement garantie par l'acte de publication même.
9.
Chaque document peut contenir un mécanisme de rétribution, à un degré
quelconque de granularité, pour assurer le paiement de chaque portion
accédée, en incluant les copies virtuelles («transclusions») de tout ou
partie d'un document.
10. Chaque document est identifié, unique et sécurisé.
11. Chaque document peut avoir des règles d'accès sécurisés.
12.
Chaque document peut rapidement être recherché, stocké et récupéré
sans que l'utilisateur ne sache où il est physiquement situé.
13.
Chaque document est automatiquement enregistré sur un moyen de stockage
approprié vis-à-vis de sa fréquence d'accès depuis n'importe quel point
de consultation.
14. Chaque document est automatiquement
enregistré de façon redondante, pour maintenir sa disponibilité même en
cas de désastre.
15. Chaque fournisseur de service XANADU peut
facturer à sa discrétion ses utilisateurs pour le stockage, la
récupération, et la publication de documents.
16. Chaque transaction est sécurisée et reste perceptible seulement par les parties l'effectuant.
17.
Le protocole de communication client-serveur XANADU est un standard
librement publié. Le développement et l'intégration de tierces parties
sont encouragés.
Ces règles inspireront en effet en partie la réalisation du World Wide Web dont on sait que la préfiguration dans ARPANET date de 1969. Mais les visions de Ted Nelson, notamment celles de son ouvrage « Dream Machines » sont aujourd’hui encore loin d’avoir trouvé leur complète réalisation technique.
La technologie a en effet mis beaucoup de temps à rattraper les concepts : rappelons que les premiers ordinateurs (MainFrame), malgré leur taille, ne pouvaient traiter qu'une quantité limitée d'information et ne supportaient pas l'affichage graphique. Ils n’étaient détenus que par des universités ou des compagnies importantes pouvant réaliser de la recherche. C'est pourquoi les premiers Hypertextes à voir le jour près de 30 ans après leur création imaginaire (Textnet, Notecards de Xerox fin 1970, ZOG de l'université Carnegie-Melton, 1977) se caractérisaient tous par une approche expérimentale plutôt confidentielle. Les possibilités ouvertes aux hypertextes n’étaient alors guère plus que la définition de liens hiérarchisés dans un ensemble fermé de documents textuels. Il est d’ailleurs utile de signaler ici que les premiers travaux sur les textes que j’ai menés dans les années 70 se faisaient encore à partir de cartes perforées que l’on transportait par brassées. De même, le premier écran dont j’ai disposé (l’écran à cristaux liquides a été inventé en 1964 par Georges Helmeyer) en 1975, ne disposait que de deux lignes d’affichage et la mémoire centrale de mon ordinateur — un véritable investissement pourtant — n’était que de 16 ko.
La révolution technologique nécessaire au développement véritable des hypertextes puis des hypermédia fut, en 1971, l'apparition des micro-ordinateurs. Les hypermédia ont en effet dû attendre, pour être vraiment vulgarisés, l'apparition d'une technologie adéquate et en particulier, des micro-ordinateurs à affichage graphique (vidéo) et des périphériques d'entrée à manipulation directe du type de la souris (Engelbart 1963) ou des écrans tactiles. Or la diffusion publique de toutes ces innovations a demandé en fait une dizaine d’années.
Dix ans encore et le premier hypermédia à fonctionner sur micro-ordinateur fut GUIDE, sur un système d'exploitation UNIX. L'opération en était particulièrement lente et lourde mais le concept prenait vie. Le coup d'envoi aux hypermédia fut ensuite donné par la décision de la compagnie Apple, de fournir à chaque usager, à l'achat d'un micro-ordinateur Macintosh, une version du logiciel HyperCard créé en 1987 par Bill Atkinson et basé sur le langage HyperTalk, dérivé de Smalltalk. Pour la première fois en effet, Hypercard offrait de créer des liens non hiérarchiques, indépendants du contexte, parce que programmables et qui plus est, intégrait une gestion graphique des données ce qui permettait de s’affranchir des liens basés uniquement sur les textes.
Vous connaissez la suite.
De l’hypertexte à l’hypermonde
Le plus intéressant dans cette interaction dynamique productrice concepts-réalisations, est que toutes ces idées, tous ces travaux étaient en fait pilotés par un changement qualitatif — mais non encore complètement théorisé — considérable dans la façon humaine de concevoir l’information. Les actes de ce colloque sont à cet égard représentatifs parce que — des jeux vidéos, à la création artistique, en passant par les technologies d’enseignement — ils touchent à tous les domaines de la construction humaine d’information et de connaissances, ceci non parce que ces domaines sont en soi générateurs de confusion mais parce que les problématiques abordées sont celles, générales de ce que, pour aller vite, j’appellerai l’hypermonde. Je pense ainsi que ces problématiques ne peuvent que prendre encore plus d’importance dans les années à venir.
C’est de cela dont je voudrais maintenant dire un mot pour essayer de montrer quels sont les travaux qui, à mon sens, vous attendent, vous et vos successeurs.
Dans « Les trois écritures » ouvrage sous-titré « langue, nombre, code » (Gallimard 2007) Clarisse Herrenschmidt démontre qu’il y a trois grandes étapes repérables dans le traitement symbolique des langues — alphabets, nombres, digitalisation — qui permettent chacune un saut qualitatif irréversible du traitement humain des informations et de la transmission des savoirs. Ces étapes semblent respecter des cycles de 2500 ans comme si l’humanité avait besoin de ce laps de temps considérable pour aller jusqu’au bout de l’exploitation de leurs conséquences, comme s’il fallait au cerveau humain tout ce temps pour se réadapter à un nouvel environnement cognitif qui bouleverse complètement ses rapports au monde : apparition de l’écriture vers 3000 av JC, invention de la monnaie et donc du calcul, expansion des nombres vers 600 av JC, invention de l’informatique entre 1936 et 1948.
Pour elle donc, l’invention de la microinformatique est, à son tour, un pas décisif que l’humanité accomplit dans le traitement et la transmission des informations. Je ne peux que lui donner raison, mais, il me semble, situation qu’elle ne prend pas en compte, que les Hypertextes et les hypermédias sont au centre même de ce nouvel apport essentiel notamment parce qu’ils ne font que préfigurer aujourd’hui ce que j’appelle un hypermonde, c’est-à-dire un monde de convergence technologique où toute information de n’importe quel instrument producteur, transformateur ou conservateur d’information peut-être instantanément mis en relation avec n’importe quelle autre, un monde où des téléphones portables aux caméras de vidéosurveillance, toute information, qu’elle soit textuelle, sonore ou visuelle, est en interaction permanente avec l’ensemble des autres, une information réticulaire, un monde d’inscription généralisée, quelque chose comme un immense hyperréseau mondialisé dont tous les points formeraient autant de nœuds d’information possible où, selon Joseph Licklider, tendrait à se réaliser la symbiose informationnelle homme-ordinateur.
Si nous n’y sommes pas encore tout à fait parvenus, nous y allons, en approchons à grands pas et il est en tous cas de plus en plus évident que c’est la situation vers laquelle — avec ses multiples avantages et ses inconvénients — tend la culture contemporaine la plus avancée.
Or Douglas Hofstader, dans Ma Thémagie (Paris, Interéditions, 1988) fait à ce sujet remarquer que tout mode d’écriture, tout dispositif d’archive qui favorise « l’établissement de connexions par la bande, sans rien devoir à la causalité », qui rend plus manifeste, pour chaque idée énoncée, chaque proposition narrative formulée, le fait d’être « entourées d’un amas, d’un halo de variantes d’elles-mêmes, qui peuvent être suggérées par le glissement [la traduction] d’un quelconque des innombrables traits qui les caractérisent », et qui est au centre de la notion de pensée, tout dispositif de ce type peut aujourd’hui être exploré, expérimenté . Cela est d’autant plus important que cette possibilité technique change, transforme, les rapports de vitesse et de lenteur tout le long des échelles des pratiques d’écriture et lecture, ainsi que des pratiques cognitives : écrire au temps des hypermédias n’est plus écrire au temps du livre triomphant et ce mode « d’écriture » — que je préfère à ce niveau désigner sous le terme plus large « d’engrammation » — reste pour nous en grande partie à inventer.
Nombre d’artistes contemporains nous suggèrent quelques pistes pour ces « nouvelles modalités d’engrammation ». L’art en effet s’intègre aujourd’hui à ses environnements comme système communicationnel à part entière : de la génération automatique de textes littéraires à l’installation publique d’un roman génératif et interactif urbain, aux espaces artistiques réactifs immersifs ou non, les pratiques anticipatrices contemporaines des artistes nous proposent quelques exemples significatifs. Les technologies numériques bouleversent en effet désormais tous les territoires de la création artistique et ouvrent un ensemble de possibilités nouvelles d’expression qui sont encore loin d’être toutes explorées. Les artistes prennent ainsi en compte les profonds changements de rapports dans les structures cognitives : sans renier les précédentes, l’humanité s’invente une façon nouvelle de communiquer et d’être.
Comme le notent Deleuze G. et Guattari F., dans 1000 Plateaux ces changements de rapports supposent de prendre appui sur une conception radicale de la sémantique et de la sémiotique selon laquelle « la fonction langage… n’est ni informative, ni communicative ; elle ne renvoie ni à une information signifiante, ni à une communication intersubjective. Et il ne servirait à rien d’abstraire une signifiance hors information, ou une subjectivité hors communication. Car c’est le procès de subjectivation et le mouvement de signifiance qui renvoient à des régimes de signes ou agencements collectifs. (…) la linguistique n’est rien en dehors de la pragmatique (sémiotique ou politique) qui définit l’effectuation de la condition du langage et l’usage des éléments de la langue » .
Et ils ajoutent plus loin :
« L’unité réelle minima, ce n’est pas le mot, ni l’idée ou le concept, ni le signifiant mais l’agencement. C’est toujours un agencement qui produit les énoncés. Les énoncés n’ont pas pour cause un sujet qui agirait comme sujet d’énonciation pas plus qu’ils ne se rapportent à des sujets comme sujets d’énoncé. L’énoncé est le produit d’un agencement toujours collectif qui met en jeu en nous et dehors de nous des populations, des multiplicités, des tentations, des devenirs, des affects, des évènements. » J’ajouterai des relations et des associations.
Cette conception nous renvoie à une conception sémantique particulière, celle qui est sous-jacente à la plupart de vos travaux sur l’hypertexte, conçue comme débat incessant entre décontextualisation et recontextualisation où le sens ne peut jamais se déduire des pures données linguistiques ou iconiques mais se renouvelle, se ressource sans cesse dans une production dynamique de contextes, où il est en reconstruction permanente. Questions de subjectivité, de contexte, de sémantique et de sémiotique…
De nombreux travaux ont déjà souligné les aspects positifs et les aspects négatifs d’une telle situation. D’un côté la serendipité qui met en avant la faculté « bondissante » du cerveau humain, son extraordinaire capacité d’association qui lui permet de trouver ce qu’il ne cherchait pas ou de trouver ce qu’il cherchait de façon inattendue, en quelque sorte de stimuler sans cesse sa créativité ; de l’autre les risques de surcharge (mais quand le cerveau humain est-il vraiment surchargé ?) ou d’égarement, ce que j’appellerai le syndrome du labyrinthe. Le poète politique allemand, Daniel Caspar Von Lohenstein, né en 1635 et mort en 1683 anticipait déjà en 1676 une réponse à cette crainte dans son Inscription pour un labyrinthe: « Combien vous vous trompez, mortels, en voyant dans ce trompeur édifice une tromperie qui veut vous égarer (…) Qui erre raisonnablement à travers l’édifice, celui-là trouvera le chemin de son salut, le fil conducteur de la vérité ». Errer raisonnablement, cela veut dire errer avec raison, en gardant raison, mais aussi errer dans la raison, à travers les raisons apparentes. Le labyrinthe est une métaphore, c’est-à-dire un moyen de déplacement, rien de plus mais rien de moins. Il faut se servir du labyrinthe pour en sortir. Le labyrinthe est à la fois une carte et un territoire. Il tient des deux natures, les hybride et les conjugue. C’est un espace intermédiaire, médiateur, entre le plan et la trajectoire. Il est l’occasion d’exercer notre sagacité et notre volonté. Le labyrinthe doit être vaincu et non pas simplement contemplé. Il ne peut rester un simple objet de parcours, il doit être une véritable épreuve d’intelligence, lieu et occasion d’une transformation. Il ne faut donc pas se limiter à la dimension spatiale ou architectonique du labyrinthe mais aussi en apprécier la dimension formelle et intelligible, nous incitant à passer de la confusion au plan et du plan à l’acte. Cette dimension créatrice du labyrinthe, jadis mythique, doit se comprendre dans le contexte des mondes virtuels comme la quête nécessaire d’une autre intelligibilité, d’une nouvelle démarche d’engrammation du monde. Cette démarche que Simondon appelle transduction, terme créé par Piaget en 1925, utilisé depuis 1952 en biologie moléculaire, est «dans le domaine du savoir… la démarche même de l'invention qui n'est ni déductive ni inductive mais transductive, c'est-à-dire qui correspond à une découverte des dimensions selon laquelle une problématique peut être définie ; elle est l'opération analogique dans ce qu'elle a de valide» .
Ce qui est alors en jeu ce sont les problèmes du sens dans l’hypermonde : un monde d’objets de toute nature informative interconnectés, porteurs d’une information dynamique, mouvante et toujours totalement accessible en chacun de ses points. Chacun y est producteur d’information, producteur passif (inconscient) mais aussi actif (conscient et en mesure d’influer sur les informations produites en dehors de lui) et, comme dans les surgénérateurs nucléaires, ces informations sont sans cesse réactivées, réactivables, surgénérées par les contextes qui les englobent. Ce qui n’est pas sans poser quantité de problèmes techniques : liberté-contrôle, autorité-indépendance, associativité-unicité, automatismes-maîtrise, actions-interactions, contextualisation-décontextualisation, adaptativité-intégrité, etc. Il va donc désormais falloir apprendre à penser à la fois le mobile, le flou, l’incertain, le proche et le lointain.
Ces aspects à la fois techniques, culturels, sociaux, économiques, cognitifs, que vous abordez en partie dans ce colloque, ne sont pour l’instant encore qu’à l’état d’esquisse. Or c’est cette situation ouverte, ouverte au questionnement, à la recherche, à la créativité qu’il me semble falloir aujourd’hui penser, pour laquelle doivent être construits de nouveaux instruments tant techniques que cognitifs.
Je crains en effet que le changement de paradigme entre l’hypertexte, tel qu’imaginé il y a quarante ans, et l’hypermonde qui se profile, mais dont l’imaginaire a été rendu possible par l’avancée des travaux sur l’hypertexte, n’exige autant de recherche et de développements que ceux auxquels nous assistons depuis bientôt un demi-siècle.