Le continent inhumain

Referent e-journal: 

1822 : Charles Babbage et Ada Lovelace dessinent et construisent The Difference Engine afin de résoudre l’inexactitude des tables à calculer qui, préparées par des calculateurs (des « computers »), sont, bien sûr, truffées d’erreurs. Voici, nous suggère cette invention, que la masse d’informations qui doit être traitée pour répondre aux besoins politiques et économiques augmente à une vitesse telle que la cognition n’est plus capable d’en faire la somme. Avec l’industrialisation naissante, l’information devient à la fois une denrée primordiale, une source potentielle de richesse et une menace importante. Ne pas pouvoir traiter efficacement l’information peut être catastrophique. Peu de temps après, Herman Hollerith se trouve lui aussi face à un grave problème de traitement de l’information. Travaillant au recensement américain, il s’aperçoit assez rapidement que gérer les données en un tout cohérent requiert un temps de plus en plus important qui, bientôt, dépassera les dix ans qui séparent un recensement de l’autre (le recensement de 1880 prend sept ans avant d’être complété). Il cherche alors une manière de traiter l’information de façon mécanique. Il invente les cartes perforées ce qui permettra, en trois mois, de faire la somme des données recueillies lors du recensement de 1890.

 

Depuis le 19e siècle, la civilisation humaine s’est donc mise à produire tant d’informations qu’il est rapidement devenu impossible d’en retenir l’essentiel. Aujourd’hui, nous n’arrivons même pas à tracer un portrait de ce qu’est véritablement l’humanité, tellement la mémoire qui la compose nous échappe.

 

« Comment, ainsi, avoir une mémoire sans souvenir ? »

 

Nous vivons dans un monde où l’information est si présente, si prenante, si immiscée dans tous les domaines de l’activité humaine, que nous n’arrivons plus à distinguer l’interne de l’externe, le réel social du réel personnel. La mémoire est si transformée que nous confondons images médiatiques (le jeune homme devant le tank sur la place Tiannemen, l’effondrement des tours du World Trade Center) et souvenirs personnels. Il faut donc repenser la façon dont nous produisons, gérons et traitons l’information. Mais surtout, il faut repenser la façon dont nous la présentons, dont nous la rendons accessible. Peut-on lui donner une forme plus intuitive qui se prêtera mieux à sa rétention et à sa compréhension? Peut-on lui donner une forme qui sera plus adaptée à la cognition humaine, une forme qui en permettra une saisie globale et stratégique? Comment convertir la base de données en représentations, en histoire, en narration? Comment la rendre utile, intéressante et nécessaire tout en y insérant l’oubli, l’effacement, la perte, tout en permettant à la mémoire et aux souvenirs de s’en emparer? Comment insérer des souvenirs dans la mémoire machine, comment faire de cette mémoire une matière souvenirs ?

 

Nous avons récemment cherché à répondre à ces questions. C’est le défi que nous nous sommes lancés dans le cadre du Continent Inhumain. Ce projet, issu de la collaboration d’Ollivier Dyens, David Johnston et Valérie Cools de l’Université Concordia, de Dominic Forest de l’Université de Montréal, de Patric Mondou de l’Université du Québec à Montréal et du laboratoire NT2 de l’UQAM, se veut une réponse possible à ce questionnement qui s’est manifesté chez Ollivier à la suite de la publication de La condition inhumaine. C’est le contexte de la posthumanité qui a inspiré nos premières discussions, puisque nous y trouvons, dans le fond (avec la nécessité de repenser et redéfinir l’humain face aux données des sciences et des technologies) et la forme (en raison de  la quantité infinie d’informations sur le sujet), une matière propice à notre réflexion. C’est donc aussi la posthumanité qui a inspiré les bases esthétiques et conceptuelles du projet, car la représentation visuelle d’un tel sujet présente en elle-même un défi. Comment offrir une visualisation de questions, de défis et d’enjeux ? Comment rendre intuitive la navigation d’une quantité presque infinie d’informations ? Comment y insérer l’oubli ? Il nous est apparu évident que la clé de l’énigme se situait dans la recherche d’une métaphore efficace. Enfin, nous nous sommes décidés à créer une carte de ce phénomène.

 

L’étouffement informationnel que nous ressentons est aussi notre incapacité à créer des cartes cognitives (comme l’a suggéré Fredric Jameson). Nous ne savons plus où sont l’humain, ses cultures, ses civilisations. Où se trouvent le réel, le naturel, l’organique. Nous nous sommes permis d’imaginer à quoi ressemblerait la carte d’un tel phénomène, mais le défi a été de taille : nous ne sommes plus capables d’imaginer le territoire de ce que nous sommes (car nous n’en avons plus de souvenirs) et la géographie de ce que nous avons transformé, manipulé, dénaturé. Notre projet a donc consisté à créer un prototype d’environnement, un espace d’exploration d’information tant fonctionnel qu’amusant, facilement accessible via Internet et dont le contenu serait traité non pas par l’homme (subjectif), mais par la machine (objective). Une carte géographique illustre l’espace qui nous entoure. Il s’agit d’un point de référence évident de notre environnement; une façon bien simple d’induire des repères géographiques et d’offrir une connaissance.

 

Le domaine de la représentation et de la visualisation de l’information est, depuis quelques années, un territoire de recherche très actif dont les retombées se font de plus en plus remarquer (Card et al., 1999; Chen, 1999; Don et al., 2007; Spence, 2007). Malgré la fécondité des travaux réalisés, on constate cependant que très peu de projets liés à l’analyse de textes littéraires ou théoriques ont su intégrer avec succès les progrès réalisés dans le domaine de la visualisation de l’information. L’idée d’imaginer ce projet en tant que carte géographique et non en tant que schéma traditionnel suggère un nouveau point de vue et propose des pistes différentes. L’objectif de notre projet n’est pas de permettre aux internautes de trouver une information précise relative au posthumain ; la recherche par mot clé sera toujours l’outil le plus efficace pour le faire. L’objectif est plutôt de leur permettre de s’approprier le sujet, de s’immerger dans la posthumanité et d’y attacher des souvenirs précis. En outre, le Continent inhumain que nous avons entrepris de créer est un outil non pas de recherche d’information, mais d’exploration de l’information, qui permet à un internaute de réellement naviguer dans un corpus de textes traitant de la posthumanité.

 

De tous les territoires susceptibles de représenter la posthumanité, l’Antarctique est ainsi le plus approprié : il est peu connu et peu reconnu puisque nous l’associons souvent à une lisière blanche au bas d’un planisphère. Hormis son désert de glace, nous connaissons peu cet étrange continent. Sa découverte, en 1820, soulève la controverse puisque Russes, Anglais et Américains s’en arrachent encore les honneurs. Par conséquent, il s’agit d’un territoire qui ne peut être corrompu par quelque information associée à une géographie transformée ou dénaturée, une problématique soulevée précédemment. Il est donc plus facile de présenter l’Antarctique comme un territoire nouveau, mais familier. Vient renforcer cet atout, l’idée que ce soit un lieu physique bel et bien réel. L’Antarctique possède un territoire suffisamment vaste, circonscrit par les mers et politiquement neutre. Ces caractéristiques en font le symbole idéal pour notre mappemonde du posthumain; une sorte de nouveau continent inexploré, de Nouveau Monde du 21e siècle.

 

Pour produire cette carte, aucun outil ne serait à la fois plus efficace et plus ironique que Google Earth, le jouet cartographique issu d’une entreprise dont le flux d’informations dépasse l’entendement. De plus, l’Antarctique dans Google Earth permet d’éviter la pollution par l’information (ou sur-information !) qu’occasionnerait l’usage d’un territoire peuplé. Dans une application GE, il est impossible de cacher les couches géopolitiques, commerciales et sociales qu’un utilisateur a précédemment choisi d’afficher. Si les données de notre projet devaient être juxtaposées aux noms des régions, villes et boulevards de l’Amérique du Nord, un chaos informationnel aurait été inévitable.

 

Nous avons donc découpé le territoire vierge en régions ou en états, définissant du même coup quatre grandes catégories dans les textes du corpus : biologie, technologie, philosophie et littérature. Grâce à un travail rigoureux de classement algorithmique itératif, nous avons obtenu deux sous niveaux (des provinces ?) liés à des thèmes bien précis. La surface de ces régions contient quant à elle l’ensemble des textes et des articles filtrés par les algorithmes. L’interacteur peut ainsi zoomer sur une région et explorer les textes d’un thème en particulier. S’il le veut, il peut également errer au niveau du sol et lire des textes à tout hasard, se réservant la surprise de découvrir à quelle catégorie un texte appartient. Lorsqu’il rencontre un texte (représenté par un icône sur la surface du territoire), l’interacteur peut en lire l’amorce ou cliquer sur un hyperlien afin de lire le texte complet sur Internet.

 

Il était primordial que la catégorisation des textes du corpus soit produite par des algorithmes. Ne pouvant nous fier à notre mémoire et à notre connaissance de l’humanité pour classifier et présenter l’information la composant, nous avons fait en sorte que cette étape soit réalisée par un parti neutre et arbitraire, mais tout-à-fait paramétrable, soit l’ordinateur. L’ordinateur d’aujourd’hui a une capacité de calcul inimaginable et il s’agit d’une tâche qui peut (qui doit) lui être confiée.

 

« You shouldn’t have to put files in directories. The directories should reach out and take them » , disait David Delernter à propos des méthodes de classification informatique. C’est exactement ce que nous avons cherché à faire.

 

La classification automatique de notre corpus relativement restreint (moins de 1000 textes) a été effectuée en deux grandes étapes : le traitement et la visualisation. D’abord, le traitement algorithmique itératif a été réalisé selon une méthodologie développée par Dominic Forest relevant de la fouille de texte (text mining) et consiste à regrouper les textes par proximité lexicale (clustering). Par des techniques statistiques et linguistiques, l’algorithme parvient à calculer la proximité des textes les uns par rapport aux autres et à assigner à chaque groupe un certain nombre de sujets tirés des textes qu’il contient. En appliquant ces algorithmes itérativement, nous obtenons des sous niveaux : des sous groupes contenant leurs propres sujets. 

 
 

La deuxième étape a été réalisée grâce à un simple script PHP (un langage de programmation interprété directement par les serveurs Web) et consistait à positionner l’information convenablement sur la surface du territoire du Continent inhumain. Les quatre territoires initiaux étant connus (biologie, technologie, philosophie et littérature), ils ont pu être placés arbitrairement. Malheureusement, ce n’était pas le cas de tous les sous niveaux découlant des algorithmes de l’étape précédente. Ce script PHP s’assure donc de la proximité de deux nœuds d’informations (groupes ou sous groupes) avant d’écrire définitivement les balises qui constituent la page de code interprétée par Google Earth. L’outil de visualisation résultant permet aux interacteurs qui ne connaissent rien au posthumain de s’initier très rapidement au sujet et d’obtenir à la fois une vue d’ensemble et des exemples précis de problématiques ou de sujets touchant le posthumain. Il permet aussi aux plus savants de découvrir de nouveaux textes.

 

Notre exercice de visualisation des données sur le posthumain a pu profiter pleinement des propriétés du logiciel Google Earth : distribution pyramidale de l’information grâce au zoom, à l’utilisation d’images comme de textes, à l’automatisation de la visualisation à l’aide de simples algorithmes écrits en langages serveurs, etc. Le langage balisé utilisé par Google offre des possibilités presque infinies d’intégration de données grâce à plusieurs méthodes de connexion, en temps réel ou différé, à des bases de données situées sur des serveurs distants. Il nous permettra donc éventuellement de produire une visualisation d’informations constamment remises à jour. Il sera même possible d’intégrer des flux de données provenant de divers fils RSS. Nos efforts dans les mois à venir seront orientés vers la réutilisation des principes que nous avons étudiés dans une optique d’intégration à grande échelle ; nous utilisons un corpus de moins de 1000 textes alors que le mot « humain » dans le moteur de recherche de Google retourne un peu plus de 22 millions de résultats. Bien que le Continent inhumain soit un prototype, les possibilités communicatives qu’il présente ouvrent la voie vers de nouveaux projets, dont l’exploration de différentes métaphores, de nouveaux thèmes et de récits interactifs.

 

Références

 

Card, S. K., Mackinlay, J. et Shneiderman, B. (1999). Readings in Information Visualization: Using Vision to Think. Morgan Kaufmann.

 

Chen, C. (1999). Information Visualisation and Virtual Environments. New York : Springer-Verlag.

 

Don, A., Zheleva, E., Gregory, M., Tarkan, S., Auvil, L., Clement, T., Shneiderman, B. et Plaisant, C. (2007). Discovering Interesting Usage Patterns in Text Collections: Integrating Text Mining with Visualization. Rapport technique HCIL-2007-08, Human-Computer Interaction lab, University of Maryland.

 

Dyens, Ollivier (2008). La condition inhumaine : Essai sur l’effroi technologique. Flammarion.

 

Forest, Dominic (2006), Application de techniques de forage de textes de nature prédictive et exploratoire à des fins de gestion et d’analyse thématique de documents textuels non structurés, thèse de doctorat, Montréal, Université du Québec à Montréal.

 

Gelernter, David (2000), The Second Coming, a Manifesto, www.edge.org.

 

Jameson, Fredric. (1991). Postmodernism, or, The cultural Logic of Late Capitalism. Duke University Press.

 

Spence, R. (2007). Information Visualization: Design for Interaction. Prentice Hall.