LA VIRTUALITÉ DU NUMÉRIQUE COMME MODE D’APPRÉHENSION DU RÉEL
Mémoire de fin d’études d’Isabelle Arvers
Institut d’Etudes Politiques, Aix en Provence, 1995
Introduction
” Nous ne pensons pas le virtuel, c’est le virtuel qui nous pense” ?
Jean Baudrillard
Dans son sens premier, le virtuel (du latin virtus : vertu) désigne ce qui est en puissance, à l’état de simple possibilité. La virtualité est le caractère de ce qui est virtuel. Ce terme apparait vers le dix-septième siècle dans la scholastique, c’est-à-dire la philosophie et la théologie. Le virtuel correspond au potentiel ou au possible. Terme fréquemment utilisé en physique, il s’oppose à l’actuel – ce qui est en acte et qui forme le présent – , et non au réel, comme on aurait trop souvent tendance à le croire. Le virtuel n’équivaut pas à quelque chose d’irréel ou d’imaginaire, puisque c’est un mode d’être en puissance, en passe d’être réel. Gilles Deleuze, penseur français contemporain a parfaitement défini ce concept dans Différences et Répétition : “Le virtuel possède une pleine réalité, en tant que virtuel.” Il n’y a donc là, rien de faux ni d’illusoire. La virtualité de l’arbre est dans la graine…
Le virtuel est aussi un terme du domaine informatique.
L’image d’un ordinateur est dite virtuelle, par exemple, car elle apparaît fonctionnellement à l’utilisateur, mais indépendamment d’une structure physique .Elle n’a en effet, pas de matérialité propre ; l’ordinateur éteind, l’image n’existe plus, si ce n’est virtuellement dans le programme informatique qui la génère. Par extension, tout ce qui émane d’un ordinateur est considéré comme virtuel. Il existe aujourd’hui des “mondes virtuels”, des “environnements synthétiques multi-sensoriels” appelés encore “cyberspace”. Un monde virtuel ou la réalité virtuelle (RV) peut se définir comme une base de données graphiques interactives, dans lesquelles on peut s’immerger, par une visualisation et une exploration en temps réel d’images de synthèse tridimensionnelles. L’image de synthèse est construite sur une suite de 0 et de 1 qui donnent des coordonnées à des points : les pixels. Elle est générée en temps réel, par un programme construit sur un modèle logico-mathématique. L’ordinateur organisé en réseau voit se créer des “communautés virtuelles”, de personnes du monde entier se connectant au réseau et communicant entre elles dans des forums publics “synthétiques”, représentées sous forme de clones (sortes de double informatique). Cela implique des notions nouvelles comme la télé-virtualité, les visio-conférences, où l’individu est rendu virtuellement présent grâce à l’interface de l’ordinateur.
Le numérique s’inscrit dans le mode virtuel de l’appréhension de la réalité. L’image, le son, la personne, existent virtuellement sur l’écran mais pas physiquement. Tout ce qui est est numérisable semble se virtualiser, avec l’usage de l’ordinateur. Il en découle un nouveau mode d’être au réel qui implique bon nombre de conséquences pour l’être humain : éthiques, philosophiques, politiques… Il ne sera pas fait état des aspects purement techniques de ces nouvelles technologies, ni des conséquences sociologiques qu’il est encore difficile de déterminer. Il s’agira plutôt de définir les axes possibles d’évolution de cette culture en émergence, dans une étude des rapports entre l’homme, les ordinateurs, et toutes les technologies numériques qui en découlent. Cela, sans chercher à porter un jugement définitif sur les changements qui sont en cours ; ce serait sinon se fourvoyer dans une prédiction incertaine du futur.
L’usage du numérique n’est pas encore totalement généralisé, les études sociologiques à ce sujet sont donc impossibles. Il existe d’ailleurs assez peu d’ouvrages en France, si ce n’est pour proposer des utopies négativistes, ou positivistes face au prochain millénaire. C’est là que réside la difficulté majeure de cette étude. D’autre part, analyser la virtualité du numérique comme mode d’appréhension du réel, c’est se mettre dans la position de l’épistémologue. C’est à dire empreinter des connaissances à toutes les sciences afin d’avoir une vision globale du réel, de l’humain, de la technique…
Le numérique ou le “virtuel”, fait l’objet de grands débats depuis près de trente ans. Il a ses détracteurs et ses adeptes, mais tous se retrouvent pour affirmer qu’une grande mutation est en cours. L’objet de ce mémoire sera donc de tenter de comprendre et d’entrevoir les évolutions possibles de ce nouveau mode d’être pour l’humanité. Dans une première partie, il sera fait état de la virtualisation du corps par le numérique. Ces techniques s’introduisent dans le corps humain, le simulent et se font omniprésentes dans la vie quotidienne. La représentation du corps s’en trouve transformée et à cela s’ajoute un phénomène plus récent : la possible virtualisation de la perception du monde par la Réalité Virtuelle. Dès lors, c’est la personne elle-même qui se virtualise car sa présence se transforme en représentation. Le corps apparaît comme amoindri, sa force n’est plus utilisée mais peut être simulée, dans la relation à autrui.
La seconde partie en est la conséquence : de cette perception du monde perturbée, découle une intellection du réel nouvelle. Le numérique transforme le statut de l’image, celle-ci devient langage et permet de nouveaux modes de connaissances. Enfin sera envisagée la pensée à l’ère du numérique. Dégagée d’un corps trop lourd, il est possible d’envisager que le numérique lui permettra de se déployer, plus libre et plus efficiente face à la compléxification de la réalité.
Partie I
Virtualisation du corps par le numérique
Chapitre 1
Le corps et le numérique
L’ordinateur apparaît dans la deuxième moitié du XXème siècle. Avec une capacité élevée de computation et de mémoire il est destiné au départ, à faciliter le raisonnement. Dans les années 60, est inventé le microprocesseur qui donne le jour aux ordinateurs personnels. Leurs applications sont multiples. A cela s’ajoute le logiciel qui permet une utilisation simple et conviviale de l’ordinateur. Depuis, son utilité s’avère presque indispensable dans bien des domaines de création et de production. Entré dans nos vies, il y a maintenant peu de retour en arrière possible.
La technique se rapproche du corps et il en découle une perception du monde différente…
Section I : Une symbiose nouvelle : l’Homme-machine
Lors de la “révolution industrielle”, le rapport Homme/Technique s’est vu modifié. De prolongement du geste qu’était la machine, l’électricité et les technologies qui en émanent se sont peu à peu substituées à la force physique. En cette fin de siècle, ce rapport opère une profonde mutation, car si l’homme a réussi à vaincre les contraintes de la Nature, il se voit aujourd’hui entouré de ce que l’on pourrait appeler une “techno-sphère” .
§1 Intrusion de la technique dans le corps
La technologie s’infiltre dans nos vies et jusque dans nos corps. Aujourd’hui, “ce n’est plus d’envoyer des technologies vers d’autres planètes mais de les faire atterrir sur notre corps” . Il s’agit bien là en effet de la conquête fondamentale du XXème siècle : l’homme vit deux fois plus vieux et se rend progressivement invulnérable à la maladie. Par quels effets ? La médecine a empreinté à la science et à l’industrie leurs découvertes et les a transposées au corps humain.
A – Les prothèses
En témoigne le marché florissant des prothèses : Albert Ducrocq , futurologue français, rapporte qu’en l’an 2000, celui-ci dépassera les 5 milliards de $. Pourtant, si à leurs débuts, ces transplantations se voyaient rejetées par nos cellules, le progrès des techno-sciences – conception assistée par ordinateur, imagerie médicale, synthétisation de la matière – permet aujourd’hui de grandes réussites dans ce type d’opérations. Et dans un étrange parcours du corps, on peut ainsi sursoire aux déficiences de la vue, de l’ouïe, à celle des muscles, des tissus et des os .
Les prothèses auditives sont devenues légères et invisibles dans l’équipement – pile et amplificateur compris – péritympanique qui prend place dans le conduit auditif. De même, les perspectives sont étonnantes en matière d’implants oculaires qui visent à remplacer progressivement nos lunettes par un cristallin artificiel. C’est d’ores et déjà le cas aux Etats-Unis pour les personnes âgées.
L’essor des hanches artificielles est spectaculaire : plus de 6 000 sont posées en France chaque année, leur espérance de vie augmentant grâce à l’utilisation d’un métal léger, le titane. On espère même que leur espérance de vie sera permanente pour le porteur lorsque l’on se servira du carbone carbone . Le genou artificiel a lui aussi été très vite adopté, il est posé en France à raison de 20 000 opérations chaque année, grâce à une conception moléculaire. Albert Ducrocq ajoute aussi que des ligaments artificiels sont fabriqués pour les sportifs afin de reprendre plus rapidement la compétition.
” Enfin l’industrie de l’os est née avec une panoplie de moyens allant de la matière minérale dure (céramique en phosphate de calcium) à l’emploi de coraux et plus généralement de supports poreux.”
Les applications de ces découvertes ont été rendues possibles grâce à l’ordinateur permettant de créer la prothèse sur mesure et personnalisée. Grâce à un scanner, on identifie la géométrie du moignon, donnée ensuite traitée par l’ordinateur pour simuler le mouvement et entrevoir la prothèse idéale pour une opération réussie.
Le coeur artificiel, simulant la fonction vitale des pulsations cardiaques est l’emblème de la réussite de ces implants. L’invalide remarche et le céciteux voit…
L’imagerie médicale permet encore d’aller au-delà, puisqu’elle parvient à la “modélisation suprême”, celle de l’être humain en atteignant l’infiniment petit : la molécule. La technologie assistée de l’ordinateur dépasse les frontières de notre incapacité à être et à agir. Formidable revanche que celle d’une technique séculairement considérée comme malfaisante pour l’humanité…
B – Interface corps/ordinateur
Une technologie s’infiltrant au sein même de notre corps ou l’entourant comme une prothèse externe, une enveloppe numérique où le corps est utilisé comme lien entre l’esprit et l’ordinateur. Lors d’Imagina 93, le salon des images de synthèses de Monte-Carlo, étaient présentées deux expériences rendant compte de l’état actuel des recherches en neuro-sciences. Dave Warner, spécialiste en bio-cybernétique au laboratoire médical de l’Université de Loma Lunda montre comment l’ordinateur tente d’améliorer la vie des handicapés.
On est capable aujourd’hui – par l’interface de capteurs sensoriels placés sur les yeux, les cils ou encore sur les muscles faciaux – de faire se mouvoir des objets dans un “cyberspace” ou encore d’induire des mouvements par le biais d’électrodes. La vidéo présente alors une quadriplégique s’amusant avec un ordinateur. Le jeu consiste à déplacer des objets sur l’écran en se servant uniquement du mouvement de son regard, c’est-à-dire de ses rétines grâce à une sorte de bandeau – casque virtuel interactif -. Ensuite, le cas d’un pianiste dont le cou est fracturé. Des électrodes reliées à des capteurs, placées sur son visage, sont envoyées dans ses bras et son cou afin de retrouver l’exercice de son art.
Ces technologies prennent directement leur source dans l’énergie du corps humain et proviennent de l’amélioration des moyens d’interactions de l’homme sur les environnements générés par les ordinateurs. En effet, les ordinateurs utilisent les signaux bio-électriques des muscles des yeux et même du cerveau. Pour ce spécialiste en biocybernétique, c’est une formidable révolution où la technologie s’adapte à l’être et non le contraire.
C – Interface esprit/ordinateur
Je pense et les objets bougent. est le titre d’un article du Financial Times, écrit par George Cole . Cet article fait état des recherches en matière de neurochirurgie, quant à la conception d’appareils susceptibles de fonctionner sous le contrôle des ondes cérébrales. C’est la base du “biofeedback”, méthode qui consiste à placer des électrodes sur le crâne d’un sujet à qui l’on a appris à déplacer un curseur sur un écran ou à déclencher des signaux sonores. Ces signaux sont triés avec une précision maximale de 90 %, mais “ces résultats sont encore insuffisants pour, par exemple, mettre en route un fauteuil roulant, regrette M. Pfurtscheller , pour y parvenir, il faudrait une précision parfaite.” Mais il estime que d’ici l’an 2000, la chaise roulante commandée mentalement sera tout à fait concevable. Pouvoir ainsi communiquer un état d’esprit à un ordinateur est une véritable révolution. En effet, cette symbiose nouvelle qui s’opère entre notre corps et la technique constitue une véritable coupure biologique.
§2 Pour quelle sélection
Ces progrès inquiètent cependant une grande part de penseurs, pour des questions d’éthique, mais aussi pour des problèmes de sélection.
A – Sélection naturelle, un nouvel eugénisme ?
“Coloniser une planète infiniment plus accessible, celle d’un corps sans âme, corps profane pour une science sans conscience”, menace Paul Virilio dans L’Art du Moteur. Le terme de colonisation, plutôt alarmiste, pousse en effet à réfléchir au-delà des bénéfices retirés pour l’humanité de ces recherches. Cette intrusion progressive de la technique dans la chair peut certes à l’avenir se révéler inquiétante.
Cette propension à remplacer l’élément défectueux n’est-elle pas à long terme néfaste ? Mais, l’état de la recherche scientifique n’en est pas arrivée au point de dépasser les applications médicales, cela dénoterait sinon quelques dérapages. Et les scientifiques ont encore une conscience.
Par contre, cette interface nouvelle entre l’esprit et l’ordinateur place l’homme au-dessus du déterminisme des lois naturelles puisqu’il pallie aux handicaps les plus irréversibles. Le darwinisme qui pense l’évolution de l’espèce humaine soumise à la sélection naturelle est de plus en plus controversée. Il faut donc envisager l’homme au travers d’une évolution dégagée du déterminisme et au sein d’une techno-sphère. “Nous sommes devenus, grâce aux progrès scientifiques, radicalement contingents. Dès lors, rien dans une optique scientifique ne nous attache à la terre, ne nous attache nécessairement à notre espèce. C’est dans ce contexte qu’il faut comprendre l’extraordinaire triomphe de la biomédecine – qui est d’ailleurs repris par l’économie de marché – et qui nous trouve singulièrement désemparés, car nous avons neutralisé nos repères “terriens” et nos repères “d’espèces” écrit le juriste Bernard Edelman.
Cette interprétation du processus d’intrusion de la technique en notre sein est très alarmiste. En effet, si l’on poursuit ce raisonnement, on peut y trouver des conséquenses désastreuses pour l’humanité. Telles les mutations génétiques prévues par le professeur Thaler de l’université de Montpellier dont la pensée va à l’encontre d’un utilitarisme basé sur la diminution des souffrances. “On peut donc prévoir à long terme une relative dégénérescence de l’espèce humaine. Relative, car cette “non sélection” change peu les caractéristiques moyennes de la population humaine. Elle entraine surtout une disparité plus grande de caractères, à l’intérieur d’un certain cadre : celui qui permet à l’espèce d’être en équilibre avec son milieu.”
En effet, on a souvent accusé les antibiotiques d’avoir provoqué une diminution de nos défenses immunitaires en condamnant un corps désemparé, à ne plus savoir se défendre. L’apparition des maladies microbiennes et génétiques est d’ailleurs apparentée à l’usage de l’antibiotique. Il n’est pas rare d’entendre aussi que les maladies microbiennes, le syndrome du sida, proviennent de cette utilisation intensive de l’antibiotique. Pourquoi ne pas croire alors que ce processus amorcé opérera un tournant radical avec les technosciences et, qu’ainsi, notre corps n’aura plus aucun moyen de générer des anticorps, voire même des cellules, ni une énergie défensive contre les agressions de son environnement ?
Dégénérescence, malformations génétiques, voilà une perspective bien pessimiste qui rappelle fort les accusations ancestrales d’une société rétrograde contre la science.
B – Vers une sélection des plus faibles
Les risques en terme de sélection, dus aux progrès de la génétique peuvent être d’une autre sorte : ” le projet d’analyse complète du gênome humain se met en place aux Etats-Unis et en Europe.”, annonce Thierry Damerval. Cela est, en effet, désormais possible par une visualisation et une matérialisation que permettent l’association du laser, du scanner, et de l’informatique. On peut d’ores et déjà, grâce à la simulation, repérer une maladie génétique et déterminer son évolution. Le problème qui reste encore sans réponse est son traitement. Deux solutions sont possibles en matière de médecine prédictive (c’est-à-dire préalable) : prendre en charge le traitement ou, prendre la décision de “… l’avortement thérapeutique et l’élimination des sujets porteurs de l’anomalie…”. Ce qui reviendrait à tuer le futur enfant.
C’est très grave, car ces démarches, reprises par des nécessités économiques, pourraient bien aboutir aussi, à l’émergence d’un “passeport génétique” visant à énumérer les risques et potentialités d’un sujet dans son développement scolaire puis professionnel. Si cette logique était poussée à bout, cela équivaudrait à un “eugénisme démocratique” et ce, dans une optique de meilleure viabilité du groupe par l’élimination des plus faibles génétiquement.
De la simple observation du corps humain, les scientifiques en sont arrivés à une manipulation, qui doit de toute urgence s’insérer dans un cadre légal. Les craintes sont donc fondées et les risques de dérapages aussi, car il existe des nécessités économiques et politiques perverses, qui pourraient bien détourner le savoir de son cadre de neutralité afin de procéder uniquement à des considérations utilitaristes. Le pouvoir de l’ordinateur procède de ses caractéristiques : vitesse de traitement de l’information qui fait passer la recherche à une application rapide, mais aussi capacité de mémoire énorme qui augmente le savoir du scientifique.
C – Le paradoxe de la recherche scientifique aidée du numérique
Surhomme détaché des contraintes de son milieu, ou sous-homme technoïde ? Il appartient au futur de donner une réponse et à la politique de se positionner sur le devenir de l’être humain.
L’apparition de l’informatique a permis la vitesse croissante des recherches et de leurs applications. Une prospection à travers l’être humain est dès lors accessible, du fait des applications médicales. Les techniques qui procèdent du numérique ont permis de sauter un grand pas dans le domaine médical pour la compréhension de l’être humain.
Simuler l’organisme vivant permet les applications scientifiques de manipulation de l’être. Elles parviennent à remplacer notre “matière” défectueuse ou à pallier à ses manques. L’intérieur du corps est visible, on a abouti à la modélisation suprême : celle de l’homme. On sait presque “réparer” un homme en le considérant fait de “pièces détachables et interchangeables.”
L’essor technologique donne-t-il, ou rend-il une foi déjà endommagée pour le progrès technique ? Il a en effet subi un large discrédit du fait des deux dernières guerres. Comme le montre George Steiner dans Le Château de Barbe-Bleue, l’horreur a atteint un tel seuil que la notion de mort s’en est trouvée banalisée et que l’on a fort critiqué la science de ce fait. Aussi le paradoxe qui consiste à résoudre nos handicaps par la technique alors qu’elle-même les a créés, provient de cette profonde contradiction qui se cristallise dans le virtuel. Car notre corps, en tant que matière, se virtualise, s’emplit de technique, aujourd’hui pour répondre à un besoin de santé, mais demain ?
Le corps humain se retrouve “numérisé”, pour le meilleur et pour le pire, dans son enveloppe charnelle. Notre vision du corps s’en trouve transformée : sommes-nous en effet reproductibles artificiellement ? Que nous reste-t-il encore à inventer avant “l’homme bionique” ? Le virtuel fait ressurgir le vieux mythe de Faust qui, de Prométhée au Frankenstein de Mary Shelley, invoque la création de l’homme par la raison.
§3 Des télécommunications dans la tête…
L’émergence d’un corps machine dans une société où tout est communication et réseau, n’est pas un leurre.
A – Les objets “nomades”
La technique atterit sur notre corps et l’entoure sans limite. Elle envahit notre espace, et de plus en plus d’aspects de la vie quotidienne en dépendent. Car notre fin de siècle est dominée par le tout communication, quand et où l’on veut. Notre impératif de dépassement de contraintes de temps et de distance, transparaît dans chaque usage des techniques du numérique.
Aussi, celles-ci deviennent-elles “nomades”, et se déplacent avec nous. Ici, nous faisons référence à un article de Jacques Attali : L’avènement de la planète nomade, qui désigne par “objets nomades” tous les objets industriels portatifs comme le fax, le téléphone, les jeux vidéos, ” qui préparent l’individualisation des loisirs, puis de la pédagogie, du diagnostic, de la prévention et du traitement médical”
Individualisation et autonomie de mouvement, sont les principales contraintes actuelles du monde professionnel, dominé par la loi du “temps réel”, de la vitesse. Tous ces objets forment ou découlent des technologies du virtuel et nous entourent avec toujours plus de proximité (voir image wired).
B – Incrustation à même le corps
Une tendance nouvelle s’en dégage : ces nouvelles techniques vont bientôt elles aussi, se poser à même notre corps : ici l’on voit le téléphone-fax-montre portatif, créé par AT&T, compagnie américaine numéro 1 des télécommunications. L’an 2000 verra le jour avec des ordinateurs portatifs, que l’on portera même comme des vêtements. René Berger, grand ferru de ces nouvelles techniques, lors d’Imagina 93, n’hésitait d’ailleurs pas à parler d’ordinateurs invisibles insérés sous la peau… Ce rapprochement intense de la technologie laisse envisager les futurs les plus fous.
Grigore Burdea, a participé à nombre d’expériences menées par la NASA aux Etats-Unis, en collaboration avec Scott Fischer, l’inventeur du premier casque stéréoscopique de visualisation 3D. Voilà ce qu’il rapporte à ce sujet :
“L’accroissement drastique de la puissance des ordinateurs associé à leur miniaturisation permettront dans l’avenir d’avoir des moteurs de réalité virtuelle complètement portables. On pourrait alors les intégrer à des vêtements à retours sensitifs qui porteraient aussi la source d’énergie, ou à des bracelets montre. Des premières recherches sur les ordinateurs portables ont conduit au “Newton” d’Apple ou au “Zoomer” de Tandy (Coates, 1993). Ces “assistants numériques personnels” ou PDA (Personal Digital Assistant) qui travaillent avec de petites piles peuvent communiquer sans fil avec d’autres PDA ou d’autres calculateurs.”
La communication radio et la mise en réseaux permettra à plusieurs personnes ayant des PDA de partager le même environnement de réalité virtuelle (localement ou à distance). Dans l’avenir, on pense qu’ils pourraient être dotés de systèmes de visualisation 3D autorisant une pleine immersion dans la simulation. Ce sont donc des directions de recherche des plus sérieuses et dont il est important d’entrevoir les conséquences.
Section 2 : Quand le numérique “prend corps”
On a vu dans cette première partie que notre sensibilité proprioceptive (c’est-à-dire propre aux muscles, ligaments et os) se trouvait altérée par les technologies du numérique, dans ses applications médicales ou pour des nécessités de communication. Aussi, nous allons maintenant nous interroger sur les influences encourrues pour le corps de ce que l’on appelle la Réalité Virtuelle (RV).
§1 Qu’est-ce que la Réalité Virtuelle
Philippe Quéau définit la RV comme une “base de données graphiques interactives visualisable en temps réel sous forme d’images de synthèse tridimensionnelle”
A – De l’analogique au numérique
Cela implique une immersion dans l’image devenue “espace” dans laquelle on s’insère et où l’on se déplace. Parler de simulation revient à opposer le numérique à l’analogique, car l’image de synthèse – qui aboutit à l’univers virtuel – provient de modèles logico-mathématiques (algorithmes) et non d’une réalité antérieure. Le réel est en fait, simulé par l’image numérique : “Elle le reconstruit fragment par fragment pour en proposer une visualisation numérique qui n’a plus aucun lien direct, ni physique ni énergétique avec le réel.”
En effet, dans l’analogique, on parle de représentation dont la réalité est essence. Ici, l’image n’est plus représentation mais se fait référence à elle-même, s’autoréfère. Grâce au virtuel, l’image numérique se libère du réel, s’en détache. Ainsi, la logique de la figuration entre dans celle de la simulation. Le corps va donc se mouvoir dans un espace “irréel”, qui n’a pas de réalité propre et s’y immerger. Grâce à la conjonction de deux stimuli sensoriels : une vision stéréoscopique globale ainsi que la sensation de corrélation musculaire, proprioceptive (à la différence de la sensibilité tactile qui est extéroceptive).
La visualisation de l’espace synthétisé se fait à l’aide d’un casque portant deux écrans miniatures à cristaux liquides placés devant les yeux, et des capteurs de position sont posés sur la tête et les membres. Chaque geste ou regard est ainsi analysé par l’ordinateur et sert à organiser et à diriger un programme prévu à cet effet. Le spectateur devient ainsi acteur, puisque chaque espace simulé provoque une nouvelle gestuelle qui, à son tour, crée un nouvel espace… C’est ce que l’on appelle l’interactivité, celle du corps avec un espace virtualisé.
B – Virtualisation de l’espace
Pour Philippe Quéau, cela va donner le jour à “de nouvelles corrélations spatiales encore impensées où le corps devient “moteur” . Ces apparentes corrélations jouent sur des paradoxes spatiaux qui sortent de la sphère stable de l’espace euclidien. L’espace virtuel s’accapare des dimensions, hors de la logique, non entières et même fractales.
1 – la notion d’espace a priori
Le virtuel, l’image numérique ne sert pas en effet à modéliser ce qui est visible – ainsi de l’espace à l’intérieur duquel nous nous mouvons – mais de figurer ce qui peut être modélisable par des interprétations formalisées, les algorithmes. N’est ainsi modélisable que ce qui est quantifiable. L’espace modélisé, numérique, est voué aux jeux de l’imaginaire et il est possible de se rapprocher de ceux créés par le dessinateur Escher.
Escher s’est beaucoup inspiré des travaux scientifiques pour concevoir ses “mondes impossibles”. Dans son livre, Le miroir magique d’Escher, Bruno Ernst explique son travail : ” Escher nous montre comment un objet peut être en même temps concave et convexe ; que ses créatures peuvent, au même moment et au même endroit, monter et descendre un escalier.” L’intérêt de ses dessins est qu’il a développé un concept proche de celui des images de synthèse : les Boucles Etranges. Ce concept lui permet de créer des thèmes aux niveaux de réalité se métamorphosant.
“Là où Escher s’est montré génial, c’est qu’il a su inventer mais aussi dessiner des dizaines de mondes semi-réels et semi-mythiques, plein de Boucles Etranges dans lesquels il semble inviter ses spectateurs à pénétrer. ” La lithographie des mains se dessinant en est la parfaite expression.
Ses dessins – aberrations psychiques – étaient physiquement et spatialement inconcevables dans la réalité, mais dans un espace virtuel, il est possible de les représenter aisément et même de s’y immerger totalement. On peut se donner au choix un espace de Riemann ou de Lobatchevsky ou encore un espace aux propriétés arbitraires. Car l’espace devient une image à modéliser tout autant que les objets qui le constituent. Cela “virtualise” la conception kantienne, selon laquelle l’espace est, ” l’élément essentiel et préalable de la relation du sujet aux choses “, et donc une forme inévitable et à priori.
La scène virtuelle obéit donc, entre autres, aux lois de l’espace euclidien. Ce qui permet des illusions saisissantes de “réalisme”. Aussi, puisque l’espace, selon Kant, est la condition de possibilité des phénomènes comme il est la condition subjective de notre sensibilité, alors notre rapport au monde est considérablement “tronqué”, du fait du virtuel.
Les objets constituent l’espace virtuel, autant qu’ils sont constitués par lui ; l’espace nous constitue autant que nous le constituons… La perte de cette notion à priori de l’espace modifie incontestablement notre vision du monde et des choses. On se dégage de la contrainte spatiale, on s’extrait d’un monde pour en recréer un autre plus proche de l’imaginaire.
2 – la question du “lieu”
Le virtuel extrait donc la spatialité, comme élément premier de liaison à la réalité ; on se déplace, s’immerge dans le virtuel et ce, dans un espace réel totalement neutre. L’expérience de la réalité virtuelle peut se faire n’importe où dès lors que le matériel est présent. On peut même porter un monde virtuel sur nous et l’emporter dans tout lieu, comme l’annonce un des protagonistes de la réalité virtuelle, Scott Fisher : “On pourra bientôt réaliser des systèmes d’environnements virtuels personnels portatifs grâce aux progrès rapides en matière de données et d’affichage.”
Le corps vit donc une expérience réelle dans un espace “irréel”, on n’est plus quelque part : on se détache du lieu réel. Cette notion est capitale, car un lieu réel donne une base à l’expérience, il assure à l’être humain une position. Et cette position est une condition de l’existence. Il en découle une conscience de soi perturbée : par la perte de la spatialité ou de la localité du corps entraînée par le virtuel et, de cette perte de position émerge une impression furtive de se jeter dans un abîme.
L’expérience de “See you see me”, un système virtuel ludique, donne en effet la sensation du vertige. Ce jeu comprend deux personnes “casquées et gantées” évoluant dans un même espace. Le but est de tuer un oiseau vert ou son adversaire, que l’on peut voir et à la place duquel il est possible de s’immiscer. Le corps ne subit en fait qu’une rotation sur lui-même durant le jeu, alors qu’il perçoit des descentes, des montées, des sauts virtuels… Il n’est pas rare de tituber légèrement en enlevant le masque, c’est-à-dire lors du retour au réel.
C – Virtualisation du temps
De façon simultanée, le geste EST image. L’image de synthèse émane d’un programme générant des images en temps réel. Le temps réel est celui de la vitesse qui dépasse celle de la lumière. C’est une découverte fondamentale sur laquelle la réalité virtuelle est restée longtemps bloquée. Sans la vitesse du temps de réponse requis par le temps réel (30e de seconde pour chaque changement de mouvement musculaire ou rétinien), aucun “réalisme” de déplacement de la tête et de la main dans son environnement virtuel n’était possible.
C’est en 1988, avec le système VIEW (“Virtual Interface Environnement Workstation”) que la Nasa arrive à ses fins. Le temps de réponse de l’ordinateur à nos mouvements, correspond enfin à celui du temps réel.
1 – Le temps réel et sa progressive banalisation
A cette époque, les performances de l’ordinateur s’appliquaient aux environnements simulés de synthèse. Maintenant, on peut parler d’une temporalité propre aux technologies du virtuel. Mais comment nous situer face à ce temps ultra rapide ? Cela dépasse la notion de temps présent ou futur, c’est le temps du simultané comme un “hors temps” qu’il est difficile de définir, en dépit de son extrême importance pour notre vision du monde.
Cette temporalité nouvelle, générée par l’informatique, se retrouve dans le fax, le téléphone, les réseaux, les images de synthèse et tend à se généraliser au point de faire vivre toute une planète en “temps réel”. Avec la réalité virtuelle, notre corps subit ce traitement d’information simultané, et devient “moteur”. Cette vision se rapproche des futuristes italiens – tel Marinetti – dont le désir était d’assimiler le corps, aux locomotives ou aux turbines. Lui donner la vitesse et l’accélérer comme une machine.
Paul Virilio entrevoit cette évolution qu’il juge néfaste, parce que c’est “tenter d’appareiller le corps humain pour le rendre contemporain de l’ère de la vitesse absolue des ondes électromagnétiques”
2 – La mondialisation du temps réel
Le temps réel s’est donc propagé de nos modes de communication à notre être propre. Certes, le village global de Mac Luhan ne s’est pas produit, car il n’y a pas encore de citoyen planétaire, ni de pensée supra-nationale unique, mais il existe bien un temps mondialisé auquel chacun de nous participe. C’est l’ère de l’immédiateté qui a commencé et à laquelle participent tous les médias, à commencer par la télévision.
Une personne devant sa télé, peut savoir ce qui se passe au même instant, sur toute la terre. Et cet impératif de vitesse (la rapidité de circulation du message) se substitue souvent à la nécessité de vérité ou à l’importance du contenu. Pourtant, ce n’est pas de voir les images de bon nombre de pays qui nous les fait connaître. Nous pouvons les voir mais leur connaissance n’est pas réelle, et il faut comprendre par là que nous ne formons pas un monde de citoyens planétaires. Car, simultanément à l’internationalisation du temps et de l’information, émerge un repli communautaire. La tendance à l’isolationnisme est soeur du “tout nomadisme” du temps.
A l’heure des réseaux, il y a en effet un réel repli identitaire, que décrit bien Jacques Attali, dans un entretien avec Alain Finkelkraut. “Le labyrinthe des médias organise le passage entre nomadisme et cocooning.” Nous vivons seulement à la même heure, sur une même planète. Mais à quelle logique obéit cette temporalité ?
§2 Aux frontières de la perception
“Vous devez tout voir, tout entendre et tout oublier.”
Napoléon
Le déferlement d’informations et d’images en temps réel nous ensevelit sous un flux informatif qui, bien souvent, empêche une analyse complète des faits ; le temps de réflexion préalable étant parfois annulé. Dans le partage presse/télévision, l’analyse des événements participe plutôt de la presse, l’image ne venant que pour crédibiliser l’événement, le “donner à voir”. Cette analyse, ce temps de réflexion, nécessite alors de se “débrancher” et de redonner “du temps au temps” pour retrouver la distance nécessaire du sujet face aux choses. Mais comment se “déconnecter” quand ces objets nomades se resserrent sur nous, ou si on les porte à même le corps ?
A – Le tout-numérique : culture de l’oubli ?
La critique couramment faite aux nouvelles technologies, est qu’elles fondent une culture de l’oubli. Régis Debray , dans son étude sur l’Histoire du regard en Occident, y analyse les différentes temporalités instaurées par les techniques d’information. Le temps du numérique est le ponctuel. Et le médiologue énonce qu'”Il n’est de discernement que par retard ou reconstruction et de jugement critique que par refus du stimulus-réponse.” Il en conclut que le virtuel est source de dissolution du temps et de la réflexion. En effet notre conscience, après perception du message, a besoin d’un temps de réflexion, d’organisation et de hiérarchisation des connaissances, pour aboutir à une représentation correcte et ne pas se laisser fourvoyer par ses sens.
Il suffit de tenter une immersion dans un “cyberspace” pour découvrir qu’il y est impossible d’avoir quelque notion de temps que ce soit.
Le corps se retrouve plongé dans un “non temps” après s’être vu localisé dans un “non lieu”. Le temps réel “fétichise l’instant, deshistorise l’histoire”* s’insurge Régis Debray contre les techniques du temps réel. Il n’est pas le seul à réfléchir aux conséquences de ce nouvel impératif de vitesse. Même Jacques Attali – “internaute”* convaincu et passioné (*navigateur du N et utilisateur du réseau Internet) y perçoit un réel danger pour le maintien de la culture. “La culture se vit en temps différé alors que l’information est le règne du temps réel.”
Le temps ne s’arrête pas. Il se ponctualise et s’accélère pour faire table rase d’un passé toujours plus proche. De même, les images de synthèse sont on l’a vu, auto-référentes, car émanant de leur propre essence. Leur intérêt n’est valable que pour un moment et dans un contexte donné. Au-delà, ne se référant à rien d’autre qu’à elles-mêmes, elles ne sont plus utilisables ni valables. Leur culture serait donc celle de l’éphémère… “tout s’épuisant dans une simultanéité telle que les actes n’y retrouvent plus leur sens, que les effets n’y retrouvent plus leurs causes et que l’histoire ne peut plus s’y réfléchir.” Un temps réel qui absout l’histoire, en annihilant passé et futur.
L’ère du numérique est “grosse” de fantasmes car elle apparaît lors d’une fin de siècle, mais surtout à l’orée d’un troisième millénaire. C’est peut-être pourquoi l’on entend tant parler de “fins” : fin des idéologies (Fukuyama), fin de l’histoire, fin de la culture…
B – virtualisation de la perception par la RV
Sans doute, les années 90 présagent-elles de grands changements qui donneront un nouveau sens à la culture et à l’histoire, mais qu’il convient de redéfinir tant les influences des technologies du virtuel sont fortes sur notre propre identité. Derrick de Kerckhove, responsable du Programme Mac Luhan de culture et technologie à l’Université de Toronto, et adepte des nouvelles technologies depuis plus de 20 ans, pense que “Les réseaux télématiques abolissent à la fois l’espace et le temps, effaçant du même coup les repères traditionnels de l’identité tant individuelle que collective” . A son avis, il en résulte une “psyché planétaire”, qui viendrait remplacer notre principe traditionnel d’identité. En effet, si notre représentation du monde se fait dans un lieu et à un moment donné, c’est par l’entremise du corps “percevant”, comme une sorte de bureau d’enregistrement, avec nos sensations pour guichets.
Le virtuel finit de repousser l’ancienne conception dichotomique du corps et de l’esprit développée par Aristote, où l’esprit se détache du corps pour connaître le monde. Mais, à la suite De la critique de la raison pure de Kant, la phénoménologie se rapproche des choses, de l’objet, et la connaissance s’autorise la subjectivité du corps. On convient dèsormais que le corps nous informe sur notre environnement, tout autant que notre esprit. “Dans la perception, écrit Merleau-Ponty, nous ne pensons pas l’objet et nous ne nous pensons pas le pensant, nous sommes à l’objet et nous nous confondons avec ce corps qui en sait plus que nous sur le monde, sur les motifs et les moyens qu’on a d’en faire la synthèse.” Dans cette analyse des effets du virtuel sur la perception du réel, on partira donc de l’hypothèse d’un corps comme sujet de connaissance en aval de l’esprit. Or, nous l’avons vu, notre perception est troublée face aux technologies virtuelles. Aussi, qu’advient-il de nos sensations face au numérique ?
§3 virtualisation du corps
Est-ce que la force du virtuel est telle qu’elle puisse trahir les sens, les troubler au point d’altérer les informations émises par le corps ? Ici, nous nous intéressons principalement à la réalité virtuelle pour sa capacité à produire des sensations artificielles, visuelles, auditives, olfactives, kynesthésiques et tactiles. Il s’agira pour beaucoup, de recherches qui n’en sont encore souvent qu’à l’état d’expérience et donc rarement généralisées pour le grand public.
La réalité virtuelle fonctionne en interaction avec le corps grâce aux stimuli et aux capteurs sensoriels. C’est-à-dire qu’elle est capable de capter – électro-magnétiquement – le fonctionnement des sens, et de les recréer artificiellement. La RV a ainsi une capacité à fausser nos sens, en donnant aux mondes virtuels toutes les apparences du réel. Il existe des systèmes de visualisation virtuels, de sonorisation virtuels ; le toucher et le “prendre” étant eux aussi simulés.
Le fantasme dominant à ce sujet, est celui du “cybersex”, dont une forme “définitive”, mais fictive, fut montrée dans le film “Cobaye”. Ce mode de simulation n’est cependant pas atteint par la réalité virtuelle. Pour l’instant, le cybersex se réduit encore à un arnachement lourd et totalement anti-érotique, provoquant des stimuli de plaisir mais qui est bien loin encore de nos attentes.
Dans sa forme la plus achevée, on pourrait imaginer une combinaison “très lycra près du corps” en fibre optique, toute entière génératrice sensoriellement. Cette “enveloppe de plaisir” n’est pas pour tout de suite, néanmoins elle est prévisible puisque tous les éléments qui y mènent existent déjà. Voici les sens que l’on peut altérer par des environnements virtuels : l’ouïe, la vue, le toucher et la force (sens kynesthésique) de la main.
A – Le toucher
Durant l’année 1993, les progrès en matière d’environnements sensoriels ont permis d’améliorer la simulation du sens du toucher et de la force – pour l’organe manuel uniquement – grâce à un gant appelé “data glove” qui est le plus utilisé des différents gants sensitifs. “Le data glove utilise des fibres optiques montées sur un gant léger et élastique en lycra et un système Polhemus Isotrack 30 comme capteur de position. “ Les fibres optiques, indiquent les mouvements, par la densité de lumière réfléchie selon la position de la main.
Pour des applications ludiques, on n’utilise que le positionnement et les mouvements de la main, comme données de déplacement dans l’univers virtuel. A ce stade, il n’y a pas de sens de toucher virtuel à proprement parler, comme c’est le cas de tous les jeux 3D.
Mais, pour l’entraînement de médecins sur des corps virtuels où le champ de vision est occulté pendant la simulation, la notion de retour tactile et de retour de force apparaît. Là, il y a bien un sens du toucher virtuel.
Cutt, spécialiste de la RV, démontre : “Habituellement, la plupart des acquisitions de données dans les environnements virtuels se font par la vision et par des capteurs sans contact (avec le son par exemple). Les exigences d’information de nombreuses tâches impliquant une habileté dans la manipulation, le sens de toucher ne peut être reproduit sans retour tactile.” Le retour tactile et le retour de force diffèrent en ce sens que le premier sert à capter puis à simuler le toucher alors que le second permet d’évaluer la force lors du mouvement et de la recréer virtuellement. On est donc en 1993 et la simulation “toucher/force/déplacement” de la main est possible. Uniquement la main, car c’est elle qui possède la plus grande densité de capteurs tactiles du corps humain.
Mais, il est évident que d’ici dix ans, la simulation des sens kynesthésiques du corps tout entier sera possible. Voilà la première et non pas la moindre des simulations de sens par le virtuel.
B – L’ouïe
Ensuite, vient le son. Ici, il est important de ne pas confondre le son synthétique (numérique) qui est celui de la techno, house, ou de toute musique digitale, avec le son virtuel. En effet, le son virtuel est conçu par un générateur de sons tridimensionnels.
Currell (1992) dans son article, Système auditif virtuel : Nouvelles utilisations pour le son tridimensionnel donne la définition suivante du système audio-virtuel : “c’est une expérience sonore enregistrée qui contient une information psycho-acoustique significative permettant une altération de la perception humaine, de telle sorte que la personne croit que l’expérience sonore enregistrée a lieu réellement.”
Le système auditif humain étant très complexe, il a fallu tenir compte des différences d’intensités perçues par chaque oreille et développer ainsi le traitement du signal en vue de synthétiser spatialement les sens. Spatialité du son et informations psycho-acoustiques procèdent d’une même volonté : simuler le réel en altérant le sens de l’ouïe. Quand on sait qu’il existe des odeurs synthétiques permettant d’avoir des sensations olfactives virtuelles, on imagine aisément comment la réalité virtuelle nous “dupe” sur notre assurance à percevoir le réel.
Il reste bien sûr la vue. Mais, comme nous le verrons, c’est encore la vision qui est le sens le moins altéré, puisque elle tend à rester le premier et dernier rapport à un monde où tout peut être simulé, de l’objet à l’espace en passant par la perception que l’on s’en fait.
C – La vision
Le propre de la réalité virtuelle est de générer des images de synthèse, et ces images se “donnent à voir”. La réalité virtuelle est donc en premier lieu visuelle. De plus, lors de la mise du casque de visualisation ou de lunettes stéréoscopiques, on passe en mode de vision virtuelle : le port du casque permet ainsi un passage physique du réel au virtuel.
L’expérience qui en découle ne trompe pas l’utilisateur sur ce qu’il voit puisqu’il a conscience de porter un casque. Nous pensons y voir là une différence d’altération des sensations, en ce sens qu’il est plus aisé d’abuser de notre sens tactile et kynesthésique ainsi que de notre ouïe, plutôt que de la vue car la vision est source de connaissance, voir, c’est avoir à distance.
Le casque de visualisation utilise pour plus de réalisme toutes les caractéristiques du champ de vision humain : 180 degrés horizontalement et 150 degrés verticalement, ainsi que l’angle de focalisation des yeux sur un point de fixation. Ajouté à cela, la résolution toujours plus “réaliste” de l’écran, et l’immersion dans l’environnement virtuel, est complète.
La vue reste cependant le point de focalisation entre le réel et le virtuel, le point de passage qui reste à notre conscience. Au regard de l’expérience virtuelle vécue par une autre personne, on s’en rend bien compte : son corps paraît sans vie intrinsèque, comme momifié, la bouche tend à rester ouverte dans une posture plutôt risible. Seule la perception visuelle semble garder son acuité (bien que dissimulée derrière un casque), le reste du corps et du visage “perdant vie”.
Mais, c’est le mode de vision qui a changé avec le numérique, l’image n’est plus vue par l’œil, sous l’angle de la lumière ; mais une image “vue” après médiation du numérique. De cette médiation, de cet “artefact”, ressort un couple nouveau : déjà formulé par Gilles Deleuze : “C’est le couple Cerveau-Information, qui remplace l’Oeil-Nature.” En effet, entre l’oeil et l’objet s’interpose le casque, l’écran, la caméra, les lunettes, qui déplacent notre vision comme médiateurs technologiques.
Le corps humain est donc totalement simulé ?
Non, pas encore, même si le numérique a abouti – dans son étrange parcours de nos méandres – à simuler les muscles, les os, une partie de la perception et la force humaine.
Non parce qu’il reste en l’homme quelque chose de non quantifiable, que la connaissance par le nombre ne peut synthétiser. L’ infini de la nature, du corps, ne peut se quantifier totalement.
L’infini de la feuille d’arbre sera toujours plus immense que l’infini du nombre… “Notre corps est un cosmos et a sa propre destinée”, rappelle A. Renaud. Il jouit, il souffre. Il n’est pas évacué par le numérique, mais largement entamé dans sa perception.
Il s’avère, en fin de compte, que c’est le numérique qui a “pris corps”, sous l’effet d’une évolution des rapports Homme/machine. René Berger y voit l’avénement de l’ère “techno-urgique”, (propos tenus lors d’une interview pendant la 13ème session d’Imagina). “Urgie” et non “logie”, parce qu’aujourd’hui l’homme est beaucoup trop impliqué physiologiquement, dans la technique.
Section 3 : L’art, le geste et le numérique
L’art arrive à ce point de réflexion sur le corps, car seule, la sensibilité de l’artiste peut éclairer d’un nouveau jour, cette intrusion du numérique dans la culture. L’art, pour R. Berger, est “l’activité fondamentale de l’être au monde” .
§1 L’art comme trace d’une civilisation
Penser et agir, la raison et l’action, ont toujours été divisés dans la société industrielle ; le taylorisme en est un très bon exemple. Pourtant, à la lecture du Geste et la parole de Leroi-Gourhan – dont la philosophie est proche de la phénoménologie -, “l’homo faber” ne se distingue plus de “l’homo sapiens”. La technique est comprise comme une activité symbolique, tout autant que le langage. L’art, de la même façon, participe à la libération de l’homme dans son “corps à corps” avec la nature. “L’homme fabrique des outils concrets et des symboles, les uns et les autres recourant dans le cerveau au même équipement fondamental… le langage… et l’outil… ne sont que l’expression de la même propriété de l’homme…”, écrit Leroi-Gourhan.
Pour éviter que cette division (entre langage et technique) n’atteigne son maxima, il est important de revoir la position de l’artiste à l’heure du numérique. Si l’on admet que la technique est co-existante à l’homme : alors celui-ci, par le geste, s’est toujours servi d’un médium (outil) pour agir sur la nature. Quel est l’outil et le geste d’une “techno-culture” ?
Est-il possible ainsi d’écrire, “au commencement était le geste ?”. Oui, répond Alain Renaud, “le graphem (signe graphique) est né en même temps que le phonem (mot, langage).” En effet, à l’avènement des civilisations, la construction des cités co-existe aux arts funéraires. Pourtant, à l’heure du numérique, l’histoire de l’art – dans son rapport aux techniques – opère un tournant épistémologique, car le geste artistique n’est plus le même, il a changé de valeur.
“L’art se tient au confluent des trois grands courants de virtualisation et d’hominisation que sont les langages, les techniques et les éthiques (ou religions)”, indique Pierre Lévy dans Qu’est-ce que le virtuel ? , après avoir montré comment l’art informe sur le cadre symbolique et logique d’une époque, dans laquelle il s’insère.
Suivant une logique assez similaire, Michel Serres a montré, que la peinture de Turner par exemple, traduisait la naissance de la thermodynamique. Il en va de même pour le mouvement futuriste qui s’apparente aux machines à vapeur du début du siècle. Et Pierre Lévy d’ajouter, “l’abstraction, en particulier, se développe au moment même où la mathématique s’éloigne de la “réalité” intuitive et poursuit les conséquences nécessaires d’axiomes arbitraires sur des choses insignifiantes”. L’art informe donc bien sur son époque et ses codes.
Il ne s’agit pas ici, de savoir si l’art imite la vie ou si la vie imite l’art comme le pensait Oscar Wilde dans le Déclin du mensonge, mais plutôt de déterminer quelles sont les “traces” indicielles laissées par l’art, à chaque civilisation . Il s’agit en premier lieu de s’approcher de cet art du numérique, d’en dégager les grandes formes.
§2 L’art vidéo
L’art vidéo apparaît dans les années 70 au Japon, aux Etats-Unis, mais aussi en Europe. Il ne commence à être connu du grand public qu’à partir de la fin des années 80. Depuis, il a acquis une certaine reconnaissance du monde de l’art contemporain. Ainsi des deux plus importants musées internationaux : le Museum of modern Art (Moma) de New York et le Mnam du Centre Georges Pompidou de Paris. Le Moma présentait en effet cet été les Etats de l’art vidéo, avec des artistes comme Bill Viola, Gary Hill, Tony Ourster ou encore Chris Marker. Et à Paris, il est possible de visionner quotidiennement les vidéos d’artistes qui appartiennent à la collection de la Vidéothèque du Mnam.
Cependant, il est difficile aujourd’hui de différencier l’art vidéo de l’art numérique, car ils sont tous deux “mixés” par les “artistes vidéo”. On peut en tenter une définition grâce à Nam June Paik dont la citation est reprise dans le catalogue de l’exposition Electra du musée d’Art Moderne de la Ville de Paris.
En 1965, il déclare : “Un jour, des artistes travailleront avec des condensateurs, des résistances, des semi-conducteurs, tout comme ils travaillent aujourd’hui avec des pinceaux, des violons et du bric à brac.” Et encore plus loin : “J’ai traité le tube cathodique (d’un téléviseur) à la manière d’une toile et j’ai démontré qu’il peut être supérieur. Désormais, je traiterai le tube cathodique comme j’ai traité le crayon et le papier”…
Par la suite, Nam June Paik a réalisé une vaste gamme de travaux et d’idées, qui vont des projets d’environnements, tels que ses jardins vidéo, à une installation de 400 téléviseurs au forum du Centre Georges Pompidou en 1982. Pour Electra, il exposait un robot, avec un arrangement vertical de téléviseurs (exposition reprise par l’American Center en 1994), qui annonçait déjà le passage à l’art numérique puisque dans de vieux téléviseurs étaient mixées des images de synthèse aux images vidéo.
Il existe deux orientations distinctes dans l’art vidéo : soit les artistes utilisent la vidéo comme appareil d’enregistrement de leur travail – “actions” d’Acconci, de Gilbert and George, représentants du “Body Art” -, soit la technique vidéo est exploitée en tant que telle. On peut alors manipuler les objets vidéo comme on manie des objets sculpturaux et picturaux. Ainsi, Nam June Paik, en collaboration avec Vostell, a réalisé des bandes abstraites en noir et blanc, en modifiant la disposition des éléments électroniques à l’intérieur de l’appareil.
La vidéo permet d’élaborer soit des environnements, ou encore des sculptures. Frank Popper examine de façon exhaustive les différentes possibilités offertes à l’art par la vidéo : “La pratique de l’exploitation et la recherche formelle d’éléments plastiques ; le clavier immense de l’enregistrement d'”actions conceptuelles” ou de séquences artistiques souvent centrées sur l’artiste lui-même, la “guerilla vidéo” ; les combinaisons d’appareils pour “environnements” ou “sculpture” ; l’emploi de moyens technologiques pour une création visuelle proprement dite ; enfin la vidéo comme moyen d’expression populaire (la vidéo d’amateur).” L’art vidéo nous importe en ce sens qu’il confirme la pensée de M.Mac Luhan : “The medium is the message.”, et qu’il préfigure l’utilisation de l’ordinateur comme “medium” artistique après la vidéo.
§3 L’art du numérique, quelle création ?
L’art vidéo et l’art numérique sont très liés en ce sens que l’ordinateur prolonge et ajoute aux images vidéo, aux environnements. Mais qu’est-ce qu’une “oeuvre numérique” et en quoi préfigure-t-elle d’une “techno-culture”
A – L’art numérique
La virtualisation de l’art par l’utilisation de l’ordinateur est polymorphe. D’où le vocable – souvent synthétique – d’oeuvre “multimédia” pour désigner la plupart de ces installations numériques. En effet, l’image de synthèse, ou l’image traitée par ordinateur, participe d’un environnement sonore et vidéo : les “sculptures” évoquées plus haut.
Il existe deux catégories principales d’images numériques : l’image de synthèse entièrement générée par un programme d’ordinateur à partir de modèles logico-mathématiques et l’image “naturelle” provenant de prises de vues classiques, traitées par l’ordinateur, l’image est numérisée pour pouvoir subir diverses sortes de traitements mathématiques, comme des opérations de filtrage, d’extraction de caractéristiques, de reconnaissance des formes, etc. “Leur dénominateur commun est qu’elles peuvent chacune être représentées totalement de la même façon : des tableaux de nombres rangés dans la mémoire de l’ordinateur.”
Et c’est là que se situe la coupure épistémologique du numérique dans l’art : l’image numérique ne provient pas d’une “prise de vue” du réel mais d’un modèle logico-mathématique. C’est une manipulation de symboles qui forme le modèle, et l’image de synthèse ne donne donc pas à voir la réalité, mais le modèle qui l’a conçue.
L’oeuvre est “immatérielle” : elle ne s’accroche pas à un mur et s’expose difficilement comme une sculpture dans un musée (c’est pourquoi la notion d’environnement est la plus courante). Cependant qu’il existe déjà en CD-Rom des musées virtuels !
La difficulté de donner une définition de “l’art virtuel” provient du fait que cela équivaudrait à l’enfermer et à le limiter, alors que chaque pixel est riche d’infinies possibilités (qui sont d’ailleurs aussi bien sonores ou tactiles que visuelles). Aussi nous bornerons-nous à décrire ces oeuvres qui, de visibles, ont acquis une lisibilité selon la pensée de Gilles Deleuze.
Et, tout d’abord, comme pour faire écho aux jardins vidéo de Nam June Paik, le premier “jardin interactif imaginaire”, réalisé par les artistes Christa Sommerer et Laurent Mignonneau, présenté lors du Festival d’images de synthèse à Monte Carlo. Dans une salle se trouvent des plantes à la racine desquelles sont posées des capteurs sensoriels ; il suffit de toucher une de ces plantes pour que celle-ci apparaisse sur un écran géant et pousse virtuellement, créant un jardin imaginaire “vivant”.
Une des caractéristiques de l’oeuvre numérique est d’être interactive, c’est-à-dire de faire participer le spectateur à l’oeuvre. Cette interaction est dans la lignée de toute l’histoire de l’art du XXème siècle : spatialiser l’oeuvre et y intégrer le visiteur, avec comme précurseurs les minimal artists .
Toujours à Imagina, lors d’une interview accordée pour l’émission L’Atelier 256 (émission aujourd’hui supprimée), René Berger prenait l’exemple de Bill Viola comme l’artiste le plus fécond de l’art vidéo, parce qu’il est l’un des seuls à avoir “ret ÅÇÉÑÖÜàâäãåçéèêëíìîïñóòôöõúùûü†°¢£§•¶ßr)c)tm)´¨≠ÆØ∞±≤≥¥µ∂∑∏π∫ªºΩæø¿¡¬√ƒ≈∆..ÀÃÕŒœ÷◊ÿŸ⁄¤‹›fifl‡·‚„‰ÂÊË˝ˇˇˇÈÍÎÏÌÓÔÒÚÛÙıˆ˜¯˘˙˚¸˝˛ˇouvé le sens tellurique de l’artiste qui nous révèle autre chose que l’usage technique…” qu’il utilise.
Une de ses oeuvres, Slowly Turning Narrative (1992), était exposée au Moma cet été. Elle se compose d’un miroir en forme d’écran qui tourne sur lui-même, renvoie l’image du spectateur alors qu’en même temps, des images vidéo et de synthèse sont projetées sur l’écran. On se voit regarder les images, on fait partie de l’écran au même titre que les images… Tout cela sous un flot de lumière jaillissant de chaque coin de la salle.
Cependant, c’est une autre oeuvre qui retenait l’attention lors de cette exposition : System for Dramatic Feedback (1994), de Tony Ourster. Pour quelles raisons ? Parce qu’à un environnement technologique fait de caméras, moniteurs, ordinateurs, projecteurs et écrans, s’y mélait des sculptures plastiques de poupées de chiffons. Les images de synthèse étaient projetées sur les ovales des visages en chiffon, ce qui donnait l’impression de voir crier ou pleurer les petites poupées.
L’intérêt n’est pas en effet de savoir si l’art du numérique va remplacer les autres formes artistiques, puisqu’il est quasiment certain que chacunes d’elles vont coexister. L’intérêt réside plutôt dans le contenu de ces oeuvres. Le numérique est une technique qui, comme bien d’autres avant elle, après une période de fascination subira celle de l’assimilation. Par contre, la question du contenu est, elle, fondamentale et c’est à l’un des précurseurs de l’art vidéo, René Berger, que le soin revient de mentionner le danger : “La confusion de l’artiste technologique est de croire que la richesse de son medium fait la qualité et l’originalité de l’artiste.”
Le numérique permet de réaliser des images sans l’apport autrefois essentiel d’une réalité antérieure. En cela, il ouvre la voie à l’imaginaire le plus débridé… mais celui-ci doit suivre. C’est une des critiques faites aux oeuvres synthétiques que de croire uniquement au potentiel technique qui les génère. Il y a souvent un manque d’originalité et d’esthétique, que l’on peut leur reprocher.
Ce nouvel outil doit être maîtrisé mais, plus encore, dépassé par l’artiste pour qu’un nouvel art émerge à part entière. En résumé, la technique si “high definition” soit-elle, ne prédispose pas au génie. On fait référence ici à des artistes comme Toshihiro Angai et Rieko Nakamura qui présentaient leurs RENGA, (“images liées” faisant références aux poèmes traditionnels japonais, qui étaient collectifs) lors de la Conférence sur les communautés virtuelles (Imagina 93). Ces deux artistes, par ordinateurs interposés, pour l’un de façon diurne et pour l’autre à la nuit tombée, réalisent une oeuvre virtuelle commune. Au départ, l’artiste réalise une image numérique qui a l’apparence du “Printemps” de Boticelli ; il l’envoie par courrier électronique à son “collègue” qui la retouche et en fait une nouvelle oeuvre, qu’il lui renvoie, et ainsi de suite.
Malheureusement, le résultat de cette oeuvre interactive est médiocre même si le principe est prometteur. Les réalisations artistiques conçues par ordinateur sont extrêmement diverses et il est impossible d’en rendre compte, même partiellement. Aussi, les oeuvres musicales ou poétiques ne seront-elles pas mentionnées ici. A l’exception peut-être de ces aphorismes créés par le logiciel de l’Alamo (Atelier de littérature assistée par la mathématique et les ordinateurs) :
“L’art est la seule arme de la nature contre le sentiment…
L’esprit est la lucidité qui se souvient de la passion…
Si tu veux la confusion, prépare l’harmonie…”
B – Geste et numérique, quelle création ?
Depuis l’âge des grottes de Lascaux, l’image a toujours été la trace du geste (et ce, jusqu’au XVIème siècle). Ce geste, “engagement vital” de l’artiste, est primordial car c’est lui qui distingue une oeuvre d’art du “gribouillage”. Toute la tradition de la peinture chinoise tient en effet, dans le geste rigoureux du poignet. Aussi, que reste-t-il du geste pour l’artiste infographiste ?
L’image de synthèse, pour être réalisée, passe tout d’abord par une maquette numérisée des objets, qu’on spatialise en leur donnant des coordonnées – couleur, matière, réfection, déplacement… Dès lors, l’ordinateur calcule pixel par pixel (ou point par point ) chaque image, et dès que l’on modifie une donnée, l’image est recalculée.
“Il est ici évident que le geste de l’artiste a disparu au profit d’une activité abstraite d’analyse et de programmation”, déclare l’auteur de La Machine Univers. Cependant, le geste en tant que tel, n’a pas tout à fait disparu puisque l’infographiste se sert d’une palette graphique sur laquelle il déplace un stylet éléctronique. Celui-ci s’utilise souvent comme “souris” pour cliquer, mais il autorise aussi le dessin.
Il existe aussi des pinceaux électroniques mais jamais le trait peint par l’ordinateur ne se révélera plus épais ou plus fin selon la force donnée par l’artiste. On voit bien que le geste producteur d’images a changé. Alors que l’ancien geste apparaît dans la “matière” plus ou moins épaisse de la peinture sur une toile ; le nouveau geste sélectionne et programme en temps réel.
Ce qui est intéressant, c’est de voir qu’après l’apogée du geste et du corps comme moyen d’expression avec le body art (Jackson Pollock, Yves Klein…), le corps se projette maintenant dans le fonctionnement de la machine, il fait corps avec elle, il l’anime.
Ainsi, le geste artistique a changé de valeur et le “corps à corps” avec la nature a quasiment disparu : ce n’est plus un corps qui agit sur de la matière, mais un cerveau sur de l’information. Il n’y a pas, c’est entendu, de disparition du corps, mais il y a bel et bien modification de son action sur le monde.
L’image virtuelle représente, à elle seule, toute une potentialité d’oeuvres dont le modèle est l’essence, mais elle n’est pas un résultat fini, car dès que l’on change un seul des paramètres programmés, une autre oeuvre apparaît. Pierre Lévy la qualifie “d’art de la métamorphose” et Edmond Couchot parle de régime de la commutation, “où le sens ne s’engendre plus par énonciation, transmission et réception d’informations, alternativement, mis par une interaction étroite entre l’énonciateur, l’énoncé véhiculé par le réseau et le destinataire” . Le spectateur d’une oeuvre informatique en devient le co-auteur. Les rôles s’échangent et se transforment dans un “mariage” quelque peu suspect de l’art et de la science.
Chapitre 2
Présence et numérique
L’étude des rapports nouveaux entre le corps et l’informatique dépasse à présent leurs interactions, puisque c’est “l’absence de corps”, c’est-à-dire la “non-présence” permise par les objets nomades qui nous intéressera ici. Ce ne sont plus les effets de la technique sur le corps, mais l’absence de corps dans les relations interpersonnelles, sociales, économiques et politiques, qui sont permises par la virtualité du numérique.
Section 1 : Présence et virtualité numérique
A l’ère du “nomadisme” des êtres et des objets, c’est la notion de présence qui est la plus chamboulée. Avec la télévirtualité, les réseaux, les communautés virtuelles, etc. apparaissent en effet, de nouveaux moyens d’être présents les uns aux autres. L’époque est en effet à la délégation de notre propre présence pour l’augmenter ; ainsi du répondeur ou de la messagerie électronique. Les technologies nouvelles de l’information nous donnent l’occasion d’être “plus présents” tout en étant absents.
§1 La notion de présence
La présence – “être là et maintenant”, le Dasein heidegerrien – est de plus en plus supplantée par la représentation de nous-même (qui est plus virtuelle qu’actuelle). Représentation qui est d’ailleurs l’opposé de la présence : une image est une représentation d’une réalité non actuelle, absente à notre regard. C’est le cas de la photographie, des portraits et encore du cinéma.
Pour illustrer ce passage de la présence réelle à la représentation, nous ferons référence à la réflexion de Marcel Pagnol sur le cinéma : “Au théâtre, chacun des spectateurs dispersés dans la salle voit forcément une pièce différente. Au cinéma, en revanche, ces mêmes spectateurs, où qu’ils soient placés, verront exactement ce que la caméra a vu, c’est-à-dire le même film. Si bien que dans une salle où il y a mille spectateurs, il n’y en a en définitive qu’un seul, conclut Pagnol.” C’est ce que Paul Virilio appelle “la solitude multiple”.
Aujourd’hui, la présence se définit moins par être proche ou à proximité que par la proximité permise par des médiations technologiques. Ces médiations suppriment les distances, les contraintes physiques et spatio-temporelles.”… la médiation informationnelle va, en effet, permettre à la pensée de voyager non plus théoriquement mais physiquement…” , écrit Alain Renaud.
La première technique éminemment “virtuelle” dans ce sens est le téléphone qui abroge les distances et nos absences.
Lorsque l’on a demandé à l’Ailleule de France (121 ans) de dire quelle était l’invention du XXème siècle qui l’avait le plus marquée, elle a désigné le téléphone “parce qu’il permettait d’être présent à distance”. Il en va de même pour le cinéma et il est sûr que le numérique ne fait qu’étendre la virtualité comme mode d’être.
Mais cette fois-ci, écrit Philippe Quéau, “le visuel nous fait prendre conscience que nous sommes nous-mêmes des images” . En effet, grâce aux techniques du numérique et à l’évolution des télécommunications, on peut désormais envoyer des images en temps réel (et non plus seulement la voix), voire même notre propre image. Métaphoriquement, on mêle les procédés représentatifs du cinéma à ceux du téléphone.
§2 Virtualisation de la présence/le numérique.
La technique de la synthétisation de l’image étant posée, il s’agit maintenant d’en comprendre le mode d’émission et de réception, ainsi que les divers modes de représentation ou de “délégation de présence” qu’elles induisent.
A – Visioconférence
Pour émettre des images, celles-ci doivent tout d’abord être numérisées, ce qui explique qu’ensuite elles peuvent être envoyées sous forme de codage binaire pour être enfin retraitées par un programme et reprendre la forme d’image. Ce mode de communication utilise le réseau à bande étroite, par exemple le réseau Numéris en France. La numérisation d’une image utilise une part importante de mémoire stockée dans l’ordinateur ; aussi, lorsqu’elle est émise, sa transmission est encore d’un prix élevé (la dose d’informations pour la numérisation d’images étant de loin supérieure à celle nécessitée pour le texte). Tout dépend encore de la définition de l’image, c’est-à-dire du nombre de pixels qui la composent. Une bonne image de synthèse comporte en moyenne 60 000 pixels, d’où la quantité d’informations à stocker.
Le matériel nécessaire pour ce genre d’opérations est un ordinateur personnel (PC ou Mac) et un modem, ainsi qu’une ligne téléphonique. Le modem permet le passage des informations numérisées à la communication analogique des lignes téléphoniques. Si l’ordinateur est équipé d’une caméra, il est possible de se filmer et de communiquer son image à une autre personne (si elle dispose du même équipement) avec qui l’on peut converser en temps réel. C’est le principe de la visioconférence.
En marge des conférences proposées à Imagina, les Virtualistes, artistes et activistes, dans les premiers protagonistes de la visio-conférence en France, conviaient les journalistes au Lœws Hotel pour une expérience d’un nouveau type. Une visioconférence – à images fixes – nommée peep show interactif. Le but était d’envoyer en temps réel des images de son corps à une personne située, elle, à Paris. La condition sine qua non était qu’en retour, cette personne envoye elle aussi une image d’elle-même. Cela, parce que l’on reproche toujours aux images numérisées de trop s’éloigner du corps. S’échangeaient ainsi, un “bout” de torse contre un “bout” de dos, un nombril contre un sein…
La seconde expérience qu’il convient ici de relater est tout aussi interactive mais à la différence près que la visio-conférence est cette fois-ci “animée” en temps réel : une “session” de percussions interactives organisée par Eleonaure du Café électronique parisien (version française du Café électronique de Don Foresta aux Etats-Unis). Le café électronique était connecté à la Kitchen de New York, galerie d’art contemporain essentiellement basée sur des performances de ce genre. Pour eux, c’était l’après-midi comme le montrait parfois leur caméra, à Paris, il était 22 heures. Ainsi, des deux côtés de l’Atlantique, des personnes ont joué “ensemble” des percussions pendant une heure, se voyant et s’écoutant jouer en temps réel (avec peut-être 1/10 de seconde de décalage à la réception du son). Le résultat, bien qu’un peu cacophonique – qui, d’entre eux était vraiment musicien ? – était réellement probant. Non seulement une communication outre-atlantique s’établissait, mais en plus il y avait partage d’une expérience faisant fi des distances et du décalage horaire. Même si pour ce “partage”, deux caméras, trois écrans-vidéo et plusieurs moniteurs faisaient interface !
Là encore, les expériences se multiplient et il serait vain de chercher à toutes les mentionner.
B – Réseaux
1- Internet.
La visioconférence permet une “présence virtuelle” en temps réel, c’est-à-dire qu’à un moment donné on envoie sa propre image. Mais le principe des réseaux, des collecticiels, ou encore du clonage, va plus loin et propose une “présence” (comme capacité de communication et d’action à un endroit donné) en différé.
Sur le “réseau des réseaux”, Internet, chaque personne a le pouvoir de déterminer son propre clone, de lui donner l’apparence d’un homme ou d’une femme…Pour ensuite, se faire représenter à tout moment – grâce à son “double informatique” -, dans les forums publics électroniques proposés sur les serveurs (Web, Netscape). Même en l’absence de l’utilisateur, toute opinion, idée ou message reste en “activité”. Le réseau a en effet une “vie” propre, indépendament de l’utilisation qui en est faite. La présence réelle n’est donc plus nécessaire pour continuer à être là et à agir, sur un réseau.
2 – Le collecticiel.
Le travail sur collecticiel procède d’un principe identique. Un collecticiel est un logiciel à usage collectif qui fonctionne sur un réseau et s’inspire du processus de décision lors du travail en groupe. C’est une sorte de lente écriture collective, qui aide chaque interlocuteur à se repérer dans la structure logique de la discussion en cours en lui fournissant une représentation graphique du réseau d’arguments. Le collecticiel est très utile pour une équipe de chercheurs disséminée à travers un pays, par exemple. Tous les éléments de recherches des différents membres de l’équipe, sont stockés et mis à la disposition de tous. La conception et l’élaboration du projet se font en “simultané”, sans rendez-vous ni corrélation de lieu.
C – Le clonage.
Un clone, en informatique est un double numérique d’une image ou d’une personne. Au départ, une maquette “grillagée” de l’homme que l’on veut cloner : chaque intersection a dans l’ordinateur une valeur codée. On scannérise le visage et le corps et ces images numériques sont apposées à la maquette. Ensuite, on appose des capteurs faciaux et corporels qui vont numériser chaque mouvement facial, rictus, grimace, haussement des sourcils, mouvements des jambes, des bras, etc. Travail de longue haleine, ces données sont retranscrites sur la maquette que le programme peut dès lors animer, grâce au programme CYBERWARE. C’est très novateur puisque les progrès dans la synthèse d’image étaient surtout parvenus à bien figurer le végétal et l’animal ; l’humain “résistant” plus à la synthèse.
Une société du sud de la France – Gribouille, dirigée par Didier Pourcel – est à l’honneur dans ce domaine. Chez Gribouille, on reconnaît cependant qu’il y a trois ou quatre ans, le clone de Richard Bohringer pour le film de synthèse “Vingt mille lieux sous les mers” était assez peu réaliste. Mais dans cette technique, les progrès sont étonnants d’une année sur l’autre, et il est certain que très rapidement les clones atteindront un tel réalisme qu’il sera difficile de distinguer l’homme réel de son double informatique.
On peut donc aujourd’hui virtualiser notre propre image, lui donner un double informatique, à partir d’un vrai corps il est vrai. Mais demain ? Le couple “là et maintenant” devient “là et là-bas” simultanément ou en différé et ce nouveau mode de présence est concrétisé par la numérisation de l’image de soi.
D – La téléprésence
Les expériences entreprises à la NASA, Téléprésence dans des espaces de données , redéfinissent encore cette notion de présence. Jusqu’ici, “être présent” signifiait partager avec l’environnement une contiguïté spatiale et temporelle par l’installation corporelle.
Les ingénieurs de la NASA ont imaginé une autre modalité de partage : un opérateur revêt un masque visuel, lunette-écran, où s’affichent en images de synthèse les éléments ou traces du lieu qu’il va explorer : une salle de commande voisine d’une station spatiale par exemple. La position réelle du masque, organe de vision, est détectée par des capteurs qui informent un ordinateur et lui permet d’afficher sur ce masque les images correspondant à la position de l’individu. Un milieu perceptif est recréé ainsi, ce qui autorise le pouvoir d’y agir. Cela permet aussi “d’avoir” à distance.
Russel Taylor, le nanomanipulateur : une interface de réalité virtuelle avec un microscope.
Avoir à distance, est bien l’objet de la présence réelle dans un univers virtuel avec une main (simulacre du réel), qui va saisir et manipuler des objets fictifs dont les qualités physiques sont synthétisées de part en part. La téléprésence n’a rien à voir avec le couple présence/absence du téléphone ou de la visio-conférence. Car là, on est présent ; mais c’est le milieu dans lequel on se déplace et agit,qui lui ne l’est pas, puisqu’il n’a pas de matérialité propre.
Section 2 : Virtualisation de l’image de soi : le “moi symbolique”.
Si nous pouvons agir “virtuellement”, c’est-à-dire en faisant fi de la présence réelle, de notre matérialité, cela pose divers problèmes. Quel type d’actions et de représentations cela engendre-t-il ?
Par convention, on nommera ces actions : les actions symboliques d’un “moi symbolique”. Symbolique parce que ce n’est pas un corps qui va se déplacer pour entrer en relation avec son entourage ou avec le monde, mais un esprit uniquement. Concrètement, ces actions n’existent pas du fait de leur non- matérialité, d’où le vocable à priori de symbolique.
Pour reprendre la métaphore de Paul Virilio, le numérique crée un “individu dépossédé de son ombre”. Le numérique ou la médiation par le nombre crée un nouveau type de relation où une image numérique peut se substituer au corps. Par la médiation du nombre, on crée des actions qui n’existent pas, le numérique permet d’entrer dans des relations fictives très variées mais intéressantes.
§1. Les réseaux
A – Internet
Au commencement des réseaux était le Pentagone… Qui, devant un certain isolationnisme issu de la guerre froide, voulait parvenir à une meilleure communication en décentralisant l’information des chercheurs. Cette décentralisation était destinée à mieux protéger les informations qui circulaient. “Avec sa structure ouverte, Internet a été conçu pour résister à une attaque nucléaire.” Ainsi, le MIT fut relié à des centres de recherches et au Pentagone. Très rapidement, ses utilisateurs sentirent la nécessité d’ouvrir ce réseau à l’extérieur des Etats-Unis et ils créèrent l'”ancêtre” d’Internet : Arpanet en 1967.
Réservé au départ aux scientifiques et informaticiens, il s’est progressivement ouvert au public qui disposait de l’équipement. Aujourd’hui, son utilisation suit une progression exponentielle si bien qu’on le nomme “le réseau tentaculaire”. On chiffre le nombre d’utilisateurs à près de 30 à 60 millions. L’intérêt est qu’il n’y a pas d’instance directrice, ni de noyau. En principe, il n’appartient à personne, aucune firme internationale n’en a pris la tête. Le nombre d’informations stockées et échangées se décompte en milliards et ce, sur toute la planète. Il est certain qu’il est réservé à une élite puisque le matériel est encore d’un coût prohibitif pour beaucoup, mais les universités et les grands centres professionnels permettent une connection qui dépasse ces contraintes financières.
Que découvre-t-on en “surfant” sur le Net ? Son organisation est celle de l’hypertexte : un mot unique peut faire accéder à une banque de données, puis par une “fenêtre”, accéder aux thèmes précis recherchés par l’utilisateur. Les applications du Net sont, à l’heure actuelle, soit ludiques, soit professionnelles ou intellectuelles, mais aussi commerciales.
Selon le serveur auquel on se connecte, on peut accéder à des forums de conversations, à des jeux de rôles (Mud’s), à des banques de données ou à toute information créée par chaque “internaute”.
Leur dénominateur commun : chacun peut créer et stocker sa page d’information ou son serveur et le porter à la connaissance de tous. C’est donc un formidable outil de libre expression mais qui “sera remis en question dès lors qu’on permettra aux entreprises d’en prendre le contrôle absolu”. De l’avis d’utilisateurs avertis, le réseau a des manques qui proviennent du retard technologique des moyens de télécommunications : ainsi, pour tout ce qui est hypertexte ou envoi d’images, la recherche d’informations est longue et laborieuse. Ce qui fonctionne le mieux est l’E-mail. C’est l’adresse de la personne et son mode de reconnaissance internationale. Nous l’avons déjà vu, le type de communication qui en émane n’est pas celui de la proximité de l’entourage, mais celui de la médiation technologique. Les personnes rencontrées par E-mail interposé sont à l’autre bout de la planète et ce qu’elles échangent sont des goûts ou des intérêts communs.
Les relations ainsi établies ne se font pas en fonction de la classe sociale, de l’âge ou de la profession. Le moi symbolique représente ce à quoi on s’intéresse : ses hobbies, passions… En cela, il diffère de la personne réelle qui a une apparence (homme, femme, âgée, jeune, riche ou marginal…) et un statut qui l’accompagne dans sa vie quotidienne et dans son rapport à l’autre. On raconte l’histoire d’un homme, docteur en psychiatrie qui, s’étant fait passer pour une vieille dame handicapée, dialoguait avec un nombre incalculable de femmes (par messageries électroniques interposées ou E-mail). Celles-ci se confiaient à la “vieille dame” et lui trouvaient une telle puissance d’écoute et d’attention qu’elles cherchèrent à la rencontrer et la supercherie fut découverte. Ces femmes affirmèrent s’être senties “violées”…
“In Cyberspace, you are what you care about.” Mais chaque élément de notre vie est enregistré et conservé, l’ensemble de ces documents fait de l’individu “un être statistique” et B. Zsadon menace : “Le fichier électronique a vaincu la conscience. La paralysie ou l’effacement de l’être statistique peut avoir un effet radical sur l’existence sociale réelle de l’individu : il peut se transformer en esprit, en quelque chose qu’on peut voir, entendre, mais qu’on ne peut pas saisir. Il suffit de taper sur une touche pour faire disparaître l’individu.”
D’où l’existence sur les réseaux d’un “moi symbolique” qui apparaît en toute liberté et peut aussi disparaître sans pour autant faire disparaître la personne réelle ! La question du contrôle sera évoquée ultérieurement.
B – Les communautés virtuelles
Des communautés virtuelles se forment sur les réseaux. Il existe des villes virtuelles et, maintenant, une République virtuelle ! Cette dernière, baptisée Kansai Denshi Kyomakoku (République virtuelle du Kansai) s’est dotée d’une Constitution et d’un pouvoir judiciaire. “Elle a pour objectif de penser la société de demain”, note avec enthousiasme le quotidien nippon Sankei Shimbon. Six cents cybernautes en sont déjà devenus citoyens, rapporte cette brève du Courrier International.
D’autres communautés existent telles qu’Habitat. Habitat est une ville “virtuelle” dont le graphisme ressemble encore à celui des dessins animés. On se connecte à un serveur et, dès lors, on se crée une maison à l’intérieur de la “ville” et on se donne une apparence dans un clone ou ce que l’on appelle encore un “avatar” de la personne.
Présenté par Fujitsu lors de la conférence sur les frontières de la perception à Imagina, ce dernier explique comment se déplacer dans la ville, prendre sa tête, la poser, puis prendre celle du cuisinier si l’envie lui en prend.
Plus de 9000 personnes participent à ce jeu de rôles où l’on peut vendre des produits sur le “free marquet” et converser avec ses congénères électroniques dans des places publiques. Mais Fujitsu ne le cache pas, la plupart des émotions et des attitudes sont feintes, c’est le domaine du jeu qui l’emporte et non celui d’un forum public. L’intérêt des communautés virtuelles est surtout ludique et se présente souvent comme une métaphore de la vie réelle, mais dépossédée du stress, du manque de temps, de la pollution. On peut se déguiser, changer de sexe : se séparer ainsi d’une vie morne et banale… Avec “l’avatar sex changer”, d’homme on devient femme. Et puis il y a la fonction “teleport” : se déplacer rapidement et où l’on veut. Utopie constructiviste ou échappatoire ?
Cependant, la “réalité” offerte par les réseaux est plutôt une “pseudo-réalité, plus plastique et plus complaisante, une sorte de “préter-réel” (du latin praéter, à côté de) selon l’expression que Jacques Maritain appliquait à la sphère des mathématiques”. Une réalité “à côté” qui a bien des avantages mais tout autant de risques : croire à cette virtualisation de soi et à ces “pseudo-actions” sur réseaux peut amener à la schizophrénie, ou à des drogues électroniques.
Cette crainte d’un monde artificiel et synthétique est métaphoriquement représentée à la fin du film de Wim Wenders, “Until the End of the World” : une machine à visionner les rêves devient la drogue des deux acteurs, ils rêvent la nuit et se droguent le jour en visionnant leurs propres rêves nocturnes.
Le risque de croire et de s’enfermer dans ces mondes imaginaires existe. Et une nouvelle forme de contrôle social peut découler de la généralisation de ces nouveaux modes de représentation virtuelle.
S’il y a réellement généralisation de ces pratiques, il est certain que l’on ne pourra pas en sortir indemne. La frontière entre le réel et le virtuel, se virtualise elle-même et comment ne pas croire ensuite mieux dans le virtuel que dans le réel, plus dur ?
“Supprimer l’éloignement tue”
René Char .
Suppression de la distance et virtualisation du monde et de nous-mêmes : ce sont les deux axes du numérique. Notre personne devient “statistique”, “symbolique”. Sa matérialité est remplacée par le “bit” qui, pour Bill Gates, patron de Microsoft, n’a “ni couleur, ni taille, ni poids, et qui peut voyager à la vitesse de la lumière”.
Le numérique “a pris corps” en virtualisant le rapport au monde et la relation à l’autre. Car le corps a terminé d’être l’élément essentiel et premier à cette relation. Ainsi, on pourrait tenter de redéfinir leurs places respectives du réel au virtuel : le virtuel numérique appartiendrait au domaine professionnel et ludique, alors que le monde réel se réduirait au lieu où l’on mange et où l’on dort !
Et, dans une société de loisirs, où la technologie sert à “raccourcir” le temps en l’allongeant, une société de oisifs, le virtuel peut prendre une place considérable..
Le dernier risque, que laisse entrevoir Philippe Quéau, serait de donner le virtuel comme référence première à nos actes avant même celle de notre propre perception. (cf “Benny’s video”, film allemand où un garçon de 14 ans vit dans un techno environnement. Il va tuer une petite fille pour voir comment ça fait “en vrai” après l’avoir vu en vidéo.) “L’oubli du corps se paie trop cher pour les avantages relatifs qu’il autorise.” Alors, vertu ou vertiges ?
Voir sa propre image dans un ordinateur qui se meut “sans soi” éloigne de sa propre personne comme si les actions perpétrées par cette image n’étaient pas de nous. On se détache de son image comme si on lui était extérieur. Cette totale liberté d’action rendue possible par un réseau sans noyau ni “tête” dirigeante, si attrayante aujourd’hui, menace d’être pervertie. Le “réseau des réseaux”, Internet, devient rapidement une vitrine commerciale, un lieu d’échanges qui n’a pas toutes les apparences de la légalité. Ce bel outil de connaissances et de communication sans frontières, ni contrôle, subit déjà des revers.
Car, si le “moi symbolique” qui sévit sur les réseaux n’a qu’un rapport “preter-réel” avec la personne, les actions qu’il perpétue influencent le réel. Contrats engagés par les sociétés, échanges en tous genres, du trafic d’armes à la drogue… Aussi, de la part des Etats comme des “Net users” émane une certaine volonté de contrôle des informations.
§2 Le droit et le numérique.
“Terreur des services secrets, les “hackers” étaient invités à la conférence OSS à Washington, qui réunit responsables de l’armée, de l’espionnage et industriels américains. “Hier libertaires cybernétiques, ils se posent aujourd’hui en patriotes”, titrait le 1er décembre 1995 le cahier Multimédia de Libération.
C’est un fait, les actions “symboliques” mettent en péril toute une société basée essentiellement sur l’informatique. Ces actions sont celles de pirates informatiques, mais aussi des échanges illégaux ou encore l’apparition de propos racistes et antisémites. Internet, dont l’esprit initial est libertaire et prosaïque dans le sens d’une connaissance pour tous et par tous, se fait “récupérer”. Dès à présent, l’année 1995 marque un tournant pour les réseaux informatiques : les actions – sans “corps” – du moi symbolique sont désormais prises en compte par la sphère du public.
Liberté d’expression, oui, mais à quel prix ? Les Etats doivent-ils s’interposer et créer des lois pour protéger cette liberté ou laisser les utilisateurs gérer les informations comme c’est déjà le cas…
Voyons donc tout d’abord l’état de cette situation suivant l’appréhension par le droit du numérique.
A – Internet, un principe : la liberté d’expression.
Une étude du magazine américain WIRED spécialisé dans le numérique (et le plus “branché” !), tente de démontrer quelle est la pensée initiale et fondatrice du Net. On y lit : “The resurfacing of a doughty American anarchism – a pioneer/settler philosophy of self reliance, direct action, and small scale decentralisation translated into pixels.” ( “C’est la réapparition d’une anarchie américaine douteuse – une philosophie des premiers settlers et chercheurs d’or – pleine de confiance en soi et d’action directe, ainsi que de décentralisme à petite échelle transcrite en pixels.”)
Son principe fondateur est bien un certain libéralisme anarchiste qui, sous couvert d’une liberté d’action totale sur le réseau des réseaux, dépasse les contraintes physiques et spatiales pour l’expansion d’un système “très nerveux”. Dégagée du corps, la pensée “libre” a ainsi le pouvoir de voyager sur le réseau sans crainte de contrôles étatiques.
Bien sûr, depuis déjà quelques années, des propos sont sanctionnés de façon “privée” (par les utilisateurs du Net eux-mêmes), mais il semble que cela change aujourd’hui.
1- Le contrôle privé.
La plupart des sites sont américains, il en va de même pour les serveurs qui donnent accès aux informations, forums ou banques de données. Aussi étudierons-nous pour une grande part le cas des Etats-Unis. Lorsque des propos sont jugés “impropres” à l’esprit initiateur du Net, le provocateur reçoit non seulement des milliers de “lettres électroniques” de ses co-utilisateurs, mais en outre, une mise en garde du serveur où ont été diffusés ses propos. Comme le rapporte Andrew L. Shapiro pour The Nation (New York) : “Même ceux qui préfèrent Usenet, groupes de discussion plus anarchiques, sont soumis à la règlementation d’opérateurs système et de modérateurs autoproclamés.”
Chaque serveur a ainsi son propre “code de décense” et d’auto-contrôle des informations. Il en va de même en France où France Télécom envoie des semonces aux serveurs concernés. Seulement voilà, depuis le jour où un hacker diffusa à l’intention de tous, le système de cryptage qui servit à l’armée US pour combattre les Allemands (enigma) , le cryptage et le codage ont été de plus en plus utilisés pour “protéger” les informations qui circulent. Les messages cryptés prolifèrent et le contrôle en est moins aisé. C’est le choix de beaucoup d’entreprises pour procéder à des échanges en toute impunité.
De plus, le contrôle privé de ces informations se déroule surtout sur les forums publics où les propos malpropres sont le plus néfastes parce que portés à la connaissance de tous. Les messageries électroniques de chaque utilisateur sont plus difficiles à contrôler parce que exponentiels. On pourrait cependant imaginer un “système expert” capable d’alarmer les serveurs lorsque des messages sont jugés “illégaux ou insalubres”.
Cela permettrait de garder intact ce terrain de liberté d’expression où les pouvoirs publics n’apparaîtraient pas comme les chiens de garde d’un réseau vicié et en voie de pulvérisation.
Mais, des faits conjugués d’un certain malaise des utilisateurs face à leurs “mauvais” élèves ainsi que de la volonté étatique de mettre son nez dans les “affaires commerciales du Net”, émerge l’idée d’une force globalisante visant à ce que les Etats récupèrent un certain pouvoir de censure et de cryptage des informations. Cette tendance est confirmée par le titre du cahier Multimédia mentionné plus avant. Les actions informatiques engagent aujourd’hui trop de risques pour que l’Etat ne cherche à les conformer à la règle.
2. Contrôle public
Ces actions qui n’ont pas de matérialité physique mais dont les conséquences sont bien réelles, commencent en effet à poser de sérieuses questions en matière de législation et de droit. Il y a pourtant un certain vide juridique en la matière et ce, de façon internationale.
En France, par exemple, la loi de 1978 sur les libertés publiques et l’informatique est aujourd’hui dépassée. Et le rapport “Sirinelli” sur les droits d’auteur et l’informatique révèle qu’il est plus efficace que le droit s’adapte par jurisprudences aux nouvelles technologies, plutôt que de changer la législation en la matière. On dit que lors de son rapport, l’auteur a été influencé. Il y a en effet une forte résistance au contrôle public et à la légisfération. Il en va de même aux Etats-Unis lorsque l’EFF (Electronic Frontier Fondation) leur demande d’élargir aux réseaux électroniques les garanties constitutionnelles qui existent pour l’écrit, c’est-à-dire le premier amendement (Proclamation de la liberté d’expression. Il y a comme un ultralibéralisme qui s’en dégage.
Un article d’Asdrad Torres, professeur au Département Sciences de l’information et de la communication de l’Université de Rennes, mentionne encore la demande de la fondation EFF au G7 d’adopter comme “principe fondamental la protection de la libre circulation, des informations sur les réseaux électroniques”. Ou encore la déclaration de trois sociétés de l’EFF lors d’un meeting de préparation évoque encore cette résistance : “Les lois sur la protection des données de certains pays interdisent ou restreignent la transmission d’informations personnelles à travers les frontières. Néanmoins, pourvu que les garde-fous nécessaires soient mis en place, les restrictions au nom de la protection de la vie privée ne doivent pas permettre d’empêcher le droit aux affaires de s’exercer par des moyens électroniques à l’intérieur comme à l’extérieur des frontières.” .
Les firmes acquerreraient ainsi les atours d’une citoyenneté jusqu’alors réservés à la personne ?
Apparemment, il y va de beaucoup d’intérêts de maintenir un certain statu quo sur le droit et le numérique. La voie d’une globalisation due aux effets d’une pensée ultralibérale servie par les grandes firmes est un réel danger dont sont bien conscients les utilisateurs du Net, surtout lorsque l’on sait qu’il ouvre le chemin aux autoroutes de l’information dont Bill Gates se fait le chantre. Celles-ci permettent en effet d’avoir tous les commerces du monde à portée de main grâce à la connexion du téléphone, de la télé et de l’ordinateur. Le danger bien réel de pouvoir déterminer une personne sur ce qu’elle consomme et demande intervient. C’est l’être statistique qui apparaît encore une fois et dont il conviendrait pourtant de protéger l’intimité.
Il faudrait donc trouver une médiation entre un ultralibéralisme et une centralisation trop autoritaire de l’Etat…
Mais une chose est d’ores et déjà certaine : l’être statistique, le moi symbolique, existent, agissent et sont sérieusement pris en compte par la sphère publique. On peut même être condamné en l’absence de lois en vigueur. Le droit va devoir s’atteler à légiférer sur ces actions qui se passent bien d’un corps pour une plus grande liberté et puissance. Cependant, la solution étatique n’est pas rejetée par tous, la preuve en est, c’est qu’une des “taupes” d’Internet recherchée par le FBI, Kevin Mitnick, selon l’article de Ketie HAFNER : A Super hacker Meets his Match, a été arrêté avec l’aide d’un autre hacker (Shimamura) ainsi que celle des commissions électroniques dont les codes d’accès et lignes avaient été “violées” par K. Mitnick… le “héros des pirates”. Ainsi, comme c’est souvent le cas, l’Internet Society a demandé à l’Etat d’intervenir, ne réussissant pas à régler un conflit en son sein.
Pour la première fois en février 1995, un homme est donc rendu coupable et arrêté pour forfait informatique et ce, avec l’aide de l’Internet Society. L’article de L. Shapiro dans “The Nation” confirme cette tendance nouvelle. “En vérité, tout comme il doit protéger les citoyens des conditions de marché injustes, l’Etat doit intervenir lorsque le forum d’idées fait défaut et que certaines opinions dominent outrageusement.” En effet, le contrôle “privé” des serveurs sur le contenu du flux d’informations est parfois arbitraire, tendant à éliminer des opinions marginales. Le risque serait aussi que des firmes internationales prennent les commandes du réseau et diffusent une idéologie dominante. Le numérique, aboutissant à une quasi virtualisation de la personne, a fait apparaître une autre manière de se représenter publiquement. Nous avons réellement un deuxième “moi” dans la poche que l’on peut faire apparaître ou disparaître à volonté.
§3 Démocratie virtuelle ou virtualisation de la démocratie ?
“Le social, le politique, l’historique et même le moral et le psychologique – il n’y a plus d’événement de tout cela que virtuel “. Jean Baudrillard
Déréalisation, défactualisation, “le temps réel est une sorte de trou noir où rien ne pénètre sans être desubstancialisé”. Jean Baudrillard comme Paul Virilio pensent que la virtualité du numérique, à la vitesse du temps réel, s’attaque à tout ce qui se pérennise. Tout ce qui a une histoire, et dont la légitimité tient pour beaucoup dans le temps serait “desubstancialisé” par le virtuel. Ainsi des institutions, de la religion et des événements. Après la personne et sa virtualisation, ce serait le tour des institutions.
Le grand débat, aujourd’hui, est en effet de savoir si oui ou non il y a un danger pour la démocratie instauré par le numérique. Cela se focalise dans les médias, sur Internet, mais l’idée d’une démocratie “cathodique” (déjà imaginée par Nixon) était déjà présente avec la télévision et puis avec le Minitel.
La société du spectacle de Guy Debord montre que dès les années 80, on pense que les médias ont perverti la politique, incitant les politiciens à défendre leur image plutôt que leur programme, et défactualisant les événements en les transformant en spectacle. Nixon rêvait, lui, de pallier au manque de rassemblement des populations avec un vote électronique de “chez soi”.
Les médias “chauds” sont depuis une trentaine d’années accusés de la sorte ; aussi n’est-il pas étonnant qu’Internet en fasse aussi les frais.
A – Démocratie virtuelle
En octobre 1995, le Courrier International révèle la création de la première République virtuelle du Kansai dont le projet est de définir la société de demain. Six cents concitoyens s’y sont déjà connectés sur le Net. Seraient-ce les prémisses d’une démocratie virtuelle ?
C’est à replacer dans le contexte des années 90, après la chute du mur de Berlin en 1989. Le XXème siècle avait jusqu’alors été marqué par une opposition droite-gauche qui – pendant la guerre froide – s’était traduite par une opposition des démocraties libérales occidentales au bloc communiste. En 1989, c’est la “fin” de l’espoir dans la voie communiste. Les voix montent et crient à la “mort des idéologies” dont le sens ultime avait été révélé par Marx.
1 – Démocratie “cathodique”.
Est-ce encore le fantasme de fin de siècle qui ressurgit ? Il est cependant assuré que la vieille opposition droite/gauche – si elle n’a pas disparu – est bien amoindrie. Le résultat en politique est que les programmes deviennent ceux du consensus plutôt que du dissensus. C’est la voie du milieu, du centre, qui ressort lorsque l’Etat tente plus de séduire que de défendre des idées. Cela aboutit à ce que Régis Debray appelle l’Etat séducteur : “Fin de la “télé du gouvernement”, début des “gouvernements de la télé” . Il faut plaire et toujours plus : cotes de popularité, sondages quotidiens, points d’audience. L’opinion, depuis la République d’Athènes dicte la politique, et les sondages d’opinion ne sont peut-être pas si éloignés des urnes. La différence est que les sondages “sondent une partie de la population et que c’est quotidien, presque en temps réel”.
René Rémond a même parlé des sondages comme d’un “premier tour”. Paul Virilio le regrette car, pour lui, le “sondage télévisé n’est plus pour les victimes de la solitude multiple qu’une vague simulation de l’antique assemblement, du déplacement des citoyens vers les urnes et de la décision finale” . D’autres ont pensé au Minitel, qui servirait de canalisateur des votes. Le vote informatique permettrait un décompte plus rapide et beaucoup plus simple. Et cela éviterait les inconvénient des déplacements, de la nécessité d’être présent dans une société où on l’est de moins en moins du fait de l’accroissement de la mobilité.
Il y a pourtant toute une symbolique du vote et des urnes, celle de la démocratie en marche, des hommes morts pour elle.
2 – Internet, succédané à la démocratie ?
On l’a vu, la fin d’un espace public peuplé de citoyens réels est déjà proche avec toutes ces pratiques télévisuelles. Pourtant, peut-on parler de la fin de la démocratie avec les réseaux ?
Ceux-ci prônent une liberté d’expression à l’intérieur et à l’extérieur des frontières qui sont sans aucune limites, ni censure. C’est un des grands principes défendus par la démocratie. Cependant, on reproche au “réseau des réseaux” d’être pour trop élitiste ; par exemple, la revue “WIRED” révèle dans son étude que le réseau est peuplé à 80 % par des hommes de race blanche. De plus, le coût prohibitif n’est pas adapté aux classes les plus pauvres : on aurait ainsi des “info-riches” et des “info-pauvres”. Cependant, remarque Pierre Lévy, il est difficile de parler d’inégalité devant la technique lorsque l’on sait qu’il faut plus de six à sept ans à un enfant pour apprendre à lire et écrire alors que le maniement basic d’un ordinateur ne prend pas plus de vingt heures.
Dans son article, The Myth of Cyber Inequality – Computers are not causing growing wage differences , Robert J. Samuelson affirme : “Fewer generic computer skills are needed” .
Il est certain que sans savoir ni lire ni écrire, l’usage d’un ordinateur serait bien délicat, mais le propre des logiciels actuels est d’être “convivial”, c’est-à-dire utilisable par toute la famille, grâce à des applications simples et compréhensibles par tous. L’argument inégalitaire et antidémocratique de l’ordinateur est donc à nuancer.
Surtout lorsque l’on sait que même les régimes totalitaires doivent faire face aux utilisateurs d’Internet, ainsi de la Chine ou d’autres pays asiatiques où la censure existe sur tous les médias. Internet est alors un outil de lutte pour la démocratie et l’expression du peuple.
Un article d’Andrew Leonard rapporte que pour l’accès à Internet, “on ne comptait que 5000 abonnés au réseau à la fin du mois de juin 1995. Mais ces chiffres vont probablement augmenter puisque la Chine, aiguillonnée tant par le secteur public que par le secteur privé, se rue sur le Net.” Encore une fois, la Chine doit subir les effets d’une économie qui se libéralise.
En 1991, lors du “putsch” des conservateurs contre le parlement russe, Boris Eltsine a fait envoyer des bulletins par Internet, qui étaient retransmis ensuite par Voice of America sur toute la Russie pour rallier l’opinion publique internationale et russe à sa cause dans le même temps. La technologie est depuis longtemps un bon instrument pour la révolution. Internet est déjà très utilisé par les Zapatistes par exemple, ainsi qu’au Tibet pour informer le monde de son oppression par la Chine.
Il y a bien sûr le revers de la médaille, ce réseau sans frontières permet aussi aux terroristes de communiquer à travers le monde favorisant une certaine destabilisation des régimes démocratiques. Ainsi du serveur ARC qui a la préférence des internautes intégristes, rapporte l’hebdomadaire égyptien Al Walan Al Arabi.
Est-ce un véritable péril pour la démocratie ou un instrument de plus pour la guerilla à côté du téléphone cellulaire et des liaisons satellites ? Le terrorisme existait avant Internet et peut se passer de ce média pour demeurer. Les réseaux sont un outil de plus mais ils ne font que perpétrer ce qui se profile déjà.
B – Virtualisation de la démocratie.
Que la démocratie soit pervertie ou pas, par les médias ne doit pas occulter un changement bien réel des institutions. Le taux d’abstentionnisme dans les démocraties est très élevé, la population ne se déplace plus qu’à moitié pour aller voter et il y a une désillusion face au politique qui perdure depuis plus de dix ans. On ne peut sûrement pas accuser les médias d’en être les seuls responsables. Si ce n’est par leur souci de transparence qui, en dévoilant des “affaires” d’Etat, n’ont fait qu’accroître un dégoût de la chose politique.
Par contre, qu’un média comme le Net puisse servir à pallier le manque de “présence démocratique” laisse songeur. Une démocratie virtuelle aussi. C’est ce que laisse entendre Tay Kimey dans son article sur l’émergence d’une troisième force aux Etats-Unis : le parti libertaro-anarchiste. S’il avait fallu attendre Internet pour que la démocratie se vivifie, cela se saurait déjà. On incrimine toujours les médias alors qu’il apparaît depuis les années 70 déjà, que c’est l’économie pour une grande part qui rend obsolète la notion d’Etat Nation. L’économie de marché dépasse autant que les médias les frontières. Sa force globalisante revient à faire de notre planète le “village global” dont parlait Mac Luhan.
Des réseaux comme Internet servent uniquement à masquer pour un temps la fin de la présence réelle des citoyens dans les espaces publics.
Les autoroutes de l’information sont une conséquence de cette “non présence” et non la cause : notre société “supersymbolique” n’a plus de temps, plus de délais pour se déplacer, alors on agit chez soi.
Le numérique nous permet cette “absence de présence” grâce à notre propre virtualisation. Le corps reste donc dans ce nouvel ordre des choses une contrainte physique au manque de temps et à la recherche de l’autre espace.
Aussi, la technique, soit par son intrusion dans la chair, soit en se présentant comme un succédané à la présence, pallie au corps. Le corps ne disparaît pas mais sa force est amoindrie par le numérique : il n’est plus élément essentiel à notre relation au monde.
Avec le numérique, on peut se passer du corps en tant qu’entité physique pour “être au monde”.
Partie II
La pensée à l’ère du numérique
“L’œuvre virtuelle se saisit par l’intelligence contemplative, théorétique comme disait Platon.”
Philippe Quéau.
Chapitre 1
Le numérique et la connaissance
“L’image est un mot qui ne se dit pas”
Jean-Luc Godard.
Il découle de cette première partie que notre perception du monde s’est transformée, tout simplement parce qu’au travers de différentes techniques, le numérique a “pris corps” en se donnant les attraits d’un champ perceptif humain. Aussi, il s’avère qu’il faut repenser nos modes de connaissance et de pensée à l’heure du “tout ordinateur”. Sans se laisser abuser bien sûr par une évolution dont on ne sait que très peu, l’Homme est si changeant…
Mais pour cela, il s’avère nécessaire de se recentrer sur l’image. Parce qu’avec le numérique, l’image devient langage, elle “échappe enfin à la sphère des métaphores pour entrer dans le monde des modèles” , écrit Philippe Quéau à propos des images de synthèse.
Cette affirmation ne fait pourtant pas l’unanimité,mais il est important de redessiner les nouveaux contours et de déterminer le nouveau statut de l’image avant de voir quelles en sont les conséquences sur notre pensée.
Section 1 : Le statut de l’image
Vie et mort de l’image est le titre d’un livre de Régis Debray paru en 1993.
§1 Les trois âges du regard.
Régis Debray est médiologue. En 1992, il présente sa thèse de Médiologie à la Sorbonne, l’instaurant ainsi comme la science ayant pour objet l’étude des relations entre les médias et le pouvoir. Cette histoire du regard en Occident en provient et étudie pour chaque apparition de techniques langagières, les effets sur la vision du monde instaurés par les images.
1 – L’écriture
Avec l’écriture, l’homme entre dans la logosphère (sphère du Logos : langage). C’est l’ère de la religion, le “premier temps” pour les positivistes. L’écriture a en effet permis la diffusion du savoir chez les clercs ainsi que l’expansion de la religion dans le monde. L’image de la logosphère est l’icône qui est une représentation du sacré et qui en est la transcendance. Cela amène à l’idôlatrie, un amour mystique pour l’image qui est l’Etre suprême. “En termes de mentalité collective, la séquence “idôle” assure la transition du magique ou religieux” . L’icône a un air d’éternité.
2 – L’imprimerie
1593 : Gutembert invente l’imprimerie, la lecture et l’écriture ne vont plus être le privilège des seuls clercs. La Bible pourra être traduite du latin. C’est la première “démocratisation” du savoir permise par une technique. Selon l’auteur, on entre aussi dans le régime de l’art avec la (re)découverte des Anciens (la Grèce et la Rome antique) et celle de la perspective qui spatialiste l’image. Celle-ci est alors “représentation”, c’est-à-dire une “illusion” de la réalité. L’art imite la vie, il en est son simulacre. Le temps entre dans l’historicité et si l’on se réfère aux Technologies de l’intelligence de Pierre Lévy, ce temps est “linéaire”.
L’image se donne à voir comme l’imitation de la réalité, d’un modèle dont elle est UNE des représentations qui plaît ou déplaît au goût. Dès lors, elle s’éloigne du religieux car elle n’est plus qu’un simulacre païen ou réservé aux impies. On ne peut presque plus déjà dire ” je crois ce que je vois” comme saint Augustin. L’art édifiera alors beaucoup de portraits dont la progression ira jusqu’à la photographie : l’image transcende la mort. Cette phase est pour Marie-Josée Mondzain, philosophe ( participe à la conférence Problèmes éthiques, sociologiques, juridiques et philosophiques du virtuel, Imagina 93.), celle où l’image permet une résistance à l’iconocratie de la chrétienté (image=>croire=>pouvoir), avec le trompe-l’oeil ou la nature morte. De même, le retour à l’abstraction sera un geste de résistance par un retour au primitif.
3 – La vidéosphère
Le troisième âge du regard est celui de la vidéosphère qui intervient après la propagation de l’audiovisuel. On entre dans l’ère du “régime visuel”, celui de la simulation du numérique. L’image – comme nous l’avons vu auparavant – devient perception. L’image informe et introduit un nouveau rapport au modèle car celui-ci est devenu algorithmique. Le modèle est un langage mathématique. L’image n’est plus issue de la réalité, mais d’une quantification de celle-ci. Régis Debray reprend la classification établie par le logicien américain Peirce entre l’indice, l’icône et le symbole. Ainsi, le visuel est “symbolique” car il n’a plus de “rapport analogique avec la chose” mais un rapport “arbitraire” .
Le temps n’est plus celui de l’histoire mais de l’historiel : un temps ponctuel. Car le temps réel dissout en lui passé présent et avenir. Et dans cet appétit féroce, ne terminerait-il pas par la mort de l’image ? Quelle est donc cette mort ou cette disparition dont parlait déjà Serge Daney pour le visuel ? L’impératif de vitesse du visuel (25 ou 30 images par seconde) vise à priver l’image “de cette capacité à stopper pour un instant le mouvement qui l’entrave et qui la constitue comme image” et de citer le célèbre critique des Cahiers du Cinéma pour qui le meilleur moment du cinéma serait paradoxalement un “arrêt sur image”.
La différence avec l’image de synthèse, c’est que le référent n’est plus assez présent. L’image me regarde autant que je la regarde. L’image de “l’après-spectacle” est auto-référente, elle n’est plus une empreinte ou une trace de “vivant”. L’image, comme Régis Debray l’écrit, a sa lumière incorporée. Elle se révèle elle-même. Se sourçant en soi, la voilà, à nos yeux “cause de soi”. L’image de synthèse proclamerait ainsi la mort de l’image.
M. C. ESCHER,
Mains dessinant
Lithographie. 1948
§2 L’image n’est pas morte, elle change de statut.
L’image de synthèse, bien qu’issue d’un modèle logico-mathématique, est et reste une image. Régis Debray reconnaîtra d’ailleurs dans une lettre à Alain Renaud qu’il s’est trompé, qu’il n’y a en effet pas mort de l’image. Elle a changé, s’est radicalement transformée, c’est tout.
Reprocher à l’image de synthèse de dissoudre l’image signifie que l’on s’attache à une de ses phases de changements. Pourtant, à chaque stade de technicité, l’image perdure. L’image n’est pas seulement trace ou empreinte d’un réel. Son rapport à l’objet se symbolise. L’image devient une forme langagière provenant en effet des symboles. Et si elle laisse une trace, c’est d’elle-même. L’image représente toujours “quelque chose”, mais le niveau de réalité est modifié. Alain Renaud s’oppose lui aussi à cette “fin” de l’image, et explique qu’avec les nouvelles technologies de l’information, on va assister à une renaissance de ces images.
Une oeuvre d’art réussie constituait selon Proust un nouveau monde dans le monde.
L’image numérique est METAMORPHOSE et il ne faudrait pas tomber dans une “vidéophobie” après avoir cédé à l'”iconophobie” dont parle Régis Debray. Et Jérôme Giudicelli de s’inquiéter : “De l’iconophobie, on risque de basculer dans une idôlatrie morbide d’un nouveau type et de cantonner l’image à une fonction purement esthétique.”
Le numérique ne fait d’ailleurs rien “disparaître”. Il déplace les niveaux de réalité. L’image est autrement, elle change ou acquiert d’autres fonctions.
A – Image et Vérité.
“Tout ce qui est beau et noble est le résultat de la raison et du calcul.”
Baudelaire
Avec le numérique, il faut donc se détacher du voir et du croire traditionnels. L’image de synthèse institue un rapport différent à la réalité qui n’est plus celui de la vérité (je le vois, donc j’y crois), mais l’expression d’un modèle mathématique, donc vérifiable. Elle mêle en temps réel constamment le vrai et le faux, car elle est autant composée d’images préconçues ou autonomes que de symboles. Cela demande une acuité visuelle accrue. Comme l’écrit Philippe Quéau, l’image a aujourd’hui perdu son innocence : elle peut tout en même temps servir à la manipulation ou la propagande qu’à la pédagogie.
Face à cela, deux attitudes sont possibles : une attitude critique vis-à-vis de l’image en se déprenant de ses “effets de réalité” ou une attitude de négation. Jacques Ellul représente bien cette dernière tendance. Il attribue au développement inconsidéré de l’image, et plus généralement du visuel et de ses techniques, “la perte de sens et de valeurs de nos sociétés tecniciennes, la falsification du réel, ainsi que leur angoisse, leur désespoir, leur impuissance à saisir désormais quelque Vérité.” Selon lui, on assiste à une victoire inconditionnelle du visuel et des images sur la vérité. Mais il est dangereux de considérer ces images comme seules responsables. Surtout en sachant que l’image est en premier lieu une représentation, donc une illusion de réalité.
B – Image et Modèle.
Le problème que l’image numérique pose est la “prééminence” de la copie sur l’original et “l’antériorité du spectacle sur le réel” . Cela induit un nouveau rapport entre l’image et son modèle. L’image est créée par le modèle mais peut avoir un fonctionnement autonome. En temps réel, la redistribution d’images en fonction d’un mouvement ou d’un regard pose l’antériorité de l’image sur le modèle car elle le recompose.
Ils se constituent simultanément ; le modèle “solo numero” en quantifiant la réalité ou en modélisant l’intelligible et l’image qui en permet la perception sensible. Etonnant pour une image qui, depuis la grotte de Platon, n’était que la perception sensible d’un Beau intelligible invisible pour le commun des mortels ! Ecoutons l’auteur de Virtuel, vertus ou vertige : “Le virtuel se modélise et se comprend en s’expérimentant, tout autant qu’il se perçoit et se donne à voir en se rendant intelligible.” C’est pourquoi l’image calculée, numérisée, est une invention aussi vaste que l’imprimerie. Par des suites binaires de 0 et de 1, on passe ainsi de l’intelligible au sensible, et cela permet toutes sortes de médiations entre les langages formels et leurs représentations sensibles.
D’où l’idée d’image-métamorphose, qui passe d’un champ à l’autre, du lisible au visible. C’est ce qu’Alain Renaud appelle “l’image-devenir”. L’image est “visibilité : expression logique, mais en tant que forme sensible” Elle est en devenir car elle n’appartient pas à la “logique des substances” mais à la logique des “événements”. L’image numérique est en perpétuel redéploiement, entre deux et plus événements. Elle n’apprend pas : “le ciel est bleu” mais dira : “le ciel bleuit”.
§3 Les nouvelles fonctions de l’image.
Ainsi énoncés ces préambules, la porte est ouverte à une nouvelle fonctionnalité de l’image qui lui confère un statut différent. De représentation passive et illusoire, elle devient un procédé “actif” entre l’énonciateur, l’énoncé et le récepteur. Elle permet des effets de présence d’action et d’information. Et puisqu’elle est tout en même temps une représentation sensible d’un modèle qu’elle donne à expérimenter, elle intègre un pouvoir symbolique. C’est ce qu’Alain Renaud énonce très clairement dans son texte : l’image prend selon lui “une dimension opératoire : contrôlée, l’image devient contrôlante (calcul, prévisibilité) ; dimension dialectique : l’interactivité (jeux d’interface) ; une capacité métamorphique… “ .
_ INCORPORER Word.Picture.6 __
Musée Virtuel
A – Fonction pédagogique.
Ainsi, l’image permet un nouveau langage, et par là même, acquiert encore plus qu’autrefois une fonction pédagogique importante. Selon Daniel Bougnoux, l’image a sa place à l’école car elle peut servir de support à la mémoire. L’édition informatique de CD-Rom éducatifs tend d’ailleurs à se développer. L’interactivité, c’est-à-dire la perception et la réaction active du sujet, donne en effet une meilleure compréhension des phénomènes étudiés. La forme hypertextuelle du CD-Rom facilite l’intellection des choses parce qu’on s’y déplace à la découverte de toutes les potentialités d’un problème. Les progrès de l’informatique en matière de reconnaissance d’écriture (Newton d’Apple, petit agenda électronique, possède un système de reconnaissance d’écriture grâce à un stylet électronique qui sert de “stylo” sur l’écran) ainsi que de voix.
Certains, comme Bill Gates (A l’occasion de la sortie de son livre Les portes du futur, Bill Gates, le magnat de Microsoft, passait à 7/7 le 3 décembre 1995.), ont d’ailleurs un “vaste” projet en matière de pédagogie interactive et numérique. Les intérêts économiques y sont très élevés aux USA. Cette nouvelle capacité de l’image est intéressante car elle fonctionne de façon très similaire à celle d’un grand système nerveux.
B – Fonction thérapeutique.
Elle peut aussi avoir une fonction thérapeutique, souligne encore D. Bougnoux. Par exemple dans la psychanalyse où la visualisation y complète le récit oral, “constitue pour ainsi dire le prolongement diurne du travail onirique” , c’est-à-dire l’opposé de la fin du film de Wim Wenders où l’image vide la conscience rêvante. De gros travaux sont d’ailleurs faits sur l’autisme pour tenter d’extérioriser de l’imaginaire du patient toute son imagerie mentale.
Mais nous l’avons vu, l’image de synthèse est avant tout discursive et contient en elle un nouveau mode de connaissance.
C – Fonction heuristique.
L’image de synthèse a une fonction heuristique (de l’origine grecque : trouver) dans le sens où elle est d’une grande utilité à la recherche scientifique ou autre. En effet, l’image numérique peut rendre visible ce qui était invisible à l’oeil nu dans la réalité. Se déplacer dans le corps humain, visualiser l’infiniment petit ou l’infiniment grand. Rendre visible des algorithmes ou des modèles logico-mathématiques inutilisables auparavant de façon pédagogique.
Prenons l’exemple du trou noir. Par définition, un trou noir est un objet dont la lumière ne peut pas s’échapper. Il est inobservable. En revanche, il modifie son environnement ; “il sera à jamais impossible d’en obtenir une image au sens classique du terme. L’observation à des énergies différentes, seule, permet d’obtenir une “image” de l’état de la matière lorsqu’on se rapproche du trou noir.”
Ce type d’opération crée une vision qui voit avec d’autres yeux l’invisible. Ce n’est plus de l’observation directe mais l’image s’obtient par la manière dont la distribution de matière noire déforme l’image. Même si la nature de cette “matière noire” reste encore inconnue, il en existe une image. Ainsi, l’image numérique peut représenter un objet qui n’est même pas encore abordable par la connaissance. Ce qui résiste à la connaissance quantitative est cependant visible par l’image. Il en va de même pour les images créées par des microscopes photoniques. Le seul problème, comme le fait remarquer Michel Mercier, maître de conférences au département de microscopie électronique à l’Université de Bordeaux, est que “la recherche de grandissements toujours plus élevés d’objets connus ou non aboutit finalement toujours à des images d’objets inconnus (…) ce qui aboutit bientôt à représenter des objets dépourvus de toute référence visuelle.” Encore une fois, l’image numérique montre l’invisible mais aussi l’inconnu.
D – De l’universalité de l’image au langage.
L’image a atteint un réel pouvoir symbolique. Pouvoir de manipulation et de propagande, elle est aussi information pure. Miroir de nos propres connaissances, l’autoréférence de l’image numérique informe sur elle-même autant que sur notre propre conscience pensante. De plus, ce référent qui n’est “plus assez présent” permet une compréhension et une intellection de l’image, plus universelle. Il a longtemps été difficile en effet au regard occidental de s’habituer au vide de l’art japonais. Notre vide est synonyme de néant alors qu’en Asie, il est le lieu d’infinis possibles. Il y a des codes dans l’iconographie étrangère (hindouiste, égyptienne ou même chrétienne) qui sont difficiles à interpréter pour certains esprits.
En cela, l’image serait presque plus accessible que le signe linguistique qui ne l’est pas directement (d’un pays à l’autre). René Berger note dans Télévision – un nouveau Golem que “de leur côté, les images jouent concuremment un rôle non moins fondamental. Distinctes des signes linguistiques, elles exercent néanmoins la même fonction qui est de fournir à la société un fonds commun de signes. Tout au plus peut-on remarquer, sans y insister, que le signe linguistique n’est pas directement accessible, alors que l’image peut l’être.”
Ces images parlent à nos sens et non en premier lieu à nos consciences culturelles. Il suffit peut-être d’avoir une “culture technique” qui puisse faire accéder aux conceptions qui ont engendré l’image. Mais l’expérience de la réalité virtuelle semble pouvoir être “vécue” universellement de la même façon car elle sera perçue par un homme et non par un Américain ou un Chinois…
L’image parle à l’humain car elle a une force symbolique qui atteint un tel pouvoir qu’elle peut désormais reconfigurer les moyens de création et de gestion.
Ainsi l’image a dépassé sa simple fonction esthétique ou représentative. Elle implique une position active, elle est mouvement, connaissance. L’image de synthèse s’est dégagée des contraintes, a sauté tous les obstacles pour parvenir à être un nouveau “technotopoï” c’est-à-dire un véritable langage à l’ère des NTI. Ce terme de technotopoï entend mettre en évidence le fait (sans doute le plus marquant de notre époque), “qu’il n’est plus rien, ou presque, qui ne se produise sans l’intervention d’une ou de plusieurs techniques, et donc qu’elles sont constitutives de notre champ d’action étendu à la planète entière et au-delà.” ?
Section 2 : L’image est langage
§1 L’image infographique : d’abord un langage.
A – Image comme “traduction” du langage.
Une représentation classique, l’image photographique, cinématographique ou télévisuelle, est en premier lieu une image grâce à l’interaction entre la lumière et des surfaces photosensibles. Il est amusant ici d’évoquer une grande soirée qui a eu lieu en août 1993 aux arènes de Nîmes et où l’attraction principale était un “écran virtuel”. Le principe était de faire s’écouler de fines goutelettes à distance égale et à vitesse continue sur la largeur d’un écran (vidéo) normal. Dès lors, on projetait des images, c’est-à-dire de la lumière sur ces fines goutelettes et les images en mouvement apparaissaient. Si on enlevait la lumière, l’écran disparaissait totalement, d’où le vocable de “virtuel”. La différence avec l’image numérique est que c’est l’écran lui-même qui produit la lumière : la lumière est intrinsèque à l’image infographique.
Qu’une image puisse ainsi se dégager de ce moyen de production contraint à la nature, prouve bien qu’elle est d’une autre sorte. L’image de synthèse est en premier lieu un langage et ce n’est qu’ensuite qu’elle peut se représenter également sous forme “d’image”.
Mais ces images rendues “visibles” n’épuisent pas pour autant la substance des modèles formels qui les engendrent. Elles n’en rendent jamais compte que de manière partielle et relative” écrit encore Philippe Quéau. On ne peut bien comprendre une image numérique qu’en relation avec son modèle et ici, on pourrait reprendre la définition de l’image selon saint Nicéphore en l’an 813 qui disait que l’image “est une relation, un pros ti, un être qui tend vers quelque chose, une réalité intentionnnelle” 2.
Le mode de création de ces images est symbolique : des nombres et des coordonnées tapés sur un clavier suffisent à engendrer des mondes parallèles, des contours et du mouvement. L’écran éteint, et l’image disparaît, mais dans la mémoire de l’ordinateur, reste tout un tableau de nombres qui sont, eux, bien peu accessibles. L’image peut ainsi traduire des théories sous forme sensible ou nous faire plonger dans des mondes aux propriétés déroutantes. En effet, la réalité virtuelle donne la possibilité d’expérimenter, de connaître de manière sensible le modèle qui l’engendre.
Reprenons l’exemple du film “Brève histoire du temps” sur le mathématicien de génie Hawkins. Celui-ci, atteint d’une maladie génétique, ne peut plus ni écrire, ni taper sur l’ordinateur. Par contre, par oscillation du menton, il peut choisir, “cliquer” sur l’écran lettres, chiffres ou shémas. L’écriture mathématique étant trop longue pour acheminer à un profond raisonnement mathématique, M. Hawkins va se servir de formes géométriques dans l’espace afin de clarifier son raisonnement. C’est ainsi, avec des images représentant des modèles mathématiques, que ce fantastique chercheur a pu terminer sa théorie sur le trou noir. L’image étant plus facile et plus rapide à manier que des raisonnements de mathématiques pures où pour chaque lettre, nombre, un “clic” du menton était nécessaire.
B – L’image est langage.
“L’image échappe enfin à la sphère des métaphores pour entrer dans le monde des modèles “, écrit encore l’ingénieur en chef à l’INA. Mais comme il l’explique, une métaphore ne s’explore pas systématiquement au contraire du modèle mathématique que l’on peut explorer et réfuter. Celui-ci s’expérimente de l’intérieur, c’est-à-dire par les nombres, mais peut aussi être confronté au réel. Cette confrontation est la condition sine qua non de la validité du modèle. Et cette exploration est désormais possible grâce à l’image de synthèse. C’est le corps, dans la réalité virtuelle, qui va éprouver le “réalisme” du modèle et qui va le rendre intelligible.
Il est cependant encore difficile aujourd’hui de se rendre compte de la véritable révolution qui va reconfigurer l’ensemble des moyens de production, pourtant il est déjà certain que nous vivons dans une économie supersymbolique où la carte de crédit est l’élément fondamental, et que toute opération de production passe dès à présent par l’échange d’informations. Alvin Toffler, futurologue américain, prévoit même que cela se fera au détriment d’échanges matériels, c’est-à-dire de biens et de choses. Le ton est déjà donné par la nécessité de rapidité demandée aux entreprises afin de parvenir au “stock zéro” qui est le résultat d’une information (demande offre changements de modes…) si précise qu’elle rend obsolètes les stocks de prévisions. Cet éminent futurologue américain, qui tend à servir une idéologie ultra-libérale, écrit ainsi que “le capital est en passe de devenir “supersymbolique”… De même, nous sommes en voie de créer un capital fait de dérivations successives, ou, pourrait-on dire, d’images qui se réfléchissent à l’infini.” L’image est donc bien devenue une nouvelle forme langagière porteuse d’informations.
Il s’avère donc aujourd’hui, que la société dépend entièrement de l’information, car elle donne accès au nouveau pouvoir. Plus que jamais, le savoir est pouvoir, et cette information est de plus en plus graphique. C’est une réelle révolution épistémologique du statut de l’image qui devient maintenant langage pur.
Il n’y a de langage qu’au sein de l’humanité, comme il n’y a d’humanité que DANS le langage. Le langage est l’affaire intérieure de l’humanité.
“Il apparaît de plus en plus que l’élément générateur par excellence de ce monde qu’à la place de l’ancien nous entendons faire nôtre, n’est autre chose que ce que les poètes appellent l’image. La vanité des idées ne saurait échapper à l’examen, même rapide… Seule l’image, en ce qu’elle a d’imprévu et soudain, me donne la mesure de la libération possible, et cette libération est si complète qu’elle m’effraye. C’est par la force des images que, par la suite des temps, pourraient bien s’accomplir les vraies révolutions.”
§2 Les nouveaux langages numériques
De cette force de l’image numérique, il ressort que la médiation du nombre sur nos représentations constitue une nouvelle forme de langage. Plus prosaïquement, la technoculture possède déjà ses propres codes, symboles, et a déjà ses propres formes langagières.
A – Différence : langage formel, langues naturelles.
Quel est donc ce nouveau langage, instauré par l’ordinateur dans nos sociétés ?
Comment est-on passé du langage formel utilisé par l’ordinateur aux langues naturelles, c’est-à-dire celles que les humains utilisent et comprennent dans leur vie quotidienne. La langue naturelle appartient au domaine des signes et des significations. Pour parler, on se sert de la grammaire, de la syntaxe, de règles, mais cela n’empêche pas de comprendre une phrase incorecte ou insensée…
L’ordinateur ne supporte pas, lui, l’ambiguïté, il exécute un ordre sans l’interpréter en fonction du contexte ou de la situation lors desquels est émis le message.
Cette opposition apparemment sans issue est posée par Pierre Lévy dans La Machine Univers : “La courte histoire du dialogue entre les hommes et les ordinateurs peut être analysée comme un effort pour combler le fossé entre langages formels et langues naturelles.” Il énumère alors les différents types de langage de programmation qui permettent un assouplissement de cette relation : le cobol, le basic, qui sont des “outils de codage, des algorithmes relativement proches de l’anglais courant, des mathématiques ou de la logique visuelle.” Des recherches sont également poursuivies pour élaborer des langages de programmation totalement graphiques et visuels. On n’aboutit pas à un langage basic à vocation universelle, mais bien plutôt à des “dialectes logiciels”.
Pourquoi dialecte ? Parce que chaque application du numérique recquiert ses propres logiciels. Mais le fait qu’ils se multiplient et se généralisent fait qu’en se diversifiant, les langages de programmation rapprochent la perception et la manipulation des traitements informatiques de l’appréhension immédiate des utilisateurs. Et ceux-ci, depuis plus de dix ans déjà, ne sont plus seulement des chercheurs ou des informaticiens. L’ordinateur se retrouve au bureau, dans le commerce, dans l’atelier de l’artiste, et de façon encore moindre, à la maison. Ce dialogue se fait donc sur un mode nouveau et tient pour beaucoup au progrès fait en matière de commande vocale et de synthèse de la parole. Même si on est loin de pouvoir créer des programmes capables de reconnaître l’ensemble du langage parlé, il est d’ores et déjà possible de communiquer grâce à des langages “hybrides”.
Voici, extrait de la revue Traverses, un métalogue , qui serait un exemple possible de ces langages hybrides. Le métalogue est une conversation sur des matières problématiques : elle doit se constituer de sorte que non seulement les acteurs y discutent vraiment du problème en question, mais aussi que la structure du dialogue dans son ensemble soit, par là-même, pertinente sur le fond.
Conversation surprise au fond d’un garage entre Benjamin et un ordinateur :
Benjamin : “Je viens de finir le livre de Searle en cours de math. Qu’en as-tu pensé ?
Kaos : (sa voix est un peu métallique, l’algorithme de phonétisation n’est pas encore tout à fait au point) Pensée ? Une très jolie fleur, oui, avec de belles couleurs.
B : Non, Kaos, pas cette pensée-là.
K : Excuse-moi. Je switche sur l’autre micro-univers sémantique : penser, faculté de comparer, de combiner des idées ?
B : J’ai trouvé ce livre à la fois pertinent et impertinent.
K : Je croyais qu’une chose et son contraire ne pouvaient être simultanément vraies.
B : Impertinent signifie ironique.
K : Je le savais, j’hésitais entre cette donnée brute et le résultat de la procédure de calcul des antonymes. Comment pouvais-je arbitrer ?
B : Conceptualise. Si tu me prends pour un idiot, alors oui, j’aurais pu utiliser pertinent et impertinent à mauvais escient.
K : Je comprends, Benjamin. Je partirai dorénavant de l’hypothèse qui te valorisera le plus…”
Ceci n’est qu’une fiction composée par Yvan Gauriloff et Jean-Pierre Balpe, mais les recherches provenant de l’intelligence artificielle pourraient très bientôt donner le jour à de véritables langages/machines.
Cette tentative de réunir le langage formel à la langue naturelle qui est celle de nos sociétés se retrouve déjà chez Leibniz. Celui-ci a en effet inventé le premier langage binaire, tout en opposant l’infini mathématique (calcul infinitésimal) à l’infini de la réalité. Sa philosophie était habitée par le projet d’une langue ou “caractéristique” universelle. A ce titre, elle ouvre la voie qui mène à travers Boole et Babbage, aux recherches sur les “langages” de programmation informatique.
B – Le logiciel promu logos
“L’informatique a créé une nouvelle fonction phatique, à savoir la tendance à communiquer à partir de pratiques partagées de ceux qui, toujours plus nombreux, recourent toujours davantage à l’ordinateur. Le milieu informatique devient de plus en plus bon “conducteur” en établissant nos modes de communication sur l’expérience toujours plus active que nous avons tant du matériel que des logiciels.”
Il est bien entendu que l’on ne peut à coup sûr prévoir toutes ces évolutions, pourtant il apparaît que le numérique apporte une révolution dans le langage tout autant que l’apparition de l’alphabet ou de l’imprimerie avant lui. En effet, il devient de plus en plus habituel de confier aux ordinateurs l’ensemble des problèmes auxquels la participation à la société amène. L’ordinateur intervient de plus en plus quotidiennement sur tous nos actes, qu’ils soient ceux du domaine professionnel ou celui des loisirs. Alors, René Berger pense que l’on pourrait de plus en plus calquer le comportement humain sur un “Computer Integrated Behaving” (comportement informatique intégré).
Cela peut être assurément très dangereux de s’en remettre autant à ces ordinateurs dont la panne est aussi probable que le bon fonctionnement. Ici on fait allusion à l’affaire du capitaine du navire américain, le Vincennes, qui donna l’ordre d’abattre un avion civil que ses moyens de détection informatiques avaient détectés comme étant un avion militaire. Le bilan fut terrible, puisqu’il s’éleva à 290 morts. Il existe d’autres exemples de ce type, comme celui que rapporte Philippe Quéau dans Le virtuel, vertus et vertiges, où des soldats américains ont tiré des missiles air-sol sur des transports de troupes britanniques pendant la guerre du Golfe. Ils prétendirent ne pas avoir reconnu sur leur écran informatique les signaux de balise “amis”.
C’est un danger mais qu’il ne faut pas rejeter ni diaboliser. L’ordinateur, par son fonctionnement proche du mode de pensée, n’en est pas moins une technique par laquelle l’homme agit sur la nature. Il ne faut céder à aucun fantasme, ni à la peur “qu’on agite, nous dit Daniel Sibony, celle de l’homme devant sa technique, peur que sa technique lui échappe, peur de la deshumanisation, qui n’est que l’expression affolée d’un fantasme très précieux, par lequel l’homme se donne rendez-vous – grâce à un faire, un système, un langage, une mémoire – , se donne rendez-vous justement là où le langage qu’il a déclenché et qu’incarne cette machine peut le surprendre.”
Parce que le numérique apporte en son sein de nouveaux modes de communication, il crée en cela un nouveau langage. La communication avec l’expression, étant les deux pôles du langage. Entre ces deux pôles rayonnent les divers usages du langage (technique, représentatif, dialectique, ludique…). Ainsi il existe bien dans cet environnement moderne tout un réseau “serré de fibres, de câbles, de conducteurs” qui nous enferme “au sein d’un cocon” exprime joliment Fred Forest. Ce nouveau langage fait de pratiques de commutations nouvelles se transcrit déjà dans nos langues avec, là encore et toujours, une suprématie pour la langue anglaise, berceau de ces nouvelles techniques.
§3 Du langage à la culture.
A – Intrusion du numérique dans les langues.
Le vocabulaire du numérique n’est pas encore inscrit dans le dictionnaire. Ainsi, chaque article sur le numérique possède son propre glossaire. Mais tout au long de ce mémoire, l’occasion de citer certains de ces mots s’est souvent présentée, tels : la technosphère, le data glove, les réseaux, la réalité virtuelle… Pour généraliser, beaucoup de ces mots ont un préfixe commun, télé- par exemple (téléprésence, télévirtualité) ou visio- (visiophone, visioconférence). Les auteurs les plus prolixes n’hésitent pas à inventer leurs propres mots, René Berger qui prône l’exigence d’une pensée nouvelle parle de techno-urgie, d’apoptose. Lui-même décrit l’apparition de ces “préfixes fertiles” : en parlant de la problématisation “multi pluri inter trans disciplinaire” à l’oeuvre aujourd’hui.
Il est vrai que pour un néophyte, ces nouveaux mots qui sont bien souvent d'”anciens” mots composés, ne veulent pas dire grand-chose, surtout qu’il est difficile d’en donner une définition sinon approximative. Aussi, on pourrait voir apparaître une nouvelle syntaxe davantage hypertextuelle et moins logique qu’auparavant. Qui serait plus proche, pense Pierre Lévy, de la théorie connectionnelle issue de l’intelligence artificielle. Il se développe en tout cas tout un vocabulaire spécialisé et “mixé” qui aboutit selon les “internautes” à un jargon international fait de fran-glais et autres mélanges. Le résultat en est, paraît-il, déconcertant ! Car, pour l’instant encore, n’est pas informaticien qui veut…
B – L’avénement de la techno-culture
C’est un fait, la technique est entrée dans nos modes de vie, d’action et même d’expression. Est-ce pour autant à dire qu’une nouvelle culture émerge ? La réponse est affirmative. Elle est dans nos loisirs et le sera de plus en plus au regard des nouvelles générations très amatrices de nouvelles technologies. Une étude montre d’ailleurs que les demandes de jeux des enfants se sont déplacées vers les jeux vidéo et le matériel informatique.
De plus, il faut ajouter à cela un phénomène pour le moins tendancieux qu’il est cependant impossible de ne pas signifier. Mouvement de décadence de fin de siècle, ou positivisme d’un millénaire techno-futuriste : le mouvement “techno” dont l’épiphénomène est la “rave-party” (rave, de l’anglais “délirer”). C’est LE mouvement des années 90 d’une jeunesse bien en mal d’espoir et qui semble se tourner vers des environnements technologiques. Pour certains, c’est l’oubli de la quotidienneté, “Métro Boulot Dodo”, pour d’autres, c’est l’attrait d’une nouvelle musique, de nouvelles images. Ils se sont, en tout cas, dénommés la “House Nation” car, par millions dans le monde, des jeunes se retrouvent depuis presque dix ans dans ces fêtes. La musique (si l’on se tient à une définition basique de cette dernière comme l’assemblage et la mise en mélodies de sons) technologique; la “techno” est faite à partir d’ordinateurs et de synthétiseurs qui permettent le “sample” de musiques antérieures. Les musiciens sont, eux, remplacés par des DJ’s (disc jokeys) qui mènent la danse et qui sont bien souvent comparés à des shamans en invitant leur public à une transe (rarement “naturelle” il est vrai). On peut parler d’une culture techno autant que d’une techno culture, parce que c’est le premier mouvement qui donne son répondant à la culture rock des années 70.
Mais si on reprend cet exemple, le rejet de la société est tout autre, car au regard des raves, les “ravers” se créent un univers certes ludique mais extrêmement violent. Comme une réponse à nos sociétés urbaines qui se tentacularisent. Cela reste un phénomène de société mais on peut faire le lien entre cette culture et toutes les conséquences du numérique. Sans oublier que la première des “démocratisations” de l’image de synthèse est apparue dans ces fêtes. Ce n’est que quelques années après que des émissions comme L’oeil du cyclone sur Canal + sont venues présenter ces images au tout public, et qu’ensuite, comme on le voit depuis deux ans, les médias s’en sont emparés allant parfois jusqu’au fantasme. Que ces jeunes qui ont aujourd’hui de 15 à 25 ans soient les adultes de demain ne fait qu’ajouter à l’idée de l’émergence de cette culture techno qui, elle aussi, a ses propres codes et modus vivendi…
Voici fondés les éléments d’une nouvelle culture, celle de la technologie que l’on doit penser de manière différente aujourd’hui, puisque de l’outil, elle est passée au symbole. De ce nouveau rapport au corps, au réel et à l’image, pourrait s’instruire une pensée nouvelle dont quelques prémisses seulement s’offrent dès à présent à nos yeux.
Chapitre 2
Une pensée nouvelle.
Section 1 : De nouveaux modes de connaissance
Comme il a été vu tout au long de la première partie, la perception humaine ne ressort pas intacte du numérique. Le corps se retrouve interface pour une symbiose d’un nouveau type, dont parlait Deleuze : “Cerveau/Information”. Si cette perception est perturbée, c’est son intellection qui va aussi changer. L’unité du “moi” percevant et celle du “monde” perçu sont en effet entièrement corrélatives. Jean-Louis Grateloup, dans son Cours de Philosophie, nous rappelle qu'”un phénomène troublant affecte la perception du sujet, et au regard d’un sujet troublé, le monde devient trouble”. Kant appelait virtus unitiva cette singulière propriété du sujet percevant qui “constitue” le monde. Car, de cette perception à l’intellection, il y a un cerveau qui pense et se “figure” le monde perçu. Le but est donc de voir quelles sont les nouvelles connaissances ou les manières de penser qui émanent de cette symbiose d’un nouveau type : “homme-machine”.
§1 Le mode de la simulation.
A – Simulation et Imagination.
Le numérique et la CAO (Conception assistée par ordinateur) permettent un nouveau type de connaissance, celui de la simulation. La simulation est le point nœdal de la machine universelle de Turring, informaticien, ainsi que de tous ses “dérivés” : images de synthèse, réseaux, réalité virtuelle… La simulation d’expériences complexes ou dangereuses permet ainsi de faire l’économie de démarches coûteuses, voire même parfois impossibles. En cela, la simulation se rapproche de l’imagination en la prolongeant. Parce que “notre sensibilité sensorielle, écrit Paul Caro, ne nous permet pas d’appréhender directement la structure et la matière.”
En effet, l’oeil ne peut pas voir – par “lui-même” – les astres et le toucher ne peut accéder à l’infiniment petit. Ainsi, le scientifique, lorsqu’il appréhende le réel, s’en fait une idée “virtuelle” en se servant de son imagination et crée un modèle. Ensuite, le modèle doit être vérifié par l’expérience et c’est là qu’intervient l’instrument. La technique va réaliser une “transformation” de l’échelle qui permettra aux sens d’accéder à une représentation du modèle. Cette représentation se fera par l’image et le nombre, mais comme il a été vu précédemment cette image n’est parfois pas “connue” du scientifique, c’est-à-dire que, par elle-même, elle n’a pas de signification connue.
Dès lors, l’instrument (que ce soit l’ordinateur, le microscope ou le macroscope) va générer toute une suite d’images. De là, comment le scientifique qui n’est parti que de son imagination pour construire le modèle va-t-il pouvoir “reconnaître” ce à quoi il veut arriver, c’est-à-dire le but final de son expérience ? C’est là qu’intervient la simulation par laquelle le chercheur va demander à l’ordinateur de générer “toute une série d’images à partir de l’application de la théorie au modèle structural et des conditions expérimentales supposées, et il va comparer cette deuxième génération d’images à celle que l’instrument produit et chercher l’accord par l’analogie”
L’exemple le plus intéressant en la matière est la génération d’images qui sont l’expression “mathématique” de la théorie des fractales de Mandelbrot, un des phénomènes les plus complexes des mathématiques. Il suffit de changer une infime partie des coordonnées de ces images numériques pour que la représentation mute en un tout autre paysage fascinant, et que cette nouvelle image nous “parle” plus alors qu’elle représentera exactement la même “zone mathématique” comme ci-contre.
Fractales de Mandelbrot
La même zone mathématique, avec deux couleurs différentes.
Cela conduit à se repositionner sur l’ambiguïté du “réel” et de la “nature”. Parce que, même si l’on ne sait pas logiquement à quoi correspondent ces images, certaines nous plaisent plus que d’autres. Il convient cependant ici, de dissiper un malentendu avec Edmond Couchot : “Les modèles de simulation numérique ne sont pas tous d’essence mathématique.” En effet, certains modèles utilisés en intelligence artificielle ( simulation du raisonnement) proviennent des sciences humaines. De plus, l’art numérique n’est pas qu’un art du calcul du fait de l’interactivité rendue possible dans la relation homme/machine. Ainsi, dans la réalité virtuelle, il suffit que le spectateur/acteur regarde un objet ou dans une direction, pour que l’image se modifie et, par interaction, modifie lui-même le modèle. Aussi, si au départ, ces modèles sont conçus pour produire et expérimenter de la connaissance, ils peuvent de même sortir de l’imagination d’un artiste et être alors “détournés”.
Dans la simulation, on retrouve la vraie nature de l’image numérique : elle ne représente pas le réel, elle le simule, et c’est par l’interactivité qu’elle propose, qu’il est possible d’expérimenter le modèle à travers l’image. La simulation “automatise l’expérience et la rend indéfiniment plus efficiente. Elle substitue au réel originaire un programme abstrait – du soft – qui s’avère tout à fait capable de fonctionner comme le réel et de répondre comme le réel au questionnement de l’expérience”, écrit encore E. Couchot dans un autre texte, L’Odyssée, mille fois ou les machines à langage .
Enfin, il apparaît que l’image de synthèse ne ressemble ni à l’imaginaire ni au réel mais bien au virtuel. Car le virtuel existe sans exister vraiment, condensé qu’il est dans le domaine du possible. Il en découle que la simulation est plutôt, selon la formule de Pierre Lévy, de l’imagination assitée par l’ordinateur. Et il s’insurge contre l’idée d’une déréalisation du savoir et prône dans les Technologies de l’intelligence, des “pouvoirs accrus de l’imagination et de l’intuition” , grâce à la simulation informatique.
B – Le mode de connaissance par simulation.
Avant d’étudier les conditions possibles d’un renouvellement de la connaissance par la simulation et ce, dans tous les domaines, examinons quel était le sens donné au mot “simuler” auparavant. Avant l’avènement de l’ordinateur, celui-ci désignait exclusivement le fait de déguiser un acte sous l’apparence d’un autre et de faire paraître cet acte pour une chose qu’il n’était pas. On imagine ainsi aisément la connotation négative flottant attachée à ce mot, comme l’acte de “faire semblant”. Simuler ou travestir le réel en quelque sorte.
Par contre, depuis quelques décennies et avec l’apparition de l’ordinateur, simulation équivaut à “autre chose”. Ici, on reprendra la définition donnée par René Berger dans Télévision ,Un nouveau Golem. Simulation désigne “les opérations qui permettent de prévoir et de visualiser le comportement d’un système à partir d’un modèle mathématique approprié, de manière à suivre l’évolution des différentes variables représentatives du phénomène”. La simulation fonctionnant ainsi comme un module externe a la faculté d’imaginer.
Dès lors, la connotation devient positive puisqu’elle rend à la simulation un pouvoir de grande efficacité en matière de conception et de recherche. Faire l’énumération des domaines où la simulation est utilisée est presque illusoire et il serait plus simple d’écrire que la simulation comme mode de connaissance est utilisée dans tous les domaines. De l’imagerie médicale à la recherche scientifique, en passant par Wall Street et l’industrie, sans oublier l’architecte et le designer. Ainsi, des opérations à risques, qu’elles soient militaires ou chimiques : simulations de vols en zones ennemies comme ce fut le cas par exemple lors de la guerre du Golfe. Les GI’s ont en effet découvert l’Irak sous forme de balises numérisées et de paysages retranscrits en images de synthèses, dans lesquels ils ont appris à se déplacer “virtuellement”. Beaucoup, si ce ne sont toutes, des bases aériennes ont un cockpit de simulation de vol où l’on apprend à conduire et à voler de façon “simulée”. On peut ainsi définir la simulation virtuelle comme l’immersion fonctionnelle dans un univers de synthèse.
De même, en réponse à l’actualité et à la désapprobation internationale contre les essais nucléaires de la France, on pourra par la simulation résoudre le problème de l’expérimentation dans le réel par des essais “virtuels”.
Pour les designers et les architectes, cet apport n’est pas moindre : en effet, la simulation institue la “spatialisation de l’imaginaire” , par une mise en scène de l’image mentale – première – du concepteur. Mise en scène, validité, efficience, fonctionnalité et esthétique sont alors possibles. Après avoir imaginé l’espace, on l’expérimente. Comme avec la réalité virtuelle, on peut se déplacer dans cet univers imaginaire, on en conclut de son efficience ou de son non-réalisme. On lui fait éprouver “virtuellement” les contraintes de la réalité et cela, à un moindre coût.
Les images conceptuelles
Projet de développement de la ville nouvelle Melun-Sénart,
Arch. A. Sarfati, images S. Porada.
Cependant, et pour terminer, l’expérimentation “virtuelle” ne doit se confondre en aucun cas avec de véritables expériences puisque l’on expérimente un modèle et non un phénomène.
C – Les limites.
C’est encore pour l’instant la grande limite à la validité des applications du numérique. Le grand débat épistémologique sur la réduction du réel au calcul se retrouve dans ce problème avec force. L’infini réel est bien plus grand que celui du calcul. Et la critique de l’appréhension du réel à ce qui en est quantifiable est tout à fait recevable. “Comment, en effet, demande Pierre Lévy, quantifier le rôle de l’imaginaire social par exemple ?” On retrouve là encore la polémique sur l’Intelligence Artificielle et la question : les machines pensent-elles ou peuvent-elles y arriver ?
Comment quantifier l’imprévisible, le hasard, l’inconscient, ou les non-sens ? Il ne faut donc pas leur donner un caractère de scientificité a priori. Ni considérer le mode de connaissance par simulation comme étant valide en oubliant ainsi que cela est vrai à un moment, pour une situation et un problème donné seulement. C’est ainsi que la New Economic History, école américaine d’Economie, a prôné une histoire basée sur le calcul formel, l’ordinateur répondant à des questions telles que : “L’esclavage dans le Sud avant la guerre de Sécession était-il réellement une entrave au développement économique ?”
Un modèle logico-mathématique peut-il résumer l’histoire à des propositions : “Toutes choses étant égales par ailleurs ” ? Il est évident ici qu’il vaudrait mieux cantonner ce type de connaissances au calcul.
Il ne faut cependant pas renier l’apport du numérique à la connaissance, car il est un “miroir” de notre propre savoir. Plus les sciences humaines découvriront de paramètres d’explications du réel, plus il sera possible de les communiquer à l’élaboration d’un modèle dont la simulation acquerrera un plus grand degré de complexité et de réalisme. Et le simple fait que l’ordinateur ne soit plus exclusivement confronté à l’opération mais à l’interprétation semble bien être l’amorce d’une nouvelle catégorie de la connaissance, par le numérique.
§2 Mémoire de la connaissance
“Il faut donc que l’image soit présente et passée, encore présente et déjà passée à la fois, en même temps. Si elle n’était pas déjà passée en même temps que présente, jamais le présent ne passerait.
Le passé ne succède pas au présent qu’il n’est plus, il coexiste avec le présent qu’il a été.” Gilles Deleuze, Cinéma 2. L’image-Temps (p. 106)
Un des premiers philosophes a avoir pensé l’image en mouvement, le cinéma, est Gilles Deleuze. Disparu aujourd’hui, sa pensée a fait des émules et la notion d'”image-temps” déjà évoquée s’y découvre. Parce que, nous dit-il, tout moment de notre vie offre deux aspects : l’actuel et le virtuel, perception d’un côté et souvenir de l’autre, la présence du passé est dans chaque instant. S’interroger sur la mémoire à l’heure du “virtuel” et des images de synthèse, c’est se questionner sur le rapport de l’esprit au temps et finalement sur le fondement de toute réalité.
Mais pour le numérique, de quelle mémoire parle-t-on ? Il existe en effet deux grands courants d’interprétation de la mémoire : le courant spiritualiste qui, de Platon à Bergson, pense la mémoire comme la puissance d’anamnèse dans les profondeurs immémoriales de l’être , ou le courant matérialiste pour lequel la mémoire est une propriété de la matière. La notion de mémoire en informatique découle en premier lieu de ce courant matérialiste, car un ordinateur n’atteint sa puissance que par sa plus ou moins grande capacité de “mémoire”. En informatique, cela désigne donc la capacité à “engranger” de l’information et à la traiter. Pour traiter et numériser une image de moyenne qualité et, ensuite, la stocker, la capacité de l’ordinateur doit s’élever à 40 Mo au moins.
Ensuite, parler de mémoire en informatique, c’est obligatoirement se questionner sur la notion de CD-Rom, de banques de données. Enfin, s’il existe une mémoire individuelle (et même si celle-ci ne tend à émerger que dans le collectif et son obligation à communiquer), y a-t-il une “autre” mémoire qui émerge du numérique ?
A – La mémoire informatique opposée à la mémoire humaine.
Turing, auteur des”Ordinateurs et de l’intelligence écrit que la mémoire d’un ordinateur est “une réserve informatique et correspond au papier du calculateur humain, que ce soit le papier sur lequel il fait ses calculs ou celui sur lequel est imprimé son livre de règle.” Donc, aux dires de Turing, la mémoire de l’ordinateur est assimilée à un support d’un nouveau type : un dispositif d’enregistrement et de restitution systématique de l’information.
En cela, la mémoire informatique diffère de celle de l’être humain : nous ne gardons qu’une “idée” du passé, nous ne le restituons pas complètement et en détail ! Comme le note Pierre Lévy : “Lorsque je me souviens d’une symphonie ou d’un repas, je ne rejoue pas la musique intégralement, je ressers encore moins le repas !”
La mémoire humaine est liée intrinsèquement au processus de cognition, mémoire et connaissance ne peuvent être séparées que “conceptuellement”. La perception d’une chose ne se fait que par l’enchevêtrement du souvenir de la sensation antérieure, et de sa comparaison avec celle du temps présent. Donc, la mémoire informatique est celle de la matière ; celle au support ô combien maléable du CD-Rom ou des banques de données. Ces supports intègrent du son, du texte, de l’image, qui sont numérisés, c’est-à-dire traduits par l’ordinateur ou une suite de 0 et de 1. Cette mémoire “multimédia” est différente des livres ou des musées, car avec le numérique, on peut “régénérer le support sans toucher aux informations. Ainsi, remarque Alain Renaud pendant son cours de philosophie particulier (!), le nombre est pérénisé et par là même, on aboutit par le numérique à la “pérénisation du temps” .
Ainsi on pourrait évacuer le problème de la matière lié au support de la mémoire humaine, destinée, elle, à disparaître. Le problème du maintien des livres dans les très grandes bibliothèques le prouve, il est de plus en plus difficile de les garder intactes dans le temps. Alors que le support informatique peut, lui, être régénéré et supporter le poids du temps. Ainsi, depuis quelques années, on tente de créer d’immenses banques de données comme celle de la TGB ou encorede toutes les grandes bibliothèques du monde, mais il existe aujourd’hui aussi des “musées numériques” (cf CD-Rom très réussi du musée du Louvre à Paris). Le rêve de Bill Gates est d’ailleurs de créer un jour une encyclopédie universelle, histoire du monde, sur CD-Rom.
Tout cela en sachant qu’un CD-Rom, dont la capacité s’élève à 500 Mégaoctects peut, dès à présent, stocker à peu près cinq cents livres de cinq cents pages. Mais, là encore, ce support diffère des livres parce qu’ils sont moins une mémoire qu’un “miroir” de nos connaissances. Tout au long de l’histoire, en effet, la mémoire, le patrimoine, les livres, ont été étudiés, annotés. Chaque civilisation a posé ses traces. La possibilité de “trier sur le volet” le savoir auquel on veut parvenir, grâce à la fonction de “sélection” en informatique peut en effet nous permettre de prévoir que ce type de mémoire sera différent.
Il modifie le rapport du sujet au supprt, donc le rapport à la mémoire.
B – Quel type de mémoire numérique ?
La mémoire en tant que telle n’a cependant pas disparu, car le numérique ne fait rien disparaître… Alain Renaud faisait d’ailleurs remarquer que Platon, lors de l’apparition de l’écriture, avait prévu une disparition prochaine de la mémoire. Le livre selon lui, devait priver du travail de recherche en soi, pour l’accès à la connaissance. Et donc, anéhantir la mémoire humaine. Le numérique à son tour n’impliquera pas plus de disparition que ne l’a fait avant lui l’écrit. Il aboutit cependant à un autre type de mémoire.
Pierre Lévy, parle des “trois temps de l’esprit : l’oralité primaire, l’écriture et l’informatique”. Le cycle de temps de l’oralité primaire est “circulaire”, celui de l’écriture est linéaire. Mais quel est le temps de l’informatique ? C’est le temps réel, on passe alors dans le cycle chronologique du ponctuel. Pour Pierre Lévy, chaque temps de l’esprit instruit un type de mémoire. En faisant référence au livre du philosophe Bergson – Matière et Mémoire – il explique que le passé “survit sous deux formes distinctes : dans des mécanismes moteurs et dans des souvenirs indépendants” .
Le premier genre de mémoire correspond à notre expérience : apprendre à faire du vélo, à nager, qui constituent des habitudes. Le second type est celui de la “mémoire déclarative” qui se matérialise à court terme par la répétition, et à long terme par la mise en association, ainsi que l’implication personnelle du sujet par l’émotion. Chargés émotionnellement, ces souvenirs sont “ancrés” dans notre mémoire. Mais si le temps de l’écriture est la linéarité, c’est donc l’écriture qui fait apparaître l’histoire en permettant au sujet de se détacher de l’objet et d’en faire une abstraction. Dès lors, si l’ordre chronologique est ponctuel, cela fait-il pour autant disparaître l’histoire et donc, ce type de mémoire ?
Non, parce que l’oralité primaire n’a pas disparue avec l’écriture. Chaque système de représentation coexiste à l’autre, comme le numérique coexiste au livre. Régis Debray, lors de la conférence sur les problèmes philosophiques, éthiques et sociologiques posés par le “virtuel” lors de la 13ème session d’Imagina, disait même que la croyance en la véracité des images a subi un tel choc avec le numérique que l’on retournerait à l’écrit. On peut donc imaginer, à l’instar d’Alain Renaud, “une troisième mémoire” de type automatique” .
Une automatisation de la mémoire qui viserait moins la vérité que la vitesse du traitement de l’information et de la pertinence d’action de l’ordinateur. Mémoire, encore une fois, d’un autre type, instaurée par le numérique qui suivrait le mode de la fonctionnalité.
Aussi, si ces machines cybernétiques sont porteuses d’une ouverture de la connaissnace en poussant à son degré ultime la fonction de prédiction de l’intelligence, et qu’en même temps, elles élargissent le champ de la mémoire humaine, peut-on répondre à la question : “Les ordinateurs pensent-ils ?” On serait tenté de répondre : pas plus que l’humain. Mais alors, suivant les progrès de notre pensée… pas moins que l’humain ?
Parce que ces machines cherchent à ressembler à l’esprit humain ou se rapprochent de ses fonctions, il est utile de comprendre les probables interactions qui découlent du couple “Cerveau/Information”. Quel est l’effet sur notre pensée des “troubles” de la perception instaurés par le numérique ? C’est le point final de la démonstration, car l’objet de ce mémoire est de voir jusqu’où le numérique est présent dans notre être et s’il va même jusqu’à produire des effets sur notre pensée.
Section 2 : Approche d’une pensée nouvelle instaurée par le numérique.
Par pensée nouvelle, on entend extension de la pensée grâce aux images et au numérique. Cette extension de la pensée peut revêtir diverses formes. Certains auteurs, de la philosophie à la science, se sont préoccupés des influences de ces nouvelles techniques sur la pensée, mais ils s’opposent au courant de pensée philosophique traditionnel qui, depuis Platon, nie le lien entre la technique et le langage et toute capacité symbolique à la technique. Le premier a avoir lié la technique au langage est Leibniz (langage-calcul), mais on retrouve aussi Leroi-Gourhan et plus récemment Edmond Couchot ou Alain Renaud. Ce sont donc des philosophes ou des penseurs d’un nouveau genre dont on retiendra les idées les plus fortes. Car dans ce domaine, tout peut être dit, même les idées les plus folles et utopiques, on ne fera donc état que des lignes de réflexion possibles quant à l’émergence de cette nouvelle pensée.
§1 une extension de la pensée : le numérique
Sans tomber donc dans la science-fiction, il faut néanmoins bien comprendre les éléments qui, par le numérique, étendent les capacités de réflexion
A – Une pensée “squelette”
1 – Les aberrations psychiques
Tout au long de ces lignes, il est apparu que la Réalité Virtuelle (ou toute technique numérique) permet de concevoir des “aberrations psychiques”. Aberrations, parce que souvent, impensées ou irréalisables, certaines actions ou représentations néanmoins être accessibles par le “virtuel”. Ainsi des espaces incohérents, impossibles, que l’on peut d’ores et déjà “visiter” grâce aux performances de la RV. Se déplacer dans un espace non-euclidien, est par exemple une expérience qui apporte à la pensée, du fait de l’immersion dans l’image et l’espace.
Dans le même sens, le concept d’altérité se trouve approfondi puisque l’on a la possibilité dans un monde virtuel, de se voir regarder l’autre, ou bien encore de voir à la place de l’autre ce qu’il voit. Parce que ces techniques modifient des notions telles que l’altérité ou que la présence, cela apporte des expériences nouvelles à l’être humain qui n’avaient pas été pensées auparavant. L’apparition d’une “personnalité numérique” par exemple. De même pour la possibilité de communiquer et d’agir à distance et sans le corps.
L’apport de l’ordinateur aux actions humaines, influence notre manière de penser, comme l’a fait auparavant l’imprimerie lors de son apparition. On en connait les effets sur le christianisme et l’acquisition du savoir. Il a même été prouvé que la logique (pensée logicienne) découlait de l’imprimerie, l’écrit permettant au sujet pensant de se détacher de l’objet en l’inscrivant sur du papier. Et de cette abstraction de l’objet a pu naître la logique; celle de Descartes entre autres.
2 – Les deux infinis
D’autre part, l’association d’instruments tels que le micro ou le macroscope à l’ordinateur a totalement modifié la conception des deux infinis de Pascal. Invisibles à l’œil nu, on peut désormais parcourir le corps jusqu’à sa plus petite mollécule que voyager sur les planètes. Cette possibilité offerte par le numérique de connaître et donc de penser l’infiniment grand et l’infiniment petit est considérable. Comme une image de synthèse donne à voir l’invisible, le numérique permet de penser l’impensé. La preuve en est : les images des deux infinis sont souvent d’une “nature” inconnue pour les chercheurs, ne correspondant en rien aux catégories préétablies de la connaissance.
Masaki FUJIHATA
Micro Machined Sculpture
Ces trois travaux sont produits sur une seule plaque de silicone.
La taille du rectangle est de : 360 x 360 micron.
D’où l’idée, partagée par encore trop peu de philosophes que la “technologie n’a pas encore la pensée, ni peut-être même la pratique qu’elle mérite” . C’est bien sûr une position philosophique risquée car fondamentalement nouvelle, puisque cela aboutit à accorder au “fait technologique” une “dignité” nouvelle d’objet philosophique. Cependant, l’évolution de la pensée va dans ce sens, car elle prend une forme de plus en plus abstraite, dont l’éloignement de l’objet réel semble confirmer l’émergence d’une pensée en extension. Car l’abstraction permise par le numérique ne se contente pas de penser ce qui est, mais porte la réflexion sur ce qui “n’est pas”. Par virtuel, on entend tout ce qui n’est pas actuel, mais aussi tout ce qui n’a pas de matérialité propre comme les images de synthèse. Ainsi, penser un espace qui ne peut exister revient bien à augmenter l’abstraction de la pensée.
Cela pourrait bien aller de pair avec la tentative unificatrice des sciences pour fonder une théorie unique de la fondation de l’univers. De la relativité d’Einstein à la théorie du chaos de Gleick, la pensée ne cesse de poursuivre une abstraction croissante (aidée de l’imagerie numérique) qui tend à en faire de plus en plus une “pensée par squelette” selon l’expression de Paul Valéry. Mais cette avancée scientifique doit être suivie par les sciences humaines et par la pensée en général. C’est à dire, ne pas continuer à se considérer dans une société mécaniste où la technique n’est perçue que comme un outil. Voir l’invisible, penser et expérimenter l’impensé et l’inexistant, voilà bien ce à quoi ouvre le numérique et en cela c’est une extension de l’esprit.
B – Le collecticiel et la pensée collective
La notion d'”intelligence collective” est développée par Pierre Lévy dans Qu’est-ce-que le virtuel ?. Elle s’oppose à l’intelligence individuelle qui se rapporte plutôt à la conscience. Son individualité est d’ordre biologique. L’intelligence collective procède à contrario de la culture. La culture représente tout ce qui a trait au langage, aux langues et aux systèmes symboliques qui sont utilisés par les individus de façon collective. L’intelligence individuelle a donc besoin du collectif pour s’exprimer car l’Homme est un être du langage, sociable et communicant. C’est donc l’aspect social de l’individu que l’on désigne par intelligence collective.
Le numérique et les NTI ont tant modifié la culture, que la notion de “techno-culture” est apparue. Les modes de communication s’en sont trouvés transformés, élaborant de nouveaux codes partagés par la communauté. Mais la nature du changement qui altère l’intelligence collective est-elle positive ? Peut-on vraiment le comprendre comme une “extension” positive de la pensée ?
Oui, car une part plus large y est accordée à l’imagination et à la spontanéité de l’esprit créatif. Pour Pierre Lévy, les réseaux informatiques, ainsi que le développement de la communication assistée de l’ordinateur, jouent en effet ce rôle. L’auteur a maintes fois affirmé cette idée, plus importante selon lui que le “mythe” de l’intelligence artificielle.
Ainsi des “Arbres de connaissances” (cela a été le sujet d’un de ses livres), théorie selon laquelle chaque individu a sa place dans l’évolution créatrice de la pensée ou de la décision. Chaque compétence est acte de création et peut être enregistrée comme telle dans les réseaux. “Si tous les actes pouvaient être captés, transmis, intégrés à des boucles de régulation, renvoyés à leurs producteurs et participaient ainsi à une meilleure information globale de la société sur elle-même, l’intelligence collective connaîtrait une mutation qualitative majeure. Une telle perspective n’est pratiquement envisageable que depuis l’existence des micro-processeurs, des nano-capteurs, de l’informatique distribuée en réseau, fonctionnant en temps réel et pourvue d’interfaces conviviales (images, voix,…)” . Dès lors, pourraient se créer de multiples “arbres de connaissances” reliant des gens d’Eglise, des chercheurs, à des artistes ou des architectes… mettant à la disposition de tous, les connaissances individuelles et spécifiques, pour une vision plus globale et complexifiée du réel.
Cette idée est radicalement contraire aux utopies négativistes qui voient cette fin de siècle comme la “fin” de la culture, la “fin” de l’histoire et même de la communication. Ou alors, est-ce l’intelligence collective qui fait figure d’utopie positiviste et de foi naïve dans le progrès ?
Les Nouveaux Pouvoirs, de l’américain Alvin Toffler, éclaire ce débat par l’énumération des pratiques envisagées dans les grandes firmes. Il apparaît que l’usage des réseaux informatiques en entreprise, transforme et rend presque obsolètes les notions traditionelles de hierarchie. Cela ne concerne, il est vrai, que de grands consortiums et multinationales des pays les plus avancés, mais la tendance à la compléxification des tâches administratives explique ce mouvement. Le principe du réseau y est présenté comme “…capable de remplacer les vieilles communications de style bureaucratique” . De quelle manière ? Dans un système informatique, on peut “superposer” les couches successives d’information, du point de détail de la fabrication aux lignes stratégiques définies par la firme. L’information peut “redescendre ou remonter les échelons” sans perte de temps car en temps réel. Et c’est courcicuiter en même temps les étapes intermédiaires qui sont un obstacle à la circulation “idéale ” des messages et directives.
Grâce au réseau, annonce Toffler “un débutant situé en bas de l’échelle peut communiquer directement avec les cadres de haut-niveau qui travaillent sur le même problème que lui (…) sans passer par les cadres moyens.”
En quoi cela est-il utile à l’élaboration de la prise de décision ? L’auteur démontre alors, exemples à l’appui, comment cette communication directe favorise l’intuition et l’innovation. Les classes intermédiaires sont des lieux de pouvoirs où chacun essaye d’atteindre un niveau supérieur dans la hierarchie, en se valorisant et en “écrasant” les véléités des débutants. De plus, le collecticiel (dont la structure est décentralisée) ou le réseau permet de stocker toutes les informations et les idées de tous à chaque stade des opérations : cela donne une vision plus globale du problème et aide à la prise de décision collective.
Si l’usage des réseaux informatiques se généralise, la pratique s’alliera alors à la théorie de l’extension de l’intelligence collective par le numérique. Allant en sens inverse d’une “fin de toutes les fins”, ce serait peut-être un espoir en une mutation positive de la culture à l’aube du troisième millénaire.
§2 Les portes de la connaissance
A – L’énigme de l’univers oraisonnement humain), l’ordinateur est passé aux fonctions plus complexes de l’interprétation. En matière de recherche génétique, on l’a vu, les conséquences peuvent être désastreuses. Il en va de même en ce qui concerne la recherche sur l’imagerie mentale et les ondes éléctromagnétiques émises par le cerveau.
Aussi, la connaissance humaine pourra-t-elle “survivre” aux considérations nouvelles apportées par la science ? L’Intelligence Artificielle n’est-elle pas la ” virtualisation – même – de la pensée”raisonnement humain), l’ordinateur est passé aux fonctions plus complexes de l’interprétation. En matière de recherche génétique, on l’a vu, les conséquences peuvent être désastreuses. Il en va de même en ce qui concerne la recherche sur l’imagerie mentale et les ondes éléctromagnétiques émises par le cerveau.
Aussi, la connaissance humaine pourra-t-elle “survivre” aux considérations nouvelles apportées par la science ? L’Intelligence Artificielle n’est-elle pas la ” virtualisation – même – de la pensée” selon les mots de Jean Baudrillard, qui la fait disparaître ?
En 1971, Georges Steiner s’inquiète déjà à ce sujet dans “Le Château de Barbe-Bleue” ; “il n’est pas de retour en arrière possible, écrit-il, nous ne pouvons opter pour les rêves du non-savoir. Je m’attends à ce que nous poussions la dernière porte du château, même si elle ouvre, ou peut-être parce qu’elle ouvre, sur des réalités hors de portée de la compréhension et de l’autorité humaine.”
Parce que les apports du numérique à la connaissance sont “gros” de toutes ces questions, ils sont bien une petite mort, mais de celles qui font reculer les limites de l’impossible humain.
La fiction inventée par Christopher Cherniak – “L’enigme de l’univers et sa solution” – illustre parfaitement la notion de “porte”. Cette nouvelle est extraite du manuel des Sciences de l’information et de la communication de Daniel Bougnoux. Elle a pour signification essentielle de rappeler que ” là où le sujet et l’objet du savoir semblent se rejoindre, leur coïncidence serait mortelle, si elle n’était impossible.” Impossible, car l’homme ne peut se connaître totalement en raison du principe de l’auto-référence : “le cerveau est un système qui ne saurait se contenir ni se scruter lui-même” Voilà ce que relate la fiction : des informaticiens sont subitement atteints d’une maladie inconnue, rapidement nommée la “peste informatique”. Par la suite, les informaticiens ne sont plus les seuls touchés. Des chercheurs du monde entier tombent alors dans le mutisme et l’immobilisme le plus total. Un seul indice permet de les recouper entre eux : ils sont tous à la recherche d’une solution à l’énigme de l’univers. Leurs derniers mots sont toujours les mêmes, “c’est ça”.
Par delà l’aspect fictif, son auteur y dénonce et critique l’idée d’une fin de la connaissance, véritable “eschatologie” de l’intelligence humaine.
B – La pensée visuelle
La dernière porte n’est donc pas encore ouverte, mais une autre encore plus abstraite. L’histoire des civilisations dans leur rapport à la technique prouve d’ailleurs que l’homme finit toujours par s’adapter à tout. Chaque innovation suit d’abord une période de fascination pour ensuite être assimilée à la culture. Il en ira sûrement de même pour le numérique. Il convient cependant de se préparer dès maintenant à une large mutation, qui sera elle, une “re-naissance” de la pensée.
Affirmer ou espérer cela , est faire preuve d’un grand optimisme, position au combien difficile à tenir à l’heure actuelle. En effet, c’est croire que de la généralisation du numérique, va émerger une nouvelle catégorie de la pensée. C’est d’ailleurs le point nœdal de toute cette reflexion. La réponse appartient au futur et ne peut donc être qu’aléatoire. Cependant que des voix s’élèvent déjà avec le poête, Paul Valéry : ” Jamais ne se produit la question essentielle : que veut-on ou que faut-il savoir ? C’est elle qui implique une décision, un parti à prendre… Il s’agit de se représenter l’homme de notre temps, et cette idée de l’homme dans le milieu probable où il vivra doit d’abord être établie. “
Cela étant fait, il faut se rendre à l’évidence et comprendre ce qui est en train de se développer. Toutes les notions sur lesquelles s’appuyait la société sont ébranlées en cette fin de siècle. L’apparition de l’ordinateur a élevé un pont entre la pensée technique et la pensée symbolique en créant un langage et des modes de connaissances propres à l’informatique. Le passage de la technique au langage a été possible grâce à une “… intégration complète de l’image et du visible, ainsi que de l’ensemble des données sensorielles et perceptives, dans l’ordre numérique du calcul. “
Alors, quelle est cette nouvelle porte ouverte par la connaissance ? Peut-être celle de la de la pensée visuelle, chère au philosophe A. Renaud. Allier le visible au lisible, le simulacre à la raison pure, violà une idée bien étrange… Et pourtant, le statut de l’image a profondément changé avec les images de synthèse et la RV. Codée par des 0 et des 1, l’image est passée de la visibilité à la “lisibilité”. Aussi, il n’est pas vain d’imaginer que cet appel à l’image puisse régénérer la pensée, et la rendre plus à même d’envisager les changements en cours. Lorsque l’on réfléchit, on pense autant avec des mots qu’avec des images ; c’est ce qu’on appelle l’imagerie mentale (à l’œuvre dans la faculté de rêver autant que dans celle de penser).
Le film “Brève histoire du temps” relatant la vie et les recherches d’Hawkins sur le trou noir, éclaire ces propos : atteint d’une importante maladie génétique, Hawkins ne peut absolument plus se mouvoir, sur une chaise roulante et grâce à des nano-capteurs reliés au menton, il réussit pourtant à développer son raisonnement par des images de géométrie dans l’espace sur son ordinateur. L’image, plus facile et rapide à construire qu’un long raisonnement théorique, devient paliatif à la logique. La vie de cet homme pourrait devenir l’allégorie du futur de la pensée.
D’un corps, quelque peu “mis au chomâge” par l’usage des technologies automatiques, naîtrait une pensée plus libre, efficiente, spatialisée. Véritable intersection entre le réel et l’imaginaire : l’image comme nouveau symbole langagier. La pensée visuelle ou “figurative” (expression d’E. Couchot), est donc envisageable, bien qu’encore à l’état d’ébauche aujourd’hui, de bricolage. Mais dans un contexte de changement global, cette nouvelle catégorie de la pensée peut se déployer et la CAO en serait alors déjà l’ancêtre !
” Les qualités du sujet qui forment le moi ne sont plus les mêmes pour qui pense avec l’aide d’une machine logique automatique.”
Couchot Edmond
Conclusion
Le numérique a “pris corps” par la simulation de la perception , ce que Paul Virilio qualifie “d’industrialisation de la perception”. Le XXème siècle est le théâtre d’une virtualisation multiple : du corps, du moi, du temps, de l’espace et de la mémoire. Ce mode d’appréhension du réel est accentué par le numérique. Mais, rien ne disparait, tout se déplace sur un autre mode d’être dans une grande mutation de la culture. Le mode d’être virtuel ne dissout pas le mode d’être actuel, il permet juste d’envisager le monde autrement.
La virtualité du numérique ouvre alors la voie à une pensée plus abstraite mais plus libre qui est capable d’appréhender le réel globalement et collectivement dans les grands “arbres de connaissances” que sont les réseaux. La technique n’est ni bonne ni mauvaise – seul, l’usage qui en est fait est à juger- cependant, elle n’est pas neutre. Il faut donc se l’approprier par la pensée.
Les concepts de déréalisation et de déshumanisation font un faux procès au numérique, condamnant ce dont il est la conséquence et non pas la cause. L’individu continue à vivre et à souffrir, à aimer et à créer. Les actions et les faits sont réels, c’est leur appréhension qui se virtualise.
Le numérique, en virtualisant le monde, incite lors de sa ré-actualisation – c’est à dire lorsque il en découle des actions bien réelles – à une meilleure compréhension du réel lui-même. Il éveille du demi-sommeil, qui consiste à ne pas ouvrir les yeux sur le monde dans lequel on vit, à se laisser dépasser par une technique que l’on considère injustement comme malfaisante et inhumaine. Car le danger est bien là : si on ne prend pas conscience de la mutation qui est en cours – des enjeux qui la soustendent – et si on ne la pense pas, alors de gros risques sont à prévoir. Et ce n’est pas en proposant des utopies négativistes que l’on pourra faire avancer les choses.
Ainsi, conclut P. Lévy :
” C’est justement parce que l’actuel est si précieux que nous devons de toute urgence penser et acclimater la virtualisation qui le déstabilise.”
Mais pour cela, il y a un dernier obstacle à franchir : il faut à tout prix se défaire des fantasmes qui planent au dessus du vocable “virtuel”. Depuis près de deux ans , en effet, les médias du monde entier s’en sont emparés, et ont créé un monde totalement imaginaire et faux, relatant tout et n’importe quoi à ce sujet. On décrit alors le “virtuel” comme le nouvel opium du peuple, ou à l’autre extrême comme l’outil qui va révolutionner le monde de fond en comble. Certes, le numérique participe et accélère la mutation en cours, mais il en est surtout une des conséquences.
Derrière ce que les américains appellent “the hype”, il y a une forte idéologie ultralibérale qui sert des enjeux économiques dont le représentant pourrait bien être l’homme multimilliardaire et patron de Microsoft : Bill Gates. Les Etats-Unis sont d’ailleurs continuellement accusés de vouloir répandre ces technologies dans le but unique de servir leurs propres intérêts. Il est vrai que les télécommunications sont leur dernier secteur de pointe. Ils ont donc forcément intérêt à ce que les autoroutes de l’information se développent. Cependant, il y a aussi un phénomène tout simplement humain derrière cet engouement médiatique. Parler d’Internet, c’est être à la pointe, ça fait “branché”. C’est en effet une manière de se faire valoir, une façon de dire : je suis à l’avant-garde. De même, ne pas en parler, c’est risquer d’être traité de réactionnaire…Mais la conséquence de ces “rumeurs” (traduction française) est que l’on brouille les pistes en créant une “psychose du futur”.
Il convient donc de dépasser ces divagations multiples et de bien entrevoir ce dont le présent nous informe : une mutation culturelle et globale des moyens de production et d’échanges basés sur l’information et non plus sur de la matière ou des échanges humains.
Avoir choisi l’angle de la philosophie pour traiter ce sujet était une méthode destinée à ne pas tomber dans certains pièges qui émanent d’une culture en émergence. Il n’y a pas de réponses certaines à apporter aux multiples questions posées par la virtualité du numérique, car ce dernier n’est pas encore banalisé par l’usage du tout-public. On ne peut donc rien vérifier, mais on a le droit de lui opposer la “philosophie du non” exposée par G. Bachelard. Le numérique est en effet un objet “idéal” pour l’épistémologie, car il équivaut à la question : “pourquoi pas ?” de toutes les sciences.
” La doctrine traditionnelle d’une raison absolue et immuable n’est qu’une philosophie. C’est une philosophie périmée.”
Bachelard Gaston.
Bibliographie
Ouvrages de Philosophie
BACHELARD Gaston, La Philosophie du non, PUF, Quadriges, Vendôme, 1988
BERGSON, Matière et mémoire, 1896, Gallimard, in Œuvres complètes, Pléiade, 1990
DELEUZE Gilles, Cinéma 2. L’image-temps, Ed. de Minuit, Lonrai, 1994
GRATELOUP Léon-Louis, Cours de Philosophie, Hachettes, France, 1990
LEIBNIZ, Nouveaux Essais sur l’entendement humain, posth. 1765, Livre troisième, édité par L. Couturat, 1903
Ouvrages spécialisés
Le virtuel
BERGER René, Téléovision, le nouveau Golem, Idérive, Coll. Compas, Lausanne, 1991
BERGER René, Du miroir à l’après-histoire, Diogène, Paris, 1994
BURDEA Grigore, COIFFET Philippe, La Réalité Virtuelle, Hermès, Paris, 1993
LEVY Pierre, La machine univers. Création, cognition, et culture informatique, Seuil, Points sciences, Paris, 1992
LEVY Pierre, Les technologies de l’intelligence, l’avenir de la pensée à l’ère informatique, Seuil, Points sciences, Paris, 1993
LEVY Pierre, Qu’est-ce que le virtuel ?, La découverte, Sciences et société, Paris, 1995
QUEAU Philippe, Le Virtuel, vertus et vertiges, Champvallon INA, Coll. milieux, Paris, 1993
RHEINGOLD Howard, La réalité virtuelle, Dunod, Paris, 1993
L’image
BRETON André, Le maître de l’image, La Pléiade, in Œuvres complètes, 1988
DEBRAY Régis, Vie et mort de l’image, Une histoire du regard en Occident, Gallimard, Mesnil sur Etrée, août 1993
La mutation culturelle
DEBRAY Régis, L’Etat séducteur, Gallimard, Mesnil sur Etrée, sept 1993
DUCROCQ Albert, Le changement global, JC Lattès, Science & Conscience, France, 1993
STEINER George, Dans le château de Barbe Bleue – Notes pour une redéfinition de la culture, folio essais, Sarthes, 1986
TOFFLER Alvin, Les nouveaux pouvoirs, Le livre de poche, France, 1993
VIRILIO Paul, L’art du moteur, Galilée, Mayenne, 1993
Information et communication
BOUGNOUX Daniel, Sciences de l’information et de la communication, Textes essentiels, Larousse, France, 1993
Art
ELECTRA, Catalogue de l’exposition du Musée d’art Moderne de la ville de Paris déc. 1983 – fév. 1984, Ed. Les Amis du MAM de la ville de Paris, Paris, 1983
ERNST Bruno, Mirroir magique de MC ESCHER, Benedikt Taschen, Berlin, 1978
Actes du colloque
IMAGINA, 16 17 et 18 février 1994, Actes, édité par l’INA en collaboration avec le Centre National de la Cinématographie, Bry-sur-Marne, 1994
TRANSINTERACTIFS, Actes du colloque 4 – 5 novembre 1988, coll. Déchiffrage sous la direction Franck Popper, Paris, 1990
Articles
ATTALI Jacques, L’avénement de la planète nomade, Idées rebonds, Libération, 1er oct. 1993, p 6
ATTALI – FINFIELKRAUT, entretien, Le Nouvel Observateur, 9-15 nov. 1995, p 5
BAUDRILLARD Jean, La double extermination, Idées rebonds, Libération, 6 nov. 1995, p 7
BAUDRILLARD Jean, Perdus de vue et vraiment disparus, Idées rebonds, Libération, 20 nov. 1995, p 8
CURRELL C, Virtual Audio : New Uses for 3D Sound, proceedings of Cyberarts Conference, Pasadena CA, oct. 92, pp 104-108
CUTT P, Tactile displays : Adding the sense of touch to virtual environnements, proceedings of Virtual Reality Systems’93 Conference, NYC, march 93, pp 120-122
KINNEY Jay, Anarcho-Emergentist Republicans – Is there a new politics emerging in the Net ?, Wired, sept. 95, p 90 et s.
PISANI Francis, Les frontières inconnues du cyberespace, Monde diplomatique, nov. 95, p 3
TORRES Asdrad, Faut-il brûler Internet ?, Monde diplomatique, nov. 95, p 4-5
in numéros spéciaux
COURRIER INTERNATIONAL, n° 255,
Internet met-il la démocratie en péril ?, 12-18 oct. 95
COLE George, je pense et les objets bougent, tiré du Financial Times, NY, p 34
FLOWER Joe, Tout ce que vous avez toujours voulu savoir sur le Net et son avenir, New Scientist, Londres, p 9-10
LEONARD Andrew, Un casse-tête pour la censure chinoise, Far Eastern Economic Review, Hong Kong, p 12
L. SHAPIRO Andrew, Chère liberté d’expression, The Nation, NYC, p 8
ZSADON B, Cyberterreur, on s’amuse à nous faire peur, Magyar Narancs, Budapest, p 13
COURRIER DE L’UNESCO, n° 954
L’explosion multimédiatique : Quo vadis ?, fév. 1995
DE KERCKHOVE Derrick, Du village global à la psyché planétaire, p 20-22
MANIERE DE VOIR, Monde diplomatique, n° 15
L’homme en danger de science, mai 1992
DAMERVAL Thierry, Une sélection pour écarter les plus faibles, p 15-18
EDELMAN Bernard, L’être humain matière première rentable, p 50-54
NEWSWEEK
Technology’95 : The Hype and the Hope, 27 fév. 1995
FINEMAN Howard, The brave New World of Cybertribes, p 22-25
HAFNER Katie, A Super Hacker meets his Match, p 37-38
SAMUELSON Robert J, The Myth of Cyber Inequality, computers are not growing wage differencies, p 32-33
in Revues spécialisées
CULTURE TECHNIQUE, n° 22,
Images, techniques, sociétés, ed. du CRCT, Neuilly, janv. 1991
COUCHOT Edmond, Des arts de la figuration à la simulation, p 32
MERCIER Michel, Les images de microscopie électronique : construire un réel invisible, p 26
SIBONY Daniel, Entre dire et faire, penser la technique, p 160-161
VIGROUX Laurent, Les images en astrophysique, p 45
ESPRIT, n° 199
Vices et vertus de l’image, Seuil, Paris, fév. 94
GIUDICELLI Jérôme, L’image menacée par le visuel, p 54-56
RESEAUX, n° 61
Vers une nouvelle pensée visuelle, ed. CNET, Paris, sept.oct. 93
COUCHOT Edmond, Des outils, des mots et des figures, vers un nouvel état de l’art, p 33-46
PORADA Sabine, Imaginer l’espace et spatialiser l’imaginaire, p 49-66
RENAUD Alain, De l’économie informationnelle à la pensée visuelle, p 9-32
QUEAU Philippe, La pensée virtuelle, p 67-78
TRAVERSES, n° 44-45
Les Machines virtuelles, ed. Centre George Pompidou, Paris, sept. 1988
CARO Paul, La science et l’image, p 66
COUCHOT Edmond, L’odyssée, mille fois ou les machines à langage, p 86-94
GAURILOFF Yvan, BALPE JP, Kaos & Benjamin, métalogue, p 185-187
STIEGLER Bernard, L’effondrement technologique du temps, p 55
Sommaire
Introduction p 1
Partie I : Virtualisation du corps p 3
Chapitre I Le corps et le numérique p 4
Section I Une symbiose nouvelle : l’Homme-machine p 4
§I Intrusion de la technique dans le corps p 4 A – Les prothèses p 4 B – Interface corps/ordinateur p 6 C – Interface esprit/ordinateur p 6
§2 Pour quelle sélection p 7 A – Sélection naturelle, un nouvel eugénisme ? p 7 B – Vers une sélection des plus faibles p 8 C – Le paradoxe de la recherche scientifique aidée
du numérique p 8
§3 Des télécommunications dans la tête… p 9 A – Les objets “nomades” p 9 B – Incrustation à même le corps p 10
Section 2 : Quand le numérique prend corps p 11
§1 Qu’est-ce que la Réalité Virtuelle ? p 11
A – De l’analogique au numérique p 11
B – Virtualisation de l’espace p 12
1 – la notion d’espace a priori p 12
2 – la question du “lieu” p 13
C – Virtualisation du temps p 13
1 – le temps réel et sa progressive banalisation p 14
2 – la mondialisation du temps réel p 14
§2 Aux frontières de la perception p 15
A – Le tout-numérique : culture de l’oubli ? p 15
B – Virtualisation de la perception par la RV p 16
§3 Virtualisation du corps p 17
A – Le toucher p 17
B – L’ouïe p 18
C – La vision p 18
Section 3 : L’art, le geste et le numérique p 20
§1 L’art, comme indice d’une civilisation p 20
§2 L’art vidéo p 21
§3 L’art du numérique, quelle création ? p 22
A – L’art numérique p 23
B – Quelle création ? p 25
Chapitre 2 : Présence et numérique p 27
Section 1 : Présence et virtualité numérique p 27
§1 La notion de présence p 27
§2 Virtualisation de la présence par le numérique p 28
A – Visio-conférence p 28
B – Réseaux p 29
1 – Internet p 29
2 – Collecticiel p 30
C – Le clonage p 30
D – La téléprésence p 31
Section 2 : Virtualisation de l’image de soi : le “moi symbolique” p 31
§1 Les réseaux p 32
A – Internet p 32
B – Les communautés virtuelles p 33
§2 Le droit et le numérique p 35
A – Internet, un principe : la liberté d’expression p 36
1 – Le contrôle privé p 36
2 – Contrôle public p 37
§3 Démocratie virtuelle ou virtualisation de la démocratie ? p 39
A – Démocratie virtuelle p 40
1 – Démocratie “cathodique” p 40
2 – Internet, succédané à la démocratie ? p 40
B – Virtualisation de la démocratie p 42
Partie II : La virtualité du numérique et la pensée p 43
Chapitre I : Le numérique et la connaissance p 44
Section I : Le statut de l’image p 44
§1 Les trois âges du regard p 44
1 – L’écriture p 45
2 – L’imprimerie p 45
3 – La vidéosphère p 45
§2 L’image n’est pas morte, elle change de statut p 46
A – Image et vérité p 47
B – Image et modèle p 47
§3 Les nouvelles fonctions de l’image p 48
A – Fonction pédagogique p 49
B – Fonction thérapeutique p 49
C – Fonction heuristique p 50
D – De l’universalité de l’image au langage p 50
Section 2 : L’image est langage p 51
§1 L’image infographique : d’abord un langage p 51
A – Image comme “traduction” du langage p 51
B – L’image est langage p 52
§2 Les nouveaux langages numériques p 53
A – Différence : langage formel, langues naturelles p 53
B Le logiciel promu logos p 55
§3 Du langage à la culture p 56
A – L’intrusion du numérique dans les langues p 56
B – L’avénement de la techno-culture p 57
Chapitre 2 : Une pensée nouvelle p 59
Section 1 : De nouveaux modes de connaissance p 59
§1 Le mode de la simulation p 59
A – Simulation et imagination p 59
B – Le mode de connaissance par simulation p 61
C – Les limites p 62
§2 Mémoire de la connaissance p 63
A – La mémoire informatique opposée à la
mémoire humaine p 64 B – Quel type de mémoire numérique ? p 65
Section 2 :
Approche d’une nouvelle pensée instaurée par le numérique p 66
§1 Une extension de la pensée : le numérique p 67
A – Une pensée “squelette” p 67
1 – Les aberrations psychiques p 67
2 – Les deux infinis p 67
B – Le collecticiel et la pensée collective p 68
§2 Les portes de la connaissance p 70 A – L’énigme de l’univers ou la dernière porte p 70
B – La pensée visuelle p 71
Conclusion p 73
Bibliographie p 75
Table des matières p 79
La double extermination, Libération du 6 novembre 1995, Idées rebonds, p 6
Environnement technologique.
E. Emery, Ph. H. Ault et W. K. Agee, Introduction to Mass Communications, Dodd, Mead & Company, New York).
DUCROCQ Albert, Le Changement global, ed. J.-C. Lattès, 1993, p 588
in conférence Aux frontières de la perception
in, Courrier International, 10 oct. 1995 – 2 Du département informatique médicale de l’université de technologie de Graz, Autriche
op. cit
Bio-éthique, ville et citoyenneté, ed. des Cahiers du Laboratoire de sociologie anthropologique de l’université de Caen, 1993
Cité in. VIRILIO Paul, L’Art du Moteur, ed. Galilée, 1993).
Une sélection pour écarter les plus faibles, Le Monde Diplomatique, Mai 1992
EDELMAN Bernard, L’être humain, matière première rentable, article paru dans Manière de voir, L’homme en danger de sciences, Mai 1992, p. 80.
paru dans Libération, le vendredi 1er octobre 1993
BURDEA Grigore et Philippe Coiffet, La réalité virtuelle, ed. Hermès, 402 pages, Mayenne 1993.
QUEAU Philippe, Le virtuel : vertus & vertiges, Seyssel, ed. Champvallon, coll. Milieux, septembre 1993, 215 pages
COUCHOT Edmond, Des arts de la figuration à la simulation, Revue Culture technique n°22, janvier 1991, Neuilly, p 32
QUEAU Philippe, Le virtuel : vertus & vertiges, Seyssel, ed. Champvallon, coll. Milieux, septembre 1993, p20
Le miroir magique de M.C. Escher, ERNST Bruno , ed. Benedikt Taschen, Berlin 1978, 112 pages. p.66
Virtual/Interface Environnements, 1990, cité p. 137 in La réalité virtuelle ,d’Howard RHEINGOLD, ed. Dunod, 413 pages, Paris 1993.
VIRILIO Paul, L’Art du Moteur, ed. Galilée, 1993, p. 136
in , Le Nouvel Observateur, 9-15 novembre 1995, supplément 64 pages, p.5
DEBRAY Régis, Vie et mort de l’image, Gallimard, Mesnil sur l’Estrée, sept. 1993, p. 372
BAUDRILLARD Jean, La double extermination, Idées Rebond, Libération, 6 novembre 1995.
Du village global à la psyché planétaire, Courrier de l’Unesco, Février 1995, p. 20-22
MERLEAU-PONTY, Phénoménologie de la perception, ed. Gallimard, 1945, p. 276
BURDEA Grigore et Philippe Coiffet, La réalité virtuelle, ed. Hermès, 402 pages, Mayenne, 1993, p. 31
CUTT P. 1993. Tactile Displays : Adding the sense of Touch to Virtual Environnements Proceedings of Virtual Reality Systems’ 93 Conference, pp. 120-122 March New York
DELEUZE Gilles, L’image-temps I, Conclusions, ed. de Minuit, 1985, p. 347, cité in De l’économie informatique à la pensée visuelle, Alain RENAUD.
ib. R. Berger, Imagina 93.
1 LEVY Pierre, Qu’est-ce que le virtuel ? , ed. la Découverte, 157 pages, Courtry, 1995, p. 76
LEVY Pierre, p. 46, La Machine Univers, 237 pages, ed. Seuil, points sciences, Evreux, 1992
Electra, catalogue de l’exposition réalisée par le MAM ville de Paris, Ed. les Amis du MAM, paris, 1983, p 51
op. cit p 25, in intro Franck Popper
Terme cité par R. Berger pour la première fois dans “La mutation des signes” en 1972, ed. Denoël
COUCHOT Edmond, De la représentation à la simulation – Evolution des techniques et des arts de figuration. Revue Culture technique, n°22, ed. du CRCT, Neuilly 1991, p 64
cf. Les Immatériaux, exposition du Centre Georges Pompidou, 1985
Le minimalisme apparaît dans les années 60 avec des artistes comme Frank Stella ou Robert Morris, cf. exposition rétrospective du Centre Georges Pompidou, juin à octobre 1995.
Il organise le premier festival vidéo en 1975 à Lausanne.
cité par René Berger, in Téléovision, un nouveau Golem, p 77-78, Forum des Arts de l’univers scientifique et technique de Toulouse, 1988
COUCHOT Edmond, Des outils, des mots et des figures. Vers un nouvel etat de l’art, pp 44-45, Réseaux n° 61, ed.CNET, 1993
citée dans L’Art du moteur, p. 21, de Paul VIRILIO
RENAUD Alain, De l’économie informationnelle à la pensée visuelle, p. 21, Réseaux
QUEAU, La pensée virtuelle , op. cit p77
NASA AMES Research Center S. Fisher et Al, 1987
Article de FLOWER Joe, New Scientist, Londre : Tout ce que vous avez toujours voulu savoir sur le Net et sur son avenir., Courrier international, 12 au 18 oct 1995
naviguer sur Internet
Article de SHAPIRO Andrew L., The Nation, New York, Chère liberté d’expression, p. 8 du Courrier International du 12/18 octobre 1995.
FIREMAN Howard : The Brave New World of Cybertribes dans le numéro spécial News-Week Technology’95 : The Hype and the Hope, 27 février 1995.
Magyar Narancs. Budapest : Cyberterreur : on s’amuse à nous faire peur, p. 13 du Courrier International, 12/18 octobre 1995.
Hacker : pirate informatique dont la principale activité est d’entrer par effraction dans un ordinateur et de voler des documents.
Article de Jay KINNEY, WIRED, septembre 1995, p. 90 et suivantes. Anarcho-Emergentist Republicans” is there a new politics emerging in the Net ?
Article paru dans le Courrier International du 12/18 octobre 1995, pp. 8-9.
Système expert : définition de Pierre Lévy dans Les technologies de l’intelligence, p.44. “Les systèmes experts sont des programmes informatiques capables de remplacer un expert humain dans l’exercice de ses fonctions de diagnostic et de conseil.”
Article d’Asdrad TORRES : Faut-il brûler Internet ?, p. 4-5 du Monde Diplomatique, novembre 1995.
op cit. Eurobit Hieida Global Information Infrastructure, Tripartite Preparatory Meeting, 26-27 Janvier 1995.
Article La double extermination , Libération, p. 12, 6 novembre 1995, dans Idées Rebonds.
DEBRAY Régis, L’Etat séducteur, ed. Gallimard, Mesnil d’Estrée, 1993, p. 98.
VIRILIO Paul, L’Art du moteur, p. 50, ed. Galilée, Mayenne 1993.
News Week, p. 32, 27 février 1995 : Technology’ 95, the Hype et the Hope : “Très peu de compétences propres à l’ordinateur sont essentielles”.
Un nouveau casse-tête pour la censure chinoise, Far Eastern Economic Review. Hong Kong, p. 12, Courrier International, n° 258, 12-18 Octobre 1995.
qualitatif emprunté à Alvin TOFFLER, Powershifs, Bantam Books, New York 1993.
QUEAU Philippe, Le Virtuel, vertus et vertiges, p. 32, Champ Vallon, INA, 1993.
p. 225, Vie et mort de l’image
p. 230, Vie et mort de l’image
GIUDICELLI Jérôme, L’image menacée par le visuel, article paru dans la revue Esprit n° 199, février 1994.
GIUDICELLI Jérôme, L’image menacée par le visuel ?, p. 54, Revue Esprit n°199, février 1994.
cité in COUCHOT Edmond, Des outils des mots et des figures, p. 39-40, Revue Réseaux n° 61, CNET 1993.
RENAUD ALain, De l’économie informationnelle à la pensée visuelle, p. 29, Revue Réseaux n° 61, CNET, 1993.
ib. p. 23.
cité in GIUDICELLI Jérôme, L’image menacée par le visuel ?, p. 55, Revue Esprit n° 199, février 1994.
VIGROUX Laurent Les images en astrophysique, p. 45, Revue Culture Technique n° 22, CRCT, 1991.
MERCIER Michel, Les images de microscopie électronique : construire un réel invisible, p. 26, Revue Culture Technique n° 22, CRCT, 1991.
BERGER René, Télévision – un nouveau Golem , coll. Compas, Iderive, Lausanne, 1991, p. 104.
p. 142, technotopoï est une expression empreintée à René Berger dans Du miroir à l’après-histoire, Extrait de Diogène n° 167, juillet-septembre 1994. Topos signifie en grec le lieu
p. 30, Virtuel, vertus ou vertiges., 2 op cit, p. 31.
TOFFLER Alvin, Les nouveaux pouvoirs, Le livre de poche, France, 1993, p 92
Le maître de l’image in Oeuvres Complètes, Pléiade, 1988, p. 901. André Breton, 1924.
LEVY Pierre, La Machine Univers, p. 32, ed. Seuil, points sciences, Paris, 1992.
Kaos & Benjamin, métalogue, p 185-187, Revue Traverses, Centre de création industrielle, Centre Georges Pompidou, Paris, 1988.
BERGER René, Télévision. Un nouveau Golem, p. 153, coll. Compas, Iderive Lausanne, 1991.
SIBONY Daniel, Entre dire et faire, penser la technique, p. 160-161, Revue Culture Technique n° 22, CRCT, 1991.
FOREST Fred, L’esthétique de la communication, p. 91. Actes du colloque Les Transinteractifs, coll. Dechiffrages, Paris 1990.
CARO Paul, La science et l’image, p. 66, Revue Traverses n° 44-45, Les machines virtuelles, Centre Georges Pompidou, 1987, Paris.
CARO,op. cit, p. 68
COUCHOT Edmond, p. 60, De la représentation à la simulation, Revue Culture Technique n° 22, CRCT, 1991.
p. 86-94, Revue Traverses.
LEVY Pierre, Technologies de l’intelligence, p. 142
BERGER René, p. 117.
formule empreintée à Sabine Porada, Imaginer l’espace et spatialiser l’imaginaire, p. 49-66, Revue Réseaux n° 61, CNET, 1993
cité in L’effondrement techno-logique du temps, Bernard STIEGLER, Revue Traverses, p. 55.
LEVY Pierre, La Machine Univers, p. 177, Seuil, points sciences, Evreux, 1992.
cité in LEVY Pierre, La machine Univers, p. 178.
RENAUD Alain, De l’économie informationnelle à la pensée visuelle, p. 17, Réseaux n° 61, CNET, 1993.
Alain RENAUD, p 13
LEVY Pierre, Qu’est-ce-que le virtuel ?, ed. La Découverte, Sciences et sociétés, Paris,1995, p67
TOFFLER Alvin, Les Nouveaux Pouvoirs, Le Livre de poche pour l’édition française, Paris, 1993, p275
STEINER Georges, Dans le château de Barbe-Bleue – Notes pour une redéfinition de la culture, folios essais, Laflèche, 1986, p 155
BOUGNOUX Daniel, Sciences de l’information et de la communication, introduction au texte de C. Cherniak, Larousse, textes essentiels, France, 1993, p 498
VALERY Paul, Œuvres complètes, Nrf, ed. La Pléiade tome I et II, 1987, p 1075
RENAUD Alain, Réseaux, p 13
COUCHOT Edmond, Des outils, des mots et des figures, vers un nouvel Etât de l’art, p 46
LEVY Pierre, Qu’est-ce-que le virtuel ?, ed. La Découverte, Sciences et sociétés, Paris,1995, p143
BACHELARD Gaston, La Philosophie du non, Quadrige, PUF,France,198
Comments are closed.