*
La mémoire de l'Internet
par
Violaine Farison
Séminaire internet de Sciences-Po
(Paul Mathias)
2000/2001



Introduction

L'internet est à la fois un réseau qui rend possible un échange immédiat et instantané de données ou d'information d'un point quelconque à un autre du réseau, échange qui ne survit pas à son effectuation, et une réserve considérable de mémoire virteulle, d' "informations en souffrance" attendant sur les pages des sites d'être éveillées de leur sommeil magnétique par les connexions des internautes. Mémoire virtuelle et mémoire de masse, mémoire vive et morte, on peut aussi le comparer à une gigantesque base de données, capable de stocker des données et de traiter ce stockage, constituant une nouvelle mémoire qui pourra à son tour intégrer la banque de cette même base de donnée ou être transférée à d'autres ou elle pourra à nouveau être traitée etc ad infinitum. De la même manière que ces bases de données, le réseau fonctionne comme un surgénérateur d'informations, produisant des informations à partir d'informations, constituant de la mémoire à partir de son, ou de votre, traitement de sa mémoire. Le moteur de recherche vous permet d'accéder aisément aux replis de la "mémoire de l'internet", mais vos opérations de recherche sont elles-mêmes archivables et traitables par les sites que vous fréquentez, vos opérations sur le web sont traçables de telle sorte que les sites auxquels vous vous connectez pourront configurer leurs pages d'accueil, leurs propositions, leurs données en fonction de vos recherches précédentes archivées en tant que profil (qu'on pense aussi à l'utilisation des cookies etc...).
N'oublions pas en outre que l'Internet est un media, qu' à ce titre il présente un intérêt sociologique, historique etc. De la même manière qu'il est indispensable aux historiens du Moyen Age aujourd'hui de pouvoir accéder aux capitulaires de Charlemagne qui nous ont été conservés, de même il semble capital de préserver de l'oubli des siècles les pages Web d'aujourd'hui, en tant qu'éléments qui pourront servir à faire l'histoire de notre temps.
Outil de mémorisation, l'Internet est donc aussi bien objet d'une mémoire à constituer et opérateur d'une mémorisation permanente et anarchique des flux qui le traversent. L'internet comme outil, objet, opérateur de mémoire, c'est selon ces trois axes que nous nous proposerons d'explorer notre sujet.
Ces trois axes reposent sur des conditions théoriques et techniques aisément identifiables, mais ils posent aussi des problèmes qui sont intimement liés les uns aux autres, qui s'entrecroisent et jusqu'à un certain point se contredisent. Comment concilier par exemple l'exigence d'archivage intégral et permanent du Web avec la nécessaire anonymisation des usagers et la protection des droits à la vie privée ?
Jusqu'à quel point, en outre peut-on étendre la suppléance à notre mémoire propre de cette mémoire virtuelle et déterritorialisée qu'est celle du Net sans transformer en profondeur les structures et les fonctions mêmes de notre appareil mental ? Certaines utopies actuelles, comme le projet Oxygen du MIT, semblent permettre de croire que cette dernière question n'est ni oiseuse ni paranoïaque...
Nous nous efforcerons d'explorer systématiquement les différents éléments de ce problème en analysant, tout d'abord l'internet en tant qu'objet de mémoire, sous l'axe des conditions techniques de stockage des informations, puis quant aux problèmes spécifiques posé par l'archivage d'une matière aussi fluente et colossale que celle du réseau ; et dans un second temps nous nous efforcerons d'articuler ces questions à celle qui résultent du statut de l'internet comme sujet de mémoire, au niveau des problèmes juridiques, éthiques et théoriques posés par ce statut.
 

1-Mettre l'internet en archives...

1-1. Vers une extension des capacités de stockage...

Il faut d'abord envisager en quelques mots le problème des capacités de stockage actuelles des supports informatiques. Il s'agit en effet d'un enjeu technologique et économique particulièrement aigu à l'heure actuelle : jusqu'à quel point peut-on élargir les possibilités de stockage, de manière à ce que celles-ci restent en adéquation avec la prévisible augmentation exponentielle des quantités d'information à conserver. S'il est vrai, comme l'estiment certains spécialistes, que la mémoire du monde tiendra d'ici trois ou quatre ans dans 10 à 20 exaoctets (soit dix à vingt milliards de Gigaoctets), ce chiffre signifie-t-il inévitablement l'obsolescence des technologies de stockage magnétique? Ces dernières permettent présentement d'obtenir des densités de 20 Go par pouce carré, et leur capacité peut augmenter dans les prochaines années jusqu'à 50 Go, peut-être 100 (en régulant le problème du superparamagnétisme -brouillage des bits dû à leur trop grande proximité - par la technique des intervalles de sillons, sorte de synapses électro-magnétiques), mais il est pratiquement certain que cette technologie arrivera à une stagnation d'ici quatre à cinq ans (selon Jacques Péping, cité par Stéphane Foucart dans un article du Monde interactif en date du 15 novembre 2000), cependant que la production d'information, et donc les besoins en stockage auront nécessairement connues une croissance vertigineuse.
L'une des solutions qui se présente consiste dans l'exploitation de la "technique holographique", sur laquelle travaille un laboratoire d'IBM implanté à Almaden, Californie. Il s'agirait de parvenir à franchir un formidable bond théorique et symbolique dans le stockage des données: la troisième dimension. L'invention de l'écrit avait permis le premier dépassement des conditions matérielles de la mémorisation par la transcription des informations non plus sur le seul flux linéaire de la parole mais dans l'espace plan du texte ; il s'agirait maintenant d'utiliser les capacités de stockage d'un cristal photosensible, dont la tridimensionalité devrait à terme rendre possible une mémorisation équivalente à un To par pouce carré (soit cinquante fois plus que les possibilités actuelles du support magnétique). Les sommes mises en jeu dans cette recherche (une subvention de 32 millions de dollars fournies par l'Advanced Research Projects Agency à un consortium d'universités et de laboratoires privés) donnent une idée de l'importance de l'enjeu représenté par cet extension des capacités de stockage.
Pourquoi ce problème technique est-il essentiel pour notre propos ? Parce que la mise en archive de l' Internet requiert des potentialités de stockage tout à fait considérables.

1-2. ...susceptibles de répondre à de nouvelles exigences de conservation des données.

Nous l'avions indiqué en introduction, l'Internet est à l'heure actuelle le seul média à ne pas bénéficier d'un système cohérent et administrativement centralisé d'archivage. C'est que son archivage pose des problèmes tout à fait spécifiques : de centralisation, puisqu'il est un résau décentralisé ; de cohérence puisqu'il est un système en perpétuelle transformation ; d'exhaustivité puisqu'il est un "surgénérateur d'informations".
Pour situer les données du problème, disons que le Web compte aujourd'hui entre deux et quatre milliards de pages, qu'il en naît entre quatre et huit millions chaque jour, que chaque seconde plusieurs millions d'entre elles disparaissent ou se modifient. Ajoutons qu'il coute évidemment beaucoup plus cher d'archiver des sites Web que de ranger quelques vieux journaux dans un carton pour les historiens du futur.
Cet archivage apparaît pourtant comme une nécessité. L'Etat français (selon un article d'E. Richard, in Libération, vendredi 13 octobre 2000) a rappelé que sa "mission consiste à mettre en place le dispositif de conservation de la mémoire". La BNF à ce titre est en train de réfléchir à un archivage complet du réseau ; le gouvernement suédois a déjà lancé un projet semblable (...). Mais ici l'initiative n'appartient pas uniquement aux institutions publiques : un certain nombre d'entreprises privées se sont de leur côté lancées dans cette entreprise. La plus importante dans ce cas est celle de Scott Kirkpatrick, chercheur retraité d'IBM et directeur exécutif d'Internet Archive. La solution technique adoptée par ce dernier est d'ailleurs la même que celle des deux puissances publiques précitées : l'utilisation de robots parcourant en permanence la Toile en prenant des "photos instantanées" de chacune des pages des sites détectés (c'est-à-dire ceux qui sont accessibles aux moteurs de recherche et n'utilisent pas de filtres spéciaux pour empêcher toute sauvegarde). Kirkpatrick estime que jusqu'à présent approximativement 1.2 milliards de pages ont été archivées (globalement l'équivalent de la Bibliothèque du Congrès) et que quelques 120 millions supplémentaires le sont chaque jour.
Il est également intéressant de constater que ce profond désir de garder la mémoire du Net se manifeste à des niveaux moins considérables, peut-être plus anecdotiques mais d'autant plus savoureux. Ainsi le (devenu) fameux Steve Baldwin dont le site ghostsites s'est fixé pour mission d'archiver systématiquement le plus grand nombre de sites abandonnés par leur concepteurs et dérivant sur la mer virutelle (la cybermorbidité semble connaître un important trend de hausse depuis les fluctuations du Nasdaq au printemps 2000). On pourrait aussi mentionner le journal tenu par Irv Thomas sur ses voyages en terre internautique (découvrez son absurde et poétique petit gnôme Chomsky), ou encore l'entreprise à but non lucratif du graphiste David Blatner, qui a fondé AfterLife pour prendre en charge et archiver les pages web de personnes décédées (on ne s'inquiète plus pour l'avenir de son caniche mais de son site web).
 Ce qui est donc intéressant c'est que, si l'on ne cesse de dire que l'Internet est un espace (relativement) décentré, libre, ou même (très relativement) anarchique, l'autoarchivage de l'internet (préservation sur l'internet "actuel" des divers internets "passés") ne l'est pas moins, résultat entrecroisé d'une multiplicité d'entreprises de conservations partiels et spécifiques, d'origine publique, privée, à but lucratif ou non... Et si l'accés à ces archives est pour l'instant extrèmement difficile, pour des raisons techniques, Scott Kirkpatrick estime que d'ici deux à quatre ans les "générations futures" (on peut le trouver excessif dans le choix de ses expressions) seront en mesure de surfer sur l'Internet "de papa" (même remarque). On aurait donc en quelque sorte une conservation à l'intérieur de soi de la mémoire de l'Internet, une manière de superposition indéfinie de strates mémorielles, comme autant de couches géologiques, accessibles directement à partir de l'actuel. L'autoarchivage anarchique du Web rendrait possible une mise en réseau du temps, et non plus seulement de l'espace, une mise en réseau de l'internet actuel avec la multiplicité de ses états passés.

1-3. Mais cet espoir soulève un grand nombre de réticences et de difficultés... la précarité des supports

Cela peut sembler comique, mais, alors que les manuscrits de Qumrân seront toujours lisibles dans trois millénaires, le premier DVD-Rom d'aujourd'hui ne le sera peut-être plus dans quatre ans. La CIA, toujours à la point de la technologie et du ridicule, a perdu au debut des années 90 plusieurs centaines de documents ultra-secret en les égarant... Le perfectionnement des techniques de stockage induit en effet une inévitable précarisation des supports : il fallait un incendie pour détruire la Bibliothèque d'Alexandrie, il suffit d'une allumette pour détruire une cartouche de stockage. Plus même, selon le chercheur Jeff Rothenberg "les champs magnétiques, l'oxydation et le vieillissement naturel des matériaux magnétiques effacent les disques magnétiques plus vite que l'encre ne s'efface des papiers de bonne qualité".
Mais cela n'est rien comparé au problème de la compatibilité des supports. L'obsolescence des technologies est tellement rapide que le stockage des données se heurte inévitablement au problème de la compatibilité des supports actuels avec ceux de demain. Ainsi certains disques optiques sur lesquels les bibliothèques avaient entrepris d'archiver notre patrimoine sont déjà devenus illisibles. Deux solutions sont envisagées pour obvier à ce danger. Le principe dit de la "migration", qui consiste à archiver les données sur le support le plus "plat" possible, de manière à pouvoir faire glisser les informations d'un support à l'autre au fur et à mesure des innovations. L'autre, celui de l'émulation, serait plus simple : il s'agirait d'élaborer des machines capables de simuler les comportements de leurs ancêtres. Ce qui implique l'établissement d'une norme de compatibilité internationale (c'est le projet d'un "modèle de référence d'un système d'archivage", ou OAIS, qui doit permettre l'interconnexion des bases de données et des documents numérisés de l'ensemble des bibliothèques mondiales). Mais il semble, ne serait-ce qu'en vertu du jeu de la concurrence, que la concevabilité d'un émulateur universel soit proche de l'utopie. 
La numérisation systématique du patrimoine de l'humanité, corrollaire indispensable de sa mise en ligne, présente donc des limites intrinsèques assez inq5i&eaCutd;tantes. Mais elle est aussi tellement attractive qu'on ne saurait s'en dispenser, notamment dans le cas de manuscrits extremement fragilisés par le temps (qu'on songe par exemple à la numérisation de la Bible de Gutemberg par la Bibliothèque de Göttingen). Et surtout la mise en ligne du patrimoine historique et culturel ouvre ce champ de mémoire à des non-chercheurs, à des non-universitaires, ce qui semble répondre à une véritable demande (ainsi 42 % des internautes canadiens qui ont consulté Notre mémoire en ligne - 3000 ouvrages sur l'histoire de leur pays - étaient des usagers sans aucun rapport avec l'université ou la recherche).
Evidemment, tout cela implique des coût considérablement accrus relativement aux exigences en financement des anciens moyens de stockage (de 1992 à 1998 la BNF a dépensé 72 millions de francs pour la numérisation de ses collections). Jusqu'à quel point l'archivage des information et du patrimoine pourra-t-il être public, et conséquemment librement accessible en ligne, si les coûts d'installation et de maintenance des bases de données en vient à surpasser celui de la production originelle des données emmagasinées?... L'exemple du rachat par Bill Gates du Codex de De Vinci, accessible sur le Net moyennant finances, donne une désagréable idée des conséquences possibles de cet état de fait : la privatisation accentuée du patrimoine et de la mémoire collective, l'accès payant à ce qui nous fait être ce que nous sommes (qu'on songe au développement actuel des université privées en ligne aux USA).
 

2- ...en prenant garde qu'il ne nous archive.

2-1. Anonymat et mémoire: l'impossible conciliation.

Cet ensemble de problèmes techniques converge vers l'articulation d'une nouvelle donnée de nore interrogation. L'existence d'une mémoire de l'Internet ne va pas sans poser de difficiles problèmes politiques, juridiques et éthiques. Certes, la plupart des argumentaires insiste sur le fait que l'archivage de l'internet ne pose pas de problèmes spécifiques et nouveaux par rapport à n'importe quel autre type de conservation des informations ; ainsi Catherine Lupovici, responsable de la Bibliothèque numérique de la BNF affirme-t-elle que "l'Internet ne pose pas de questions nouvelles mais il en modifie l'échelle". Peut-être, mais ne pourrait-on pas avancer que certaines de ces questions anciennes ne peuvent pas changer de dimension sans changer de nature ? Ainsi de la préservation de la vie privée: que des historiens puissent avoir connaissance du délit commis par Untel en fouillant par hasard les vieux numéros d'un journal d'il y a cinq ans, cela peut être envisagé comme un problème, mais il est évident que cela ne constitue pas un état de fait susceptible de dépasser le seuil de tolérance d'Untel ; que par contre n'importe qui, en composant le nom d'Untel sur un moteur de recherche puisse tomber sur la page de ce journal où son délit est mentionné (et cela peut-être son employeur, ses employés, ses amis, sa femme, ses enfants), cela risque d'occasionner de graves problèmes à Untel qui, ex hypothesi, a payé sa dette à l'égard de la soci&eacude;t&ma#ute; . Plus précisément, l'autoarchivage susmentionné de l'internet induit nécessairement la constitution d'un fichier sur chaque individu, qui peut éventuellement aboutir à un véritable casier judiciaire bis, librement et publiquement accessible.
Ne négligeons pas en outre les enjeux financiers : si les archives de l'Internet sont aujourd'hui d'accès gratuit, elles pourraient fort bien devenir payantes pour les entreprises. Et jusqu'au profilage systématiquement réalisé par les sites commerciaux (notamment par le moyen des cookies) peut devenir un objet d'échange sur un marché de l'estimation des individus, où la cession du casier judiciaire sous forme contractuelle ne serait-ce que la manifestation la plus contestable.
Quant aux problèmes juridiques soulevés par l'existence de ces archives, les cabinets d'avocats spécialisés dans la cybercriminalité semblent déjà se lêcher les babines : des questions de copyright aux litiges concernant la propriété d'un site dont l'auteur est décédé (cela risque très vite de jeter un gros pavé dans la mare de sympathiques projets du type Afterlife) les enjeux financiers sont là encore considérables.
On peut donc légitimement se demander si ces deux nécessités sont compatibles : d'un côté archiver l'Internet, et à à travers lui numériser notre patrimoine ; de l'autre préserver les liberté et l'anonymat, en assurant la compatibilité des mécanismes de l'Internet avec les normes juridiques applicable en général aux questions de la propriété intellectuelle et du droit à disposer de son image.. 

2-2. L'internet nous garde en mémoire: attention vous êtes tracés!

Mais ces enjeux font eux aussi signe vers des problématiques moins immédiatement discernables mais peut-être plus cruciales. Si l'Internet est à la fois objet d'un archivage et instrument (difficlement contrôlable) d'archivage -avec toutes les contradictions qui peuvent en résulter - objet et substrat de la mémorisation, il est aussi un opérateur permanent de mémorisation. Il garde la trace des connexions et les voyages qui le traversent, et peut immédiatement traiter les données qui en résultent.
On peut à cet égard signaler quelques unes des conséquences de ces opérations. 
Sur le site Privacy.org, par exemple, est organisée chaque année une grande remise des prix, les "Big Brother Awards" qui "récompensent" les meilleurs inovations dans les technologies de surveillance universelle via le Net. On citera par exemple le gagnant de l'année 1999 : le numéro d'identification conçu par Microsoft qui permet le traçage des opérations sur la Toile des usagers des différents logiciels Microsoft. On trouve à cet égard sur le site du Cnil une illustration des principales procédures de traçage utilisées par les entreprises de commerce pour le profilage de leurs visiteurs. On sait par exemple qu'il est facile d'obtenir des renseignements sur la configuration d'un utilisateur et sur l'URL qu'il vient de visiter en utilisant les variables d'environnement définies dans son navigateur. De ces applications les plus importantes sont sans doute les fameux "cookies", positionnant sur l'ordinateur d'un usager des informations qui permettront par la suite de déterminer son parcours lors d'une session et de conformer dynamiquement les pages du site lors de ses prochaines visites compte tenu de son "profil" ainsi dégagé. C'est le cas lorsqu'un de vos moteurs de recherche positionne des cookies en fonction des rubriques que vous avez consultées, lesquelels contiennent une indication de vos goûts et intérêts, pour afficher la fois suivante des annonces publicitaires correspondant à ces goûts. Le Cnil insiste à juste titre sur le fait que l'archivage de ces données de profilage permettront au site, le jour où vous lui donnerez une information plus importante (votre nom ou votre adresse informatique ou postale) de mettre en série cette donnée avec l'ensemble de celles qu'il aura glanées par le biais des cookies, constituant ainsi un "fichier client" pour lequel vous n'aurez pas donné votre caution, mais dont on imagine aisément la valeur financière. On pourrait faire des remarques semblables à propo de la constitution des fichiers d'audit. Ce qui semble intéressant dans cet ensemble de procédures, c'est qu'elles opèrent une mise en mémoire de vos opérations, stockées alors en mémoire dans une base de données, et, selon la logique précédemment exposée, retraitées par la suite de manière à constituer une nouvelle mémoire morte, diffusable et échangeable à volonté, permettant de profiler les dits usagers et donc de mettre en place des structures d'accueil adéquates à vos demandes escomptées. A travers le traitement de ce que "vous avez fait" sur le Net, on constitue une mémoire de "ce que vous êtes", et on configure en conséquence les éléments de vos opérations futures. On aurait ici envie de dire que c'est la subjectivité elle-même qui devient un élément constitutif, et dynamique, de la mémoire de l'internet. Il existe certes des méthodes pour se défendre contre cette surveillance inavouée. Pour éliminer les cookies, esquiver le traçage, contourner les fichiers d'audits. Mais se défausser sur chaque usager de cetravail de protection c'est consacrer l'existence d'un monde de l'information "à deux vitesses" : seuls ceux qui ont les compétences (et le temps) pour le faire pourront se prémunir contre ce qui pourrait à bon droit être considéré (au moins dans certains cas) comme une atteinte générale à la vie privée. Quant au plus puissant logiciel existant sur le marché, Freedom commercialisé par la société canadienne Zeroknowledge , il inverse le problème sans le résoudre : il garantit un anonymat assez sûr à des personnes dont les activités et les motifs peuvent être plus répréhensibles et illégaux que ceux des "traceurs".
Ainsi, l'on avait vu comment l'internet était conduit à s'autoarchiver et à se mettre en réseau avec son propre passé, on le voit maintenant intégrer la mémoire de ses usagers à ses propres donnés et évoluer dynamiquement, se transformer selon la prise en compte permanente et immédiate de ces mémoires multiples.
Si l'on admet alors qu'au fond la mémoire de l'usager est mise en ré9seau a~ec l'ensemble de la mémoire de l'Internet, on est conduit à envisager un dernier ensemble de projets, le plus fascinant sans doute.

2-3. Le projet Oxygen, une utopie des plus sérieuses...

Nous n'avons en effet pas assez insisté sur une autre caract&eagute;pictique fondamentale de la mémoire des réseaux : l'interconnectivité. Tout information numérisée produite quelque part sur la "surface" d'un réseau est susceptible d'être véhiculée à n'importe quel autre point, et sur n'importe quel autre réseau pour peu que ce dernier mette en relation des supports dôtés d'une mémoire morte et d'une mémoire de masse. Il n'y a pas de localisation du stockage. En bon théoricien épris de vocables deleuziens, Jean-Pierre Balpe parle ainsi d'une "mémoire virtuelle de flux déterritorialisée" (dans Libération du 22 juillet 2000). Il apparaît en outre que cette mémoire (nous avons en partie montré comment dans notre première partie) peut être considérablement miniaturisée, intégrée à un micro-onde ou un radiateur, enfouie dans un talon de chaussure etc... Le directeur adjoint du MIT avait même consacré un site web à sa brosse à dent, site dont il affirmait qu'il était alimenté et généré par "le petit ordinateur sui se situe dans la brosse à dents". Car telle est l'utopie actuellement promue par le MIT sous le nom de "Projet Oxygen": un réseau qui ne relierait pas seulement ces grosses machines provisoirement installées sur nos bureaux et que nous appelons des ordinateurs, mais nos portables et nos radiateurs, nos palm pilots et des senseurs incorporés à nos murs de salle de bain, des capteurs sis dans nos talons de chaussure capables d'analyser notre façon de marcher et, le cas échéant, de contacter de leur propre chef un kinésithérapeute, en vérifiant dans notre agenda que la date et l'heure conviennent, avant de nous téléphoner sur notre montre de poignet pour nous en avertir. Le monde de ce projet est un monde de capteurs, senseurs, microphones et microcaméras absolument omniprésents et mettant en permanence en mémoire pour traiter et retraiter cette mémoire, vos moindre faits et gestes Ce projet Oxygen n'est pas une aimable rêverie : financé sur des crédits militaires américains (40 millions de dollars sur cinq ans), il a étéretenu comme prioritaire par le Defense Advanced Research Projects Agency (qui oriente les financements de recherche du Pentagone et...est responsable de l'invention de l'Internet). Il repose sur l'idée que les 8 milliards de processurs intégrés aux objets les plus banals (réveil, thermostat, radio, montre) sont des ordinateurs en puissance, et pourraient à ce titre être mis en réseau et "défonctionalisés". Ces objets ne seront plus rivés  leur fonction unique, mais seront des x, des quelque choses àà partir desquels ont pourra télécharger selon nos besoins, depuis la gigantesque mémoire du réseau, tel ou tel programme, telle ou telle applications. Tout sera sur le Web. Ce dont nous avons besoin, ce dont nous devons nous souvenir. Soit l'un des scénarii inventoriés sur le site web du LCS : Jane, qui est veuve, ne rate plus aucun appel, car les microphones et les hauts-parleurs incorporés aux murs lui permettent de répondre depuis n'importe quel point de son appartement. Les senseurs de la baignoire vérifie que l'eau ne déborde pas et qu'elle est à la bonne température. Les caméras incorporées aux murs permettent à une douce voix de lui rappeler gentiment de prendre ses médicament ou d'aller rechercher ses lunettes sur la table de nuit (qui, je suppose, clignote avec anxiété), etc... Toutes ces données, qui devaient être jadis entreposées dans la fragile et précaire mémoire d eJAne, sont désormais sur le web, mise en réseau avec une multiplicité d'autres données, avec lesquelles elle sont immédiatement comparées, mise en série, retraitées.
La mémoire de l'internet doit, dans cette perspective devenir quelque chose de comparable à l'air que nous respirons, nous nourrir constamment, se transformer avec ce que nous rejetons, nous envelopper entièrement. L'accès au réseau ne sera plus déterminé par une action ponctuelle et spécifique (se mettre à son bureau, brancher l'ordinateur le modem, se connecter, etc.), il sera coextensif à la majeure partie de nos actions quotidiennes, à la forme la plus spontanée de notre être-au-monde (parler, écouter, bouger, lire, prendre un bain) ; la mise en mémoire sur le réseau de nos actions ne sera plus soumise à un ensemble de procédures spécifiques à l'intérieur de ces connexions partielles, elle sera le résultat et la condition de nos gestes de tous les jours. Il ne nous appartient évidemment pas de juger de la faisabilité de ce projet ni de sa légitimité ou de sa pertinence. Mais ce qui nous semble intéressant pour notre propos, c'est qu'il implique littéralement la mise en réseau de l'Internet et de ce que nous avons pris l'habitude de nommer notre mémoire, notre appareil mental. Ce qui trouvait antérieurement son lieu et son chemin dans nos connexions neuronales, à travers les sillons de nos synapses, pourra très naturellement, non seulement être "reterritorialisé" sur le Net, mais en outre y sera fonctionnellement traité comme il le serait par un appareil mémoriel humain (et même mieux). C'est peut-être simplement notre pensée qui va changer de support, pour être rendue compatible avec l'ensemble des données numérisables et intégrables à une base de donnée.