L’ère numérique. Une description 3/3

Suite de la Conférence du vendredi 12 janvier 2018, IUPG, Bordeaux : L’homme numérique. Flexions et réflexions

5) Un monde convivial

Plus précisément, les techniques ont adopté une interface conviviale.

a) Le fait

Une des nouveautés les plus décisives est l’invention du bureau virtuel, qui tranchait avec les systèmes d’exploitation si fastidieux, si contre-intuitifs de l’époque. C’est d’ailleurs ce qui frappa les utilisateurs de l’époque. Steven Levy le raconte à propos de Lisa, le premier système d’exploitation d’Apple :

 

« Exactement comme un bureau réel s’étend sous les yeux de l’utilisateur, le bureau virtuel du Lisa se couvrait de documents, de dossiers et d’outils de travail […]. Quand on souhaitait créer un nouveau document, on se servait de la souris pour ‘accéder’ à une pile de feuilles vierges et on cliquait deux fois pour qu’une fenêtre s’ouvre, représentant la page de papier. Même la fonction ‘effacer’ était intégrée dans ce semblant de bureau. […] Ouvrir un fichier d’un seul mouvement de la souris – en somme, mettre le doigt dans le cyberespace – et sélectionner une icône était quelque chose d’extraordinaire. Rien à voir avec l’ouverture de fichiers dans les pesants systèmes d’exploitation qui ont dominé l’industrie jusqu’au Macintosh [1] ».

 

Pour Vincent Billard, l’ordinateur, par exemple, l’ordinateur portable est « une forme moderne de la machine à calculer [2] », la machine à calculer informatique qui est née en 1948 à Manchester grâce au génie de Türing. Il particularise de manière intéressante son propos en l’appliquant à « l’essence » de l’objet numérique Apple. Il caractérise celui-ci par le néologisme « enfantile », qui n’est pas péjoratif, en tout cas pas seulement. Cet adjectif connote deux traits : la simplicité (le produit Apple est childish, « simple comme un jeu d’enfant [3] ») et le paternalisme (le producteur fait le bien du consommateur malgré lui).

b) Le sens

La convivialité est le terme commun pour dire la minimisation de la médiation ou la simplicité. Certains observateurs font valoir un changement majeur, qu’ils ont appelé d’un terme savant, la désintermédiation : « la fin (ou du moins la diminution de l’influence) des médiateurs et des intermédiaires [4] ». En effet, pour en demeurer à la seule information,

 

« à partir du moment où chacun peut prendre la parole sur tout type de sujet, poster des commentaires, se forger une opinion en consultant directement un site en ligne et mettre à la disposition du plus grand nombre son savoir ou savoir-faire ; à partir du moment où tout le monde peut a priori expérimenter et créer grâce aux nouveaux supports et outils numériques (contenus autoproduits), le rôle des professionnels et des experts perd de son importance [5] ».

 

Mais l’on voit aussitôt poindre l’objection qu’est le dérapage lié à l’absence de filtres :

 

« Peut-on véritablement imaginer une démocratie sans corps intermédiaires, peut-on transmettre une culture sans contextualisation et sans véritable hiérarchisation ? Tel est bien l’un des enjeux majeurs de l’essor du numérique aujourd’hui : multiplier les garants de l’exactitude et de la fiabilité des messages qui circulent sur le Web, encourager la mise en perspectives des informations et des données [6] ».

 

L’exemple de Wikipédia est, de ce point de vue, intéressant. Une étude a montré que grande est sa fiabilité.

Ce que Billard appelle « simplicité », je l’appellerais « transparence ». Le génie d’Apple est de minimiser le plus possible l’interface entre la technique et l’homme. Or, le propre d’une médiation est d’être transparente de son médiateur, en même temps que d’être le plus possible proportionnée à son bénéficiaire. Proche est le concept d’affordance.

 

« Les affordances sont les possibilités d’action suggérées par les caractéristiques d’un objet. Par exemple, lorsque vous arrivez devant une porte, un faiseau d’indices vous permet de comprendre, avant toute action, si vous devez la pousser, la tirer, la faire glisser, etc. Parmi ces indices se trouvent des signes implicites (roulements, forme de la poignée, barre horizontale sur toute la longueur de la porte, emplacement des gonds, etc.) et des signes explicites (un écriteau Poussez, une personne bien intentionnée qui vous dit de pousser, quelqu’un devant vous qui pousse la porte) [7] ».

 

Si on l’applique à l’informatique, l’affordance correspond à la transparence, à l’évidence d’utilisation.

c) Confirmation. L’essence du design

1’) Le fait

Aujourd’hui, le design est partout présent. Nous-mêmes sommes considérablement influencés par lui, parfois à notre insu. Il suscite des dépenses considérables, fait aussi l’objet de recherches importantes. On pourrait reprendre les exemples de Nike, Apple, Swatch, etc., donnés ci-dessus.

Empruntons à Stéphane Vial deux objets designés. Un premier exemple est l’iPhone :

 

« L’exemple d’iPhone, le terminal de poche de la marque Apple, est sur ce point remarquable : tous ceux qui le pratiquent non seulement se rendent compte qu’avec cet objet ils vivent quelque chose de nouveau et d’excitant en termes d’interaction homme-machine, mais surtout ils comprennent, une fois la première excitation passée et l’étendue des applications disponibles découverte, qu’ils s’engagent désormais dans de nouvelles manières de vivre leur mobilité quotidienne, leur relation à l’information, leur accès aux contenus et plus généralement leur identité numérique [8] ».

 

Un second exemple est l’iMac :

 

« Même chose avec l’iMac, dont l’idée, infiniment simple, relève tout simplement du coup de génie : iMac est un ordinateur de bureau imaginé par la marque Apple et constitué uniquement d’un écran plat, sans tour ou unité centrale externe. Tout est dans l’écran, la carte mère aussi bien que le disque dur ou le lecteur graveur de CD/DVD. Résultat : vous n’avez qu’à le brancher et le déposer sur votre table de travail, et vous gagnez instantanément de la place chez vous. Ce qui n’est au départ qu’un simple ordinateur personnel déclenche alors une nouvelle manière de vous meubler et produit des effets jusque dans votre aménagement intérieur. Pur effet de design [9] ».

 

Pourtant, c’est le lieu de tous les paradoxes : chacun sait qu’il existe ; mais personne ne sait le définir ; on se contente de le décrire dans de beaux livres [10]. Chacun en affirme la contingence ; pourtant, personne ne s’en passe.

2’) Une interprétation

Rares sont les ouvrages de philosophie qui se sont attaqués au sujet. Le philosophe Stéphane Vial propose une approche de l’essence du design à travers ses effets, c’est-à-dire ses finalités : effet callimorphique (l’objet designé produit une émotion esthétique et présente une harmonie) ; effet socioplastique (l’objet designé cherche à influencer les conditions de vie de l’homme ; voire, « cette volonté de transformer la société et de faire advenir un monde meilleur est le cœur utopique du design [11] ») ; effet d’expérience (l’objet designé s’éprouve : « Là où il y a du design, l’utilisateur en ressent immédiatement l’effet, précisément parce que son expérience s’en trouve instantanément transformée, améliorée, augmentée [12] »). Pour l’établir, il prend les deux exemples qui sont deux créations d’Apple. De fait, à chaque fois, nous voyons une convergence entre l’effet callimorphique liée à l’interface, et l’effet d’expérience lié à l’usage si convivial et l’effet socioplastique qui est le changement introduit dans la vie.

Cette dimension esthétique est connue depuis longtemps, puisque, en 1952, le designer français Raymond Loewy écrivait déjà que « le plus beau produit ne se vendra que si l’acheteur est convaincu que c’est réellement le plus beau [13] ».

Faudrait-il convoquer la structure ontophanique ? La description suivante cumule les différentes caractéristiques de celle-ci :

 

« Le design a justement pour fonction de nourrir un projet de marque en proposant des objets qui endossent un savoir-faire, une vision du monde et des valeurs spécifiques. Le design est justement ce qui permet de tangibiliser un projet (par définition abstrait) en permettant à la marque de se déployer comme articulation d’une éthique et d’une esthétique. Mais se pose ici la question de la singularité et du style. De même que Cervantes, Dostoïevski ou Beckett ont opéré une césure définitive dans le tissu littéraire, des marques comme Nike, Apple, Alessi existent par leur capacité à avoir transcrit de façon immatérielle une vision inédite de leur univers de produits : Nike en transformant la chaussure de sport en accessoires de la quotidienneté urbaine branchée, Apple en redéfinissant l’idée même d’ordinateur à travers la convivialité et l’esthétique, Swatch en transformant la montre en accessoire de mode qui accessoirement donne l’heure, etc. Toute grande marque opère une forme de trouée dans le réel qui s’emblématise dans un produit ou un discours rompant avec l’existant [14] ».

 

« Articulation d’une éthique et d’une esthétique », le design ne peut non plus exister sans une logique, donc sans relation au vrai, ne serait-ce que comme cohérence.

6) Un monde numérique

Comme l’événement, l’information n’est pas comme telle transmissible, il faut passer par un médiateur : cela suppose la capacité de coder, transmettre et décoder. Un second progrès fut celui du numérique qui multiplie les capacités de codage. Il permet de passer du mécanisme phénoménal de base qu’est l’interface, au mécanisme de fond qu’est le numérique proprement dit. D’un mot, le numérique reconstruit toute information, quelle qu’elle soit, à partir d’une unité élémentaire discrète répondant à deux états, 0 et 1, unité qui est modélisable en base 2 et surtout techniquement codable dans la matière.

a) Le fait

D’où provient l’interface ? Pour répondre à cette question, il ne s’agit pas seulement de comprendre un mécanisme, mais opérer un passage de la surface à la profondeur, du mécanisme phénoménal de base qu’est l’interface à son fondement qu’est le numérique, c’est-à-dire la discrétisation [15]. En effet, derrière chaque icône et chaque bouton, on trouve des lignes de code ; or, derrière celles-ci, des langages de programmation ; enfin, derrière ces derniers, se rencontre une suite discrète de 0 et 1. En effet, au point de départ et au plan microscopique, nous avons des puces ou, de manière encore plus élémentaire, du courant électrique. Or, le mode ??? électrique fonctionne de manière binaire : le courant passe ou ne passe pas. Par ailleurs, le monde macroscopique de l’interface est un monde continu et non pas discontinu. La question qui se pose est donc : comment passe-t-on de ce monde microscopique, discret et inaccessible sauf aux seuls experts, au monde macroscopique, analogique et convivial ? En termes concrets : comment a-t-on opéré la transmutation d’un monde où prime le calcul, le monde de von Neumann, devenu, par le biais de la machine, celui de Turing, à un monde adapté à l’homme, le monde de Steve Jobs et de MacIntosh ? Comment traduit-on le langage de haut niveau (lisible par un homme) en langage de bas niveau (le code binaire dont la syntaxe est lisible par la machine) et vice versa ? [16]

Voici comment Sherry Turkle décrit le hiatus :

 

« Les cours d’informatique aujourd’hui ont peu de choses à voir avec le calcul et les algorithmes ; ils concernent plutôt la simulation, la navigation et l’interaction. […] Bien sûr, il y a toujours du ‘calcul’ qui opère à l’intérieur de l’ordinateur, mais cela ne correspond plus au niveau le plus important ou le plus intéressant avec lequel on réfléchit ou on agit. Il y a quinze ans, la plupart des utilisateurs de l’informatique étaient réduits à taper des commandes. Aujourd’hui, ils utilisent des produits prêts à l’emploi pour manipuler des bureaux simulés, dessiner avec des pinceaux et des brosses simulées, et voler dans des cockpits d’avion simulés [17] ».

 

La réponse tient à la programmation. Ce langage a permis de transformer un univers de lignes et de codes réservé aux seuls « nerds », voire à une élite très restreinte capable de comprendre ce langage extrêmement complexe et dépouillé, en un univers fait d’icônes, de menus et de systèmes de pointage. Prenons un exemple simple. De prime abord, et ainsi le pensaient les Anciens, la couleur ou le son sont des réalités éminemment qualitatives (les « qualités secondes » de Locke). Or, il est possible de réduire la couleur à un ensemble d’informations binaires. Tel est le principe de la télévision couleur ou du téléphone numérique.

Le principe réside donc dans la réduction de toute réalité (un objet, mais aussi un événement) à un ensemble discret ou digital d’informations élémentaires, ultimement le 0 et le 1. Or, il est possible de composer, c’est-à-dire de mettre en relations, ces unités grâce à des techniques de programmation. A l’autre bout, on trouve le principe de l’interface WIMP : « Windows, Icons, Menus, Pointing Device ». Elle fut inventée par Xerox dans les années 1970, commercialisée par Apple dans les années 1980 et universalisée par Microsoft dans les années 1990.

Précisons ce qui caractérise en propre l’outil numérique : l’ordinateur simule. Le cœur du processus informatique, du virtuel, réside dans le simulationnel [18]. En voici un exemple :

 

« Grâce au logiciel de virtualisation Virtual Box, une machine virtuelle sous licence libre bien connue des professionnels du Web, on peut facilement simuler (on dira alors ‘émuler’) le système d’exploitation Windows à l’intérieur du système Mac OS X, comme si on lançait simplement un programme parmi d’autres. Et comme tout peut être réduit aujourd’hui à un processus numérique, i.e. à de l’information calculable, tout peut être simulé numériquement [19] ».

 

Le processus est tellement original qu’on a inventé un nouveau nom, construit sur simulation : émulation. C’est une « technique consistant à simuler efficacement le fonctionnement d’un ordinateur sur un autre, généralement plus puissant : simulation, qui n’implique pas les mêmes impératifs de performance [20] ». Ainsi les images de synthèse simulent toutes les réalités sensibles possible (existantes ou non). On peut dès lors les qualifier de virtuelles, mais au sens technique : ce sont des images composées digitalement, par simulation.

On pourrait encore préciser : la simulation caractéristique du monde virtuel se notifie en propre par l’articulation entre les niveaux constitutifs de la machine, depuis le langage machine, de bas niveau, le langage binaire initial, jusqu’aux langages de haut niveau ou langages humains évolués et conviviaux, en passant par les langages intermédiaires que sont les langages machines, eux-mêmes parfois hiérarchisés (le premier, mis au point entre 1953 et 1956 étant le FORTRAN). Or, entre ces différents niveaux de langages opèrent des compilateurs.

On pourrait donc traduire simulation par reconstitution du réel à partir d’unités élémentaires d’information traitées par programme.

b) Le sens

Nous avons vu que la simulation caractéristique du monde virtuel se notifie en propre par la fine hiérarchie des différents niveaux de langages, selon une double hiérarchie, ascendante et descendante, entre plus bas et plus haut niveau.

En fait, il s’agit là d’une loi universelle que je formulerais ainsi : tout être configuré (comme totalité) apparaît à partir d’éléments et de processus élémentaires.

Cette loi peut s’établir par induction analogique. On l’observe dans le vivant : non seulement la figure achevée et belle se prépare dans des entrailles autrement moins nobles, mais multiples sont les niveaux d’intégration : systèmes, organes, tissus, cellules, organites intracellulaires, l’ingéniérie des biomolécules. Voire, ne peut-on dire que des multiples distinctions de co-principes métaphysiques (être-essence, suppôt-essence, substance-accident, acte-puissance) surgit la figuralité achevée et substantielle ? De même, croisant l’axe diachronique, c’est dans les multiples banalités du quotidien que se cuit le pain de la nouveauté, c’est dans le chronos que sommeille le kairos. L’événement advient au terme d’une patiente parturition.

Il en est de même du virtuel : « Le lisible peut désormais engendrer le visible [21] ».

Par ailleurs, cette hiérarchie des niveaux ne signe-t-elle pas l’autodonation à partir d’un centre ? En effet, le long processus d’apparition suppose de multiples connexions.

7) Confirmation : l’ontophanie numérique selon Stéphane Vial

Dans un des très rares ouvrages qui s’attachent à l’ontologie du numérique, un chapitre long et inventif (le meilleur du livre), Stéphane Vial propose une description de ce qu’il appelle « ontophanie numérique », en onze notes [22]. Il s’agit probablement de l’étude philosophique la plus complète de la nouveauté introduite par l’être numérique. Passons-les brièvement en revue avant de noter un point de convergence important :

  1. Le phénomène numérique, « l’étant numérique est un noumène ». Par cette affirmation, Vial s’oppose à toutes les tentatives platoniciennes. Pour cela, il s’aide des catégories élaborées par Gilles Gaston-Granger qui distingue le probable, le possible et le virtuel [23]. Le philosophe part d’Aristote pour qui le réel se divise en actuel et potentiel. Puis il affine, distinguant quatre catégories : l’actuel est « cet aspect du réel qui est saisi comme s’imposant à notre expérience sensible, ou à notre pensée du monde, comme existence singulière hic et nunc » ; le virtuel est « le nom donné au non-actuel considéré essentiellement et proprement en lui-même, du point de vue de son état négatif, sans en envisager le rapport à l’actuel ; le possible est « le non-actuel dans son rapport à l’actuel » ; enfin, le probable est « un non-actuel envisagé pleinement et concrètement dans son rapport à l’actualité, pour ainsi dire comme une préactualité [24]». Il conclut alors que « le concept de réalité est une construction comportant une facette d’actualité, et une facette composite de virtuel et de probable [25]».
  2. Le phénomène numérique est programmable, donc est idéal.
  3. Le phénomène numérique est interactif. En effet, d’un côté, parce qu’il a fallu façonner la machine pour que, composée d’électronique et de mathématique, elle puisse entrer en contact avec l’homme. De l’autre côté et surtout, parce que la machine, loin d’être passive, réagit à tout ce que propose l’usager humain : « On tapait les commandes au clavier, on attendait un peu, et tout à coup, l’engin nous sortait une réponse [26]».
  4. Le phénomène numérique est virtuel ou simulé. Or, paradoxalement, c’est le seul trait qui soit contingent.
  5. Le phénomène numérique est versatile, c’est-à-dire instable. Plus précisément encore, la machine commet systématiquement des erreurs. Cette propriété est contre-évidente, mais pourtant nécessaire, selon notre auteur qui la constate comme un fait universel, mais n’en donne pas la cause. De fait, qui n’a jamais fait redémarrer sa machine ? Maintenant, la raison semble être la nature humaine dont le propre est d’errer (errare humanum est) ; or, la machine, loin d’être hypostasiée, est le fruit de l’intellect humain ; de même que notre cerveau fait régulièrement des lapsus, il fait régulièrement des bugs.

L’erreur porte un nom, le bug, qui signifie « insecte » en anglais. Pourquoi ?

 

« Un jour de septembre 1947, dans l’équipe qui travaille sur le Harvard Mark II sous la direction de Howard Aiken, le calculateur électromécanique qui succède au très médiatique Harvard Mark I, la présence d’une mite dans le relais 70 du panneau F provoque l’arrêt de la machine, sous les yeux incrédules de Grace Hopper, mathématicienne et officier de marine, future conceptrice du premier compilateur (1951) et du langage COBOL (1959). À l’aide d’une pince à épiler, Grace déloge le papillon de nuit le plus célèbre de l’histoire informatique et le colle dans le journal de laboratoire sous le titre ‘premier cas avéré de bug’ [27] ».

 

En tout cas, la conséquence pratique est éducative : l’appareil, même un ordinateur qui semble tout-puissant, inerrant, est aussi vulnérable, fragile. Quelle leçon de choses !

  1. Le phénomène numérique est réticulaire, c’est-à-dire autrui-phanique. En effet, la machine digitale n’est-elle pas devenue conviviale en inventant le Web, c’est-à-dire la toile ; or, celle-ci n’est que réseau interconnecté. De fait, le terme « réseau » est devenu une tarte à la crème, suscitant des ouvrages [28], au point qu’une discipline est née, la diktyologie, qui est la science des réseaux, et qu’une revue savante porte son nom [29].
  2. Le phénomène numérique est copiable, c’est-à-dire instantanément reproductible. En effet, si je dispose d’un exemplaire digital en version PDF de Amour et responsabilité, je peux l’envoyer par e-mail à un correspondant ; je peux même le faire à un grand nombre. Or, cet acte se caractérise par plusieurs traits : il est presque instantané, quel que soit le nombre de mes destinataires ; la reproduction se fait à l’identique ; elle se produit sans erreur.

Une telle propriété technique est un hapax, une totale nouveauté dans l’histoire. Jamais aucune technique n’a pu, jusqu’ici, garantir un nombre potentiellement infini de copies dont aucune ne comporte d’erreur. On sait, inversement, combien l’une des plaies des moines copistes est le nombre, inévitable, d’erreurs qu’ils commettront.

  1. Le phénomène numérique est réversible ou annulable. En effet, le code binaire transforme le qualitatif en quantitatif. Or, le qualitatif est souvent irréversible, alors que le quantitatif semble réversible, ainsi qu’on l’observe dans le mouvement local.
  2. Le phénomène numérique est destructible ou néantisable. L’argument de l’auteur est que l’on peut perdre, en un clin d’œil, toutes les données qui n’ont pas été sauvegardées. Selon lui, il s’agit non pas seulement d’une transformation, voire d’un changement substantiel, mais véritablement d’un anéantissement, voire l’unique cas de néantisation.

Selon moi, ce constat manque de finesse. Il manque une analyse du sujet du devenir. Il est double : côté machine, le support (le hard) ; côté homme, la mémoire. Or, de fait, après perte des données non enregistrées, d’une part la personne peut garder en mémoire ce qu’elle a écrit, en totalité ou en partie ; d’autre part, les changements de texte ne sont pas immatériels, mais ont introduit des changements matériels ; parfois même, voire souvent, une partie a été sauvée quelque part.

Plus un produit est achevé, complexe, plus il génère du détritus. Par exemple, « la quantité de déchets générée par la fabrication d’un simple ordinateur portable est presque 4 000 fois supérieure au poids qu’il pèse sur nos genoux [30] ».

  1. Le phénomène numérique est fluide, voire gazeux, c’est-à-dire thaumaturgique. J’y reviens pour finir.
  2. Le phénomène numérique est ludogène, jouable. Ou, pour employer un autre jeu de mots, lui aussi peu convaincant, de l’auteur. Cette ludogénisation doit se distinguer de la gamification. Celle-ci concerne l’ensemble des « dispositifs connectés [qui] permettent de transposer les mécaniques du jeu à l’ensemble de la vie quotidienne [31]». Ici, il ne s’agit pas de façonner le numérique à l’image du jeu vidéo, mais seulement à l’image du jeu en général. Ce trait est, lui aussi, trop peu élaboré. Par exemple, de manière étonnante, on ne trouve nulle référence au travail clé de Huizinga sur Homo ludens. Il semble toutefois que Stéphane Vial fait du plaisir la note principale du jeu. D’où le néologisme, dont il semble fier, de playsir, et son calembour : « Jouer, c’est jouir [32] ». De fait, aujourd’hui, notre société se caractérise par les « multiples mises en forme du ludique [33]».

 

Je ne suis pas en accord avec le dixième adjectif, à cause de son caractère pompeux, et surtout à cause de son décalage, typique d’une sécularisation massive, irrespectueux du fait religieux, et fort peu fécond pour le propos lui-même.

Quoi qu’il en soit, le fait est là : le monde digital est le monde de la fluidité communicationnelle maximale. Voilà pourquoi l’information peut être reliée si loin, sans résistance ni perte. Toutefois, n’interprétons surtout pas naïvement cette fluidité comme une dématérialisation. Il s’agit plutôt d’un hommage pour les capacités inouïes qu’a la matière de se pneumatiser au maximum. Triomphe non de l’immatérialité, mais du plus diffusif dans et par la matière – comme dans un rayon stellaire.

Pascal Ide

[1] Steven Levy, La saga Macintosh, Paris, Arléa, 1994, p. 106-107.

[2] Vincent Billard, iPhilosophie, p. 214.

[3] Ibid., p. 215. Il développe ces idées dans son chapitre conclusif.

[4] Rémi Rieffel, Révolution numérique, révolution culturelle ?, p. 265.

[5] Ibid.

[6] Ibid., p. 266.

[7] Amélie Boucher, Ergonomie web, Paris, Eyrolles, 22011, p. 58.

[8] Stéphane Vial, Court traité du design, Paris, p.u.f., 2010, p. 62-63.

[9] Ibid., p. 63-64.

[10] Cf., par exemple, Enrico Morteo, Petite encyclopédie du design, Paris, Solar Éditions, 2009.

[11] Stéphane Vial, Court traité du design, p. 60.

[12] Ibid., p. 62.

[13] Raymond Loewy, La laideur se vend mal, Paris, Gallimard, 2005, p. 222.

[14] Brigitte Flamand, Le design. Essais sur des théories et des pratiques, Paris, Éd. de l’Institut Français de la mode, 2006, p. 290.

[15] Cf. Bruno Bachimont, « L’archive numérique : entre autheticité et interprétabilité », Archives, 32 (2000-2001) n° 1, p. 10.

[16] Pour le détail historique, cf. Philippe Breton, Une histoire de l’informatique, Paris, Seuil, 1987, rééd. coll. « Points Sciences ».

[17] Sherry Turkle, Life on the Screen. Identity in the Age of the Internet, New York, Simon & Schuster Paperbacks, 1995, p. 19.

[18] Cf. Franck Varenne et Marc Silberstein (éds.), Modéliser et simuler. Épistémologies et pratiques de la modélisation et de la simulation, Paris, Éd. Matériologiques, 2013.

[19] Stéphane Vial, L’être et l’écran. Comment le numérique change la perception, Paris, p.u.f., 2013, p. 158.

[20] Pierre Morvan (éd.), « Émulation», Dictionnaire de l’informatique, Paris, Larousse, 1996, p. 88.

[21] Philippe Quéau, Le virtuel, p. 29. Souligné dans le texte.

[22] Stéphane Vial, L’être et l’écran, chap. 5, p. 188-248.

[23] Cf. Gilles-Gaston Granger, Le probable, le possible et le virtuel. Essai sur le rôle du non-actuel dans la pensée objective, Paris, Odile Jacob, 1995.

[24] Ibid., p. 13-14.

[25] Ibid., p. 232.

[26] Steve Jobs, parlant dans le documentaire télévisé de Robert X. Cringely, The Triumph of the Nerds : The Rise of Accidental Empires, Oregon Public Broadcasting, 1996.

[27] Stéphane Vial, L’être et l’écran, p. 213.

[28] Cf., par exemple, Daniel Parrochia (éd.), Penser les réseaux, Seyssel, Champ Vallon, 2001 ; Pierre Musso, Critique des réseaux, Paris, p.u.f., 2003.

[29] Il s’agit de la revue Réseaux, fondée en 1983, dont l’objet couvre l’ensemble du champ de la communication, surtout les télécommunications. Cf. site http://www.cairn.info/revue-reseaux.htm

[30] John Thackara, In the Bubble. De la complexité au design durable, 2005, Saint-Étienne, Cité du Design, 2008, p. 22.

[31] Mathieu Triclot, Philosophie des jeux vidéo, Paris, La Découverte, 2011, p. 231.

[32] Stéphane Vial, L’être et l’écran, p. 244.

[33] Sébastien Genvo, « Penser les phénomènes de ‘ludicisation’ du numérique : pour une théorie de la jouabilité », Revue des sciences sociales, 2011, n°45 : « Jeux et enjeux », p. 69.

13.10.2018
 

Les commentaires sont fermés.