Ctrl+P

Regard sur les systèmes de publication, à l'heure du Web centralisé

Mémoire DNSEP d'Antoine Souvent, imprimable depuis le navigateur Chrome ou Chromium grâce à l'utilisation 'media print' du langage Web CSS ce mémoire a été encadré par Emmanuel Cyriaque et Nicolas Tilly.

Ctrl+P
Antoine Souvent
Année 2019 - 2020
École Supérieure d'Art
et de Design, Orléans

Regard sur les systèmes de publication, à l'heure du Web centralisé

Sommaire

.07 Abstract
.09 Introduction

.11 1 Enfants d’internet

.12 1.1 Uniformisation du monde .21 1.2 Évolution des technologies de l’information en relation avec l’imprimé .33 1.3 Chiffrer le monde
.13 A/ Globalisation des échanges .21 A/ Du télégraphe au terminal de paiement électronique (TPE) .34 A/ Big-data, la matière première
.14 B/ Mise en réseau .24 B/ Évolution de l’édition alternative .35 B/ Business Target & Sérendipité
.15 C/ Hiérarchisation de l’information et le graphisme .28 C/ Chronologie .36 C/ Machines et interfaces dans nos foyers


.38 2 Se réapproprier la toile

.39 2.1 Web : utopie du disque dur géant .49 2.2 Le monde Open source .55 2.3 Anarcho narcissique à l’arrêt de métro
.41 A/ La toile mondiale .49 A/ Logiciel libre et Open source .55 A/ Partager pour être
.42 B/ GAFAM & NATU .51 B/ Le blog, entre journalisme et journal intime .56 B/ Liking & following
.45 C/ À la conquête du mesurable .52 C/ Histoire du blog
.46 D/ Espace de stockage .53 D/ Communauté


.58 3 Pratiques & outils éditoriaux actuels

.59 3.1 Mutations des supports .67 3.2 Mutations des usages .71 3.3 Le graphiste et ses outils
.59 A/ Éditorialiser l’information .67 A/ Perception hybride .71 A/ Le médium soumis à l’outil qui le façonne
.63 B/ Éditer l'archivage .69 B/ Lecture à quatre mains .73 B/ Créer ses propre outils
.64 C/ Galaxie Gutenberg, numériser l’imprimé


.76 Conclusion
.77 Bibliographie
.78 Remerciements
.79 Colophon

Abstract

Today, we are in a connected world, where images and information circulate in abundance.This phenomenon is accelerated by the ubiquity of the Internet. Private companies give services to the mass of users that we are in exchange for our personal data stored on server farms. We have almost no look at this traffic. These services give us a possibility to share, broadcast or read with anybody else. What look do we have on these services? In a time of Instagram, how else could we actually broadcast?

Echoing the problems raised in this thesis, the layout and the realization were entirely realized with free programming languages, from the Web : HTML, CSS, JavaScript.

The first step to set up my project is to create one Web tool which can archive all the research I will collect from Internet for my project. Then, secondly I will make a visual and interactive production to build my fictions about the future with the power of algorithms.

This story will be about a world where everything is managed by algorithms, So humans will only need to use information and communications but this will divide them. They will be rated according to a scale where the humans the most controlled by algorithms will be considered higher on a social level. Therefore, the humans who are lower will be the ones who avoid any possibility of giving their data to the World Government. The rate and the lifestyle of a human, makes it impossible to read the contents and communicate with someone else from a higher level.

To create the different scale of possibility about information and communication. I will contrast different creative processes, for example one on paper inked by hand and another with digital technology, like augmented reality making different content from the same medium such as a poster or newspaper.

Introduction

Je suis né fin 1993, je me souviens quand mes parents ont fait l’acquisition d’un modem qui permettait d’aller sur Internet, à cette époque il n’y avait pas un grand intérêt à « surfer », disons que c’était l’émergence du Web qui permettait simplement d’échanger par
e-mail, c’était plus un passe-temps qu'un usage quotidien.

C’est au début des années 2000, où plusieurs organismes, entreprises ont commencé à créer des services et des produits pour la consommation de masse via Internet, que ma génération a vu et a participé à l’évolution du numérique : ordinateurs, Web et téléphones mobiles.

Nous sommes aujourd’hui dans un monde connecté, où les images et l’information circulent en abondance, ce phénomène est accéléré par l’ubiquité d’Internet. Des entreprises privées offrent des services à la masse d’utilisateurs que nous sommes, en échange de nos données personnelles, stockées dans des fermes de serveurs. Nous n’avons quasi aucun regard sur cette circulation. Ces services nous permettent de diffuser, de partager mais quel regard avons-nous sur ces services ? À l’heure d’Instagram, comment pouvons-nous diffuser autrement ?

En écho aux problématiques soulevées dans ce mémoire, la mise en page et la réalisation ont été entièrement réalisées avec des langages de programmation libres, issus du Web : HTML, CSS, JavaScript, à la différence des méthodologies conventionnelles utilisant des logiciels propriétaires.
Cette méthode m’a permis de concevoir une version imprimable ainsi qu’un site Web, donc de proposer un contenu sur deux supports différents. Ce travail de recherche tente de faire le bilan d'où nous en sommes de l’évolution technologique de l’information et de la communication en se concentrant sur les machines et leur relation à l’imprimé. Puis, il questionne à travers l'histoire du Web, les normes, et pose les éventualités d'une alternative dans le graphisme et l'édition.

1 Enfants d’Internet

Éducation dynamique

Aujourd’hui, l’omniprésence du numérique dans nos sociétés s’est démocratisée et touche la civilisation occidentale à travers différentes générations et classes sociales. Cette première partie contextualise les prémisses de ce qui est aujourd’hui notre société connectée.
Elle permet de voir comment depuis le XVIIe siècle, les différents gouvernements ont mis en place des normes, des unités de mesures pour établir un ordre mondial afin de contribuer à un meilleur développement de la diffusion et du partage.

1.1 Uniformisation du monde

Cette homogénéisation du monde s’est faite bien avant l’arrivée du numérique et d’Internet. L’uniformisation est liée à la libéralisation des échanges A/ Globalisation des échanges

1.2 Évolution des technologies de l’information en relation avec l’imprimé
et à leur intensification. Ce phénomène d’intégration économique, à l'origine de la globalisation, contribue à rendre les pays interdépendants notamment du fait de la libre circulation des biens et des services, des capitaux, des hommes, des idées et de la technologie.

La colonisation de l’Amérique du Nord, de l’Asie et de l’Afrique par l'Empire britannique Carte de l'Empire britannique en 1886 à permis la propagation de sa culture britannique et d’imposer l’anglais aux différents peuples. Aujourd’hui, l'anglais est une des langue dite universelle qui permet de communiquer avec une multitude personnes dans le monde.

L’uniformisation du monde commence avec la standardisation de la langue qui nous sert à le désigner. Le marché des mots est réduit aux mots du marché. Dessinant l’horizon des possibles, la déclinaison au global de tous les phénomènes et processus sociaux fabriquent le nouveau sens commun. Dans la production de l’imaginaire autour de ce devenir balisé, la technologie et le discours d’accompagnement qui la sert occupent une position décisive et singulière 1.

1
Mattelart Armand, Histoire de la société de l'information, (5ème éd.), Éd. la Découverte (Repères) Paris, 2001, p. 03

Carte de l'Empire britannique en 1886
A/ Globalisation des échanges

La plupart des pays développés se sont mis d'accord pour faciliter les échanges en imposant des normes qui permettent de structurer l'appréhension d'un espace commun. Ce mode régit par la langue, la mesure, le temps a permis d’accélérer le développement des pays par l’augmentation des échanges et des connaissances.

Le décret sur le système décimal de poids et mesure représente une des décisions normatives les plus symboliques puisqu’il prend le contre-pied des préjugés et des traditions de l’âge féodal qui avait fait de l’anarchie des mesures un instrument de tromperie dans le commerce en faveur des puissants. Le mètre apparaît comme l’accomplissement de l’idéal séculaire de la transparence dans l’échange. Prise dans la Nature, cette Nature des philosophes des Lumières, commune à tous, la nouvelle unité est glorifiée en tant que fruit de la raison émancipatrice : porteur de valeurs universelles, elle rapproche les hommes 2.

2
Ibid., p. 14

Cette exposition, la première Exposition universelles fut acceuillie dans un bâtiment spécialement construit pour l'évênemnt, Le Crystal PalaceLithographie coloré par McNeven.J, 1851 par le paysagiste Joseph Paxton à Londres en 1851. La qualité de ce bâtiment est due à la standardisation des éléments de préfabrication.
Elle répondait au cahier des charges : solidité, pérennité, simplicité et rapidité de construction. Selon l’édition 2004 de l’Encyclopædia Britannica, « Paxton était partiellement influencé par la structure organique du lys d’Amazonie Victoria regia, qu’il cultivait avec succès ». L’exposition universelle est un exemple qui permet de comprendre l’ambition de cette époque de partager au monde les avancés techniques scientifiques et artistiques et ainsi accélérer le processus de reproduction des savoirs.


Lithographie coloré par McNeven.J, 1851
B/ Mise en réseau
Les réflexions du philosophe et mathématicien allemand Gottfried Wilhem Leibniz (1646-1716) sur la nature de la logique marquent, en effet, une étape essentielle de l’idée selon laquelle la pensée peut se manifester à l’intérieur d’une machine. Leibniz s’approche de l’automatisation de la raison, en mettant au point une arithmétique binaire (1679) et un Calculus Ratiocinator ou « machine arithmétique »Machine arithmétique binaire, Gottfried Wilhem Leibniz 1673 (1673). Découvrir un « point » à partir duquel tout se remet en ordre : c’est le principe qui guide Leibniz dans sa recherche de nouvelles boussoles du savoir 3.

3
Ibid., p. 05

Ce projet de compression des informations en vue de synthétiser la pensée est aussi à l’œuvre dans les index et les catalogues que Leibniz envisage comme un espace tabulaire à multiples entrées.
Le projet d’automatisation du raisonnement formulé par Leibniz participe de la recherche d’une langue simplifiée. Il traduit un humanisme cosmopolitique. Le vœu du philosophe est de rapprocher les peuples, de les unir au-delà de l’Europe.


Machine arithmétique binaire, Gottfried Wilhem Leibniz 1673

Table de valeurs binaires

Cette réduction des nombres pour obtenir seulement un langage binaire composé du 0 et du 1 à imposé une nouvelle forme de lecture, d’écriture et d’un nouveau support.
Les différentes inventions machiniste du XVIIIe siècle ont fait naître le langage informatique avant l’heureC/ Chronologie

1.3 Chiffrer le monde
. Actuellement, la plupart des objets que nous possédons sont composés d’électronique répondant à un langage de lecture et d'écriture qui est retranscrit à travers des interfaces et une ergonomie sans que l’utilisateur ait besoin de savoir comment est conçu l’objet qu’il a dans sa poche.

Exposant en 1703 le mécanisme de la réduction des nombres aux plus simples principes, comme 0 et 1, il note qu’un système combinatoire pareil au sien était déjà en vigueur il y a quatre mille ans dans la Chine de Fo-Hi. Il s’appuie sur cette isomorphe qui se joue des frontières pour justifier sa thèse selon laquelle le langage des signes est le seul à résoudre les imperfections dans les langues naturelles 4.

4
Ibid., p. 07-08
C/ Hiérarchisation de l’information, un graphisme et des normes

En 1948, l’article « A Mathematical Theory of Communication » de Claude Shannon pose les bases de la théorie de l’information et de la communication. Il introduit le mot bitschéma de la théorie de l'information de Claude Shannon, 1948, soit la quantité minimale d’information pour la transmission d’un message, qui devient l’unité de mesureB/ Mise en réseau

A/ Big-data, la matière première
élémentaire en informatique. Dans le spectre du numérique et aujourd’hui de l’ubiquité d’Internet, cette théorie de l’information présente essentiellement l’unité de mesure d’une information transmise et reçue de manière électronique.


schéma de la théorie de l'information de Claude Shannon, 1948
En mathématiques, une chaîne de Markov est un processus de Markov à temps discrets, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov » l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »»). Les processus de Markov portent le nom de leur inventeur, Andreï Markov.

Il exploite alors les chaînes de Markov pour établir des modèles statistiques suggérant que toute source transmettant des informations est une chaîne de Markov vers une transcription digitale des signaux analogiques afin qu’ils puissent être encodés, une discrétisation permettant d’établir un processus ergodique préservant la structure des messages face à la déperdition des bruits de l’entropie. À cette période, c'est-à-dire durant la fin de la Seconde Guerre mondiale, une accélération de la pensée et de la pratique électronique et théorique a germé, par la communication entre les différents acteurs, le processus d'une organisation par le numérique s'est accéléré.

Les théories de Norbert Wiener (Cybernetics : or Control and Communication in the Animal and the Machine, 1948), Claude Shannon (“ A Mathematical Theory of Communication”, 1948) ou Louis Couffignal (Les machines à penser, 1952), trouvent alors des applications dans de nombreux domaines. Gordon Pask alors assistant de Norbert Wiener, développa plusieurs environnements (Musicolour SystemsMusicolour Systems, 1953 et Eucrates, 1956)


Musicolour Systems, et le synoptique

N. Wiener travaillera avec Cedric Price qui le sollicitera pour la conception de son Fun Palace(1961) et pour l’installation SeekInstallation Seek, Nicholas Negroponte, 1970(1970) de l’Architecture Machine Group (MIT) avec Nicholas Negroponte.


Installation Seek, Nicholas Negroponte, 1970

Parallèlement se développe un domaine de recherche directement lié à l’exploitation industrielle, à la formalisation d’une vectorisation des courbes (splines) qui va déterminer une approche graphique liée aux programmes. Tout à la fois aux origines de l’informatique graphique avec Pierre BézierCourbe de Bézier puis Paul Casteljau, la modélisation des surfaces est directement liée à la production par des machines à commandes numériques pour l’automobile (1962).
Pierre Bézier est ingénieur chez Renault quand il développe une modélisation des surfaces 3D pour le pilotage de machines numériques de pièces automobiles.

La fondation d’UNISURF ouvrira la voie aux logiciels de CAO dont CATIA, mais trouvera aussi d’autres résonances avec l’invention du computer graphic par William FetterComputer graphic par William Fetter, 1960. Fetter est engagé par la société Boeing où, il développe un laboratoire d'informatique graphique, en concevant un programme de dessin 3D. SketchpadSketchpad d'Ivan Sutherland conçu en 1963 par Ivan Sutherland au MIT est le premier logiciel de CAO qui propose une interface graphique liée à un moniteur et à un crayon optique. Cette connexion permet à l'utilisateur de développer les propriétés géométriques du dessin. Par ailleurs les recherches de John LansdownJohn Lansdown utilisant le teletype, architecte et pionner britannique de l'information lui ont permit de développer des applications sur un ordinateur Elliott 803 pour simuler constructions, perspectives et jeux de lumière dans l'architecture. Il fonde Simulation Ltd en 1963. C'est en 1952 que Max Bill publira Form, il pourra développer la conception de formes assisté par ordinateur.


Computer graphic par William Fetter, 1960

Sketchpad d'Ivan Sutherland

John Lansdown utilisant le teletype
propos receuilli dans la revue de l'exposition MUTATION/CRÉATION 2, sous la dir. Migayrou Frédéric, Coder le monde, Orléans, Éditions HYX, 2018, p. 113

Otto Neurath (1882-1945) a eu une pensée schématique et symbolique. Son travail illustre une pensée d'un langage visuel universel. Sa rencontre avec l’illustrateur Gerd Arntz (1900-1988) a permis la création du langage des pictogrammes ISOTYPEImages extraitent de Gesellschaft und Wirtschaft, Otto Neurath, publié en 1930, appliquant la pensée de Neurath : « Les mots séparent, les images rapprochent ».


Images extraitent de Gesellschaft und Wirtschaft, Otto Neurath, publié en 1930

D’après Robert Kinross, théoricien du graphisme, une des premières évocations du concept de design d'information (information design) dans le monde graphique est intervenue à l’École d’Ulm en Allemagne : lors de travaux développés par Gui Bonsiepe et publiés en 1968. Le travail reposait sur une enquête effectuée à partir de deux exemples de pages d’un catalogue de produits industriels, aux mises en page différentes : une classique et une plus rationnelle. Le but était de répondre à la question des rapports entre esthétique et ordre. Le concept de design d’information trouve une de ses principales origines dans le fonctionnalisme visuel des années 1960, mis en forme par la typographie helvétique qui avait puisé ses références dans le mouvement du Bauhaus. La méthodologie de cette approche est synthétisée dans l’ouvrage majeur TypographieTypographie, Teufen, 1967, d’Emil Ruder, cf. le chapitre Fonction et forme, qui est une parfaite illustration des outils nécessaires à la mise en forme esthétique de l’information.


Typographie, Teufen, 1967

Adrian Frutiger a assuré la préface d’une des éditions de l’ouvrage, renforçant en cela le lien entre fonctionnalisme et typographie.

Signalétique de l'aéroport Roissy-Charles de Gaulle par Frutiger Adrian Frutiger est un typographe suisse, il a conçu des typographies pour des lieux de passage ou touristique là, où plusieurs cultures se croisent, comme la typographie Métro, pour le réseau de transports en commun parisiens. Cet alphabet, comme celui de Roissy, est une adaptation réactualisée de l'Univers, l'un des caractères latins les plus utilisés au monde.

Le design d’information a comme objectif de mettre l’accent sur la notion de lisibilité/visibilité. C’est par la mise en page des éléments et ensuite par les formes typographiques que le lecteur est confronté en premier à la lecture d’un objet éditorial. L’objet de la typographie consiste donc en premier lieu à construire les structures visuelles d’un message, en fonction de sa lecture. Nous sommes de plus en plus confrontés à du contenu visuel, que cela soit publicitaire, ou de l’ordre du divertissement. Tous ces contenus nécessitent une mise en concurrence des uns envers les autres, bien que, notre cerveau arrive à faire le tri entre une information plus importante qu’une autre. Le graphiste joue avec les paramètres hiérarchiques pour induire le chemin d’observation à suivre. Le design d’information se retrouve aussi dans ce qu’on nomme une infographie, comme son nom l’indique c’est une information lisible sous forme graphique. Très utile dans le monde journalistique pour permettre de synthétiser un contexte, à travers différentes données. Aujourd’hui avec la masse des données récoltées, de nouveaux champs journalistiques apparaissent comme le journalisme de données (data-journalism). Actuellement en raison du nombre vertigineux de données, il est devenu nécessaire d’avoir une réflexion autour du classement et l’archivage de ces données, la mise en graphe des donnéesFinancial Viewpoints : représentations multiples de données financières et les hypergraphes permettant une lecture de ces informations dans un contexte précis.


Financial Viewpoints : représentations multiples de données financières

1.2 Évolution des technologies de l’information en relation avec l’imprimé

L'évolution des technologies de l'information ne peut se penser sans porter un regard sur l'importance des mathématiques au XVIIe siècle.

A/ Du télégraphe au terminal de paiement électronique (TPE)

Bien avant l’invention de l’imprimé ou de la communication par des systèmes électriques, il existait des moyens de communications optiques comme avec des signaux de fuméesPeinture de Frederic Remington, The Smoke Signal, 190. Ils étaient utilisés sur des longues distances principalement en Amérique ou en Chine.
On peut aussi voir l'utilisation de la lumière par les phares comme une première relation signal & information.


Peinture de Frederic Remington, The Smoke Signal, 1905 Huile sur toile
77,47 x 122,555cm
Amon Carter Musuem, Fort Worth (texas), photographie : domaine public

À la fin du XVe siècle, la reproduction de la matière écrite passe progressivement de la table du copiste à l’atelier typographique : cette mutation a révolutionné toutes les formes de savoir.

Après Gutenberg, toute la culture de l’Occident se trouve transformée par la possibilité de reproduire l’écrit plus viten moins cher. De là, un changement d’échelle dans la circulation des textes, présents dans l’intimité comme la place publique, maniés pour la foi ou le plaisir, le savoir ou le pouvoir. De là, également, des pratiques inédites des habitudes neuves qui constituent une véritable culture de l’imprimé 5.

5
Résumé, Les usages de l'imprimé ,XVe-XIXe siècle / [Alain Boureau, Roger Chartier, Marie-Élisabeth Ducreux, Christian Jouhaud,... et al.] ; sous la dir. de Roger Chartier, Paris, Fayard, 1987

Cette accélération de la circulation du savoir a permis l'émergence de nouveaux moyens de communication encore plus efficaces que l'imprimé comme le télégraphe. Il a permis de mettre en réseaux des populations au-delà des frontières géopolitiques et a contribué à garantir une démocratisation des échanges et réduire l’espace et le temps entre les villes.

En août 1794 l’inauguration par le ministère de la guerre de la première ligne de télégraphe optique (Paris-Lille).

Cette nouvelle manière de communiquer a aussi une importance économique, les échanges entre les pôles boursiers devenant plus souples et plus rapides. Les frères Chappe avaient auparavant conçu un système optique et un code alphanumériqueTour sémaphore & code alphanumérique pour envoyer des informations via les tours et leur sémaphore.


Tour sémaphore & code alphanumérique

Un message était constitué de plusieurs symboles, traduits par des formes prises par une structure mobile. Pour utiliser le télégraphe, il faut être capable de savoir lire et écrire les signaux qui sont transmis, connaître les « grilles de signaux de correspondance » des différents types de télégraphes pour retranscrire le contenu du message. Ce qui nécessite d’avoir plusieurs ouvrages dédiés à la traduction des signaux en des motsExemples d'ouvrages de correspondance télégraphique, éditions F-J. Sittler, 23ème éditions. Ceci est une des premières relations machine et imprimé qui permet d’envoyer et recevoir une information.


Exemples d'ouvrages de correspondance télégraphique, éditions F-J. Sittler, 23ème éditions

Après la démocratisation du télégraphe, la plupart des entreprises liées aux TIC ont investi dans la recherche en électronique. Le premier essai du télécopieur (fax) est réalisé en 1842 par L'inventeur écossais Alexander Bain. Il dépose la demande de brevet le 27 mai 1843 pour la transmission de documents écrits utilisant le réseau télégraphique. En 1876 Bell invente le téléphone, en 1893 la première transmission radiophonique est faite par Tesla, puis à l'entrée de la télévision dans les foyeurs au débuts des années 1960.

les premiers téléphones portables voient le jour entre 1973 et 1985. (Pour téléphoner, il suffit de composer le numéro de la personne à contacter).
Ces objets de diffusion d’information commercialisés ne demandent pas de connaissance dans la retranscription du signal, les interfaces de chaque objet proposent des fonctions simples.

Il nous a fallu un demi-siècle pour adopter le téléphone.
quand huit ans environ ont suffit pour le téléphones portables. De même, la Télévision et la radio ont été adoptés en quelques décennies seulement. Les technologies récentes comme le PC, le Web, les téléphones portables en moins d’une décennie. Les TIC doublent leurs performances et profitent des réductions du coût des technologies numériques chaque année. Les premiers ordinateurs prenaient l’espace d’une salle entière aujourd’hui, nos ordinateurs tiennent dans nos poches, sont beaucoup plus puissants et contiennent encore plus d’espace de stockage.

B/ Évolution de l’édition alternative
Alessandro Ludovico, Post-Digital Print, La mutation de l’édition depuis 1894, Paris, B42, 2016

En parallèle de l’évolution de ces TIC, l’édition a elle aussi évolué.
Le livre d’Alessandro Ludovico, Post-Digital Print, La mutation de l’édition depuis 1894 , explore les évolutions des techniques d’impression en mettant en avant différentes initiatives de publication qu’elles soient collaboratives ou non, faites par des activistes ou des artistes. Du miméographe à la photocopieuse de bureau en passant par l’hybridation avec d’autres médiums comme le CD-ROM ou Internet. Des mouvements avant-gardistes comme les fanzine punks ou encore les expériences éditoriales du groupe Fluxus ont su s’approprier les technologies de reproduction, et ainsi expérimenter de nouvelles formes graphiques inédites.
L’édition alternative a été un laboratoire de recherche de l’impression allant jusqu’au multimédia.

En 1876, Thomas Alva Edison invente la machine miméographiqueL'impression autobiographique, précurseur du miméographe inventé par T. Edison, 1876, ou duplicateur pochoir, et pose les bases de l’édition alternative. Dans les années 1930, « les syndicalistes radicaux de l’Industrial Workers of the World (IWW) adoptèrent le duplicateur à pochoir le déclarant outil d’impression officiel des IWW. »[... ] « Dans l’idée de remplacer les ouvriers par une machine peu coûteuse et légère ». Au-delà des ambitions artistiques, Trotsky, comme d'autres activistes politiques imprima son « zine » politique, le bulletin Oppositzii de cette manière. Pour eux, ce médium était parfait pour défendre la liberté d’expression et des idées, en particulier à l'approche des bouleversements politiques de la Seconde Guerre mondiale. Grâce au miméographe, créer des productions imprimées hors des circuits d’impression traditionnels était devenu possible. En URSS, ce moyen était utilisé pour imprimer, distribuer et partager de façon clandestine du contenu littéraire ou autres. Ce genre d’édition fut baptisée « samizdat » (contraction du terme russe pour « autoédition »).


L'impression autobiographique, précurseur du miméographe inventé par T. Edison, 1876

Timbre postal Fluxus

Au début des années 1960 George Maciunas fonde le mouvement artistique FLUXUS qui sera un des premiers mouvements où les artistes travailleront en réseau sur le globe, au moyen de boîtes remplies de différent objet et d’éléments imprimés. En avril 1968 les artistes FLUXUS Robert Filliou et George Brecht présentent leur idée à travers une affiche envoyée à plusieurs correspondantsGeorges Maciunas, Boîte 2 de l'année flux(us). Ce qui fut précurseur du réseau du Mail Art. Ce mouvement artistique fut le premier à formuler le concept de réseau de pratiques qui transformerait les méthodes de travail de nombreux artistes : un réseau artistique actif et mondial au sein duquel chaque artiste membre prend conscience de son appartenance à un réseau plus grand. (Welch, Eternal Network : A Mail Art Anthology)


Georges Maciunas Boîte 2 de l'année Flux(us)
1966
Bois, cartes imprimées, plastique, films, boîtes
8,6 x 20,3 x 21,4 cm
(Collaborateur : Ed. Fluxus)
Inscriptions :
T.imprimé sur le couvercle : FLUX/YEAR/BOX 2
S.Par. : A-Yo/Akasegawa/Brown/De Maria/Kubota/Kosugi/
Bob Morris/Ben Patterson/Yoko Ono

Dans le milieu des années 1960, la presse underground a transformé une fois encore le domaine de l’impression alternative en donnant naissance à d’innombrables revues. Le Greenwich Village Voice fut sans doute le premier signe fort de ce qui s’annonçait. « Fondé en 1955, ce magazine se posa dès le début en violente opposition avec le New Yorker et sa culture  bourgeoise  étalée sur papier glacé. »

p. 45 Alessandro Ludovico, Post-Digital Print, La mutation de l’édition depuis 1894, Paris, B42, 2016

Dans les années 1960, la XérographieXerox model A ou photocopie commercialisée par Xerox, était principalement utilisée dans les bureauxPhotocopieur Xerox 9700 et apparaît dans les foyers en 1970. Le mouvement punk s’était accaparé ce nouveau médium, « publier un fanzine ou un flyer, n’avait jamais été aussi simple. Ce processus d’impression donna naissance au mouvement du Copy Art ». L’une des plus célèbres publications de ce type fut le New York Correspondance School Weekly Breeder, ce zine fut distribué à divers participants du Mail Art et confirmer une nouvelle fois le rôle clé du concept de « réseau », dans un esprit résumé par la formule : « tout le monde peut être son propre éditeur ».

p. 47 Alessandro Ludovico, Post-Digital Print, La mutation de l’édition depuis 1894, Paris, B42, 2016
Xerox model A
Photocopieur Xerox 9700

Whole earth catalogue

Le Whole Earth CatalogWhole earth catalogue, dirigé par Stewart Brand et publié de façon régulière entre 1968 et 1972, se donna pour mission de promouvoir l’ accès aux outils. À partir de la fin des années 1980, l’explosion de la technologie numérique a été l’événement décisif de la révolution de l’impression, n’importe qui pouvait faire l'acquisition d’un logiciel de Publication Assistée par Ordinateur (PAO).

Un des premiers périodiques à utiliser la technologie informatique de stockage de données fut la revue littéraire new-yorkaise Between C & D, dirigée par Joel Rose et Catherine Texier, publiée à un rythme trimestriel entre 1983 et 1990. Les anciens numéros étaient diffusés sur disquette.
Suite à la démocratisation des technologies numériques, l’ambition d’hybrider différents médias afin de proposer du contenu différent a défini l’utilisation du CD-ROM comme support de stockage pour l’image vidéo ou autres. En 1998, la revue expérimentale Blam! fut éditée sur CD-ROM. En 1992, l’auteur William Gibson publia son récit Agrippa, une des premières relations papier/pixel, dans lequel il expérimenta la relation du support avec le lecteur lui-même,
un seul contenu sur deux supports différents, n’offrant pas la même lecture.

Un coffret ouvragé accompagné d’une disquette de 3,5 pouces renfermant l’intégralité du texte. Le logiciel était conçu pour que l’utilisateur tourne les pages sur l’écran en cliquant avec une souris d’ordinateur. Mais une fois tournées, les pages étaient immédiatement effacées de la disquette. Quant à l’édition papier, elle était traitée avec un produit chimique photosensible, si bien que les mots et les images s’effaçaient progressivement lorsque le livre était exposé à la lumière. Une fois le livre lu en entier, celui-ci avait donc disparu pour toujours 6.

6
Alessandro Ludovico, Post-Digital Print, La mutation de l’édition depuis 1894 ,B42, p. 55

À l’approche de l’année 2000, le spectre médiatique traverse une nouvelle fois une reconfiguration avec l'avènement des technologies des réseaux « déjà en 1995, alors que l’Internet mondial s’apprêtait à décoller, John Markoff écrivait dans le New York Time : Quiconque possède un modem peut devenir un auteur de pamphlet lu dans le monde entier ». À l’instar de la démocratisation d’Internet dans nos foyers, la production d’artefacts numériques s'est dévelopé avec les nouveaux moyens de production. Les services de prépresse se sont transformés en services d’impression numérique. Les imprimantes numériques ont remplacé l’impression offset pour les petits tirages, ( la première imprimante laser disponible dans le commerce fut présentée en 1977, la Xerox 9700 ). La production d’ouvrages s’est développée et a permis la numérisation du monde. L’impression à la demande modifie aujourd'hui les règles fondamentales de l’édition.

C/ Chronologie

Cette liste chronologique de 0000 à 2000 énumère de manière non-exhaustive, l'évolution des machines, des langages codés et des théories en lien avec les technologies liés à l'informatique


0000 Abacus
1200 Art magna Lulle
1642 Machine à calculer Blaise Pascal
1672 Art combinatoire Leibniz
1686 Machine algorithmique Leibniz
1801 Métier à tisser Jacquard
1834 Calculator C. Babbage
1843 Machine Universelle A. Lovelace
1887 Carte perforée H. Hollerith
1920 Calcul électronique L. Torres y Quevedo
1931 Théorie de Godël Godël
1936 Machine Universelle A. Turing
1937 Berry Computer Atanasoff
1940 Ordinateur Colossus T. Flowers
et son équipe
1942 K. Zuse programmation 2D K. Zuse
1942-1946 Ordinateur ENIAC
Electronic Numerical Integrator And Computer
J. Eckert & J. William Mauchly
1947 Ordinateur EDVAC J. Von Neumann
Electronic Discrete Variable Automatic Computer
1948 Méthode Monte Carlo N. Metropolis
1949 Short Code J. Mauchly
1952 Autocode A. Glennies
1953 A-O system G. Hopper
1954 Fortran J. Backus
1959 Ordinbateur IBM 1620 IBM
1962 Iverson APL
1969 Unix K. Thompson & Bells Labs
1970 Game of life J. Conway's
1975 Altair 8800 B. Gates & P. Allen
1976 Apple-1 S. Jobs & S. Wozniak
1979 C ++ B. Stroustrup
1988 Mathematica S. Wolfram
1992 Web - URL, HTTP, HTML T. Berners-Lee
2000 programme génératifs

1.3 Chiffrer le monde

Les instruments de statistiques s’introduisent dans les politiques publiques. Ils ont pour objectifs de chiffrer l’ensemble des facteurs, des flux. Par le recensement produit par ces statistiques, nous pouvons analyser l’ensemble des comportements.

Les palmarès d’écoles, d’hôpitaux ou de régions où il fait bon vivre font la une des magazines.(...) « L’objectif de ces indicateurs est moins de connaître le réel que de «conduire les conduites » des individus pour qu’ils le transforment 7.

7
Cardon Dominique, À quoi rêvent les algorithmes, Nos vies à l'heure des big data, Éditions du Seuil et La République des Idées, Paris, 2015, p. 09
© Maxppp / Liu Tao

Actuellement en Chine, plus de 170 millions de caméras équipées d'une technologie de reconnaissance faciale© Maxppp / Liu Tao scrutent déjà les visages. Un véritable moyen de notation est mis en place pour contrôler les comportements des Chinois, la note varie en fonctions des mauvaises ou bonnes actions faites, certains citoyens sont alors privés de liberté (voyage, musée).

Black Mirror est une série télévisée, les épisodes sont liés par le thème commun de la mise en œuvre d'une technologie numérique dystopique. L'épisode Nosedive, nous rappelle l'invasion des réseaux sociaux et nous permet de prendre conscience du danger et de leurs omniprésences. Dans cet épisode, les citoyens se donnent des notes entre eux en fonction de leurs comportements.l'application utilisé par le personnage principal

A/ Big-data, la matière première

L’idée d’une société régie par l’information est pour ainsi dire inscrite dans le code génétique du projet de société inspiré par la mystique du nombre. Elle date donc de bien avant l’entrée de la notion d’information dans la langue et la culture de la modernité.
La Révolution française en fait l’aune de l’égalité citoyenne et des valeurs de l’universalisme.

Aujourd’hui, une nouvelle vague d’extension de la calculabilité est en marche. Son ampleur est inédite et ses conséquences, bien qu’encore difficiles à évaluer, sont considérables. Sur la logique des indicateurs chiffrés se greffe désormais celle du calcul algorithmique intégré au sein des interfaces numériques. Un nombre croissant de domaines : la culture, le savoir et l’information, mais aussi la santé, la ville, les transports, le travail, la finance, l’amour et même le sexe sont désormais outillés par des algorithmes. Ils organisent et structurent les informations, aident à prendre des décisions ou automatisent des processus que nous avions l’habitude de contrôler nous-mêmes.

Chaque jour, 3,3 milliards de requêtes sont effectuées sur les 30 000 milliards de pages indexées par Google ; plus de 350 millions de photos et 4,5 milliards de likes sont distribués sur Facebook ; 144 milliards d’e-mails sont échangés par 3 milliards d’internautes. Si l’on numérisait toutes les communications et les écrits depuis l’aube de l’humanité jusqu’en 2003, il faudrait 5 milliards de gigabits pour les mettre en mémoire. Aujourd’hui, nous générons ce volume d’informations numériques en deux jours 8 !

8
Ibid., p. 11

Comme les grandes révolutions industrielles, toutes ont été la recherche d’une exploitation d’un nouveau type d’énergie ou de territoire. Cette nouvelle matière, les données numériques, constitue, pour les promoteurs des big data, un gisement capable de relancer l’innovation, la productivité et la croissance. En relation avec les institutions gouvernementales et les entreprises, ils invitent à conduire des politiques d’ouverture des données (Open data), les médias à pratiquer le « journalisme de données» (data-journalism).

À partir de données toujours plus inattendues (déplacements, tickets de caisse, clics sur Internet, consommation électronique, temps de lecture d’un livre sur les tablettes électroniques, nombre de pas enregistrés par un podomètre), les algorithmes chiffrent le monde, le classent et prédisent notre avenir 9.

9
Ibid., p .25
B/ Business target & sérendipité

Une nouvelle méthode statistique pour spécifier la nature de l’information est mise en place par Google lors de son arrivée à la table ronde des géants d’Internet. Le PageRank, un algorithme (qui a fait la fortune de Google) permet d’ordonner les informations en considérant qu’un site qui reçoit d’un autre un lien reçoit en même temps un témoignage de reconnaissance. Les sites sont classés de manière méritocratique. Ceux qui sont mis en avant sont ceux ayant reçu le plus de liens hypertextes venant des autres sites. Le terme de Business Target définit que l’usager est la cible qui le pousse à consommer d'avantage.
Le cas des compagnies aériennes est très connu, les algorithmes font la différence entre un usager qui doit impérativement prendre un billet d’avion et un autre qui cherche un billet pour les mois à venir. On peut aussi retrouver des schémas similaires de Business Target quand on visite un site d’achat ou de musique : par la suite Google, YouTube ou Amazon vont continuellement nous proposer des produits similaires à la recherche que l'on vient de faire, sous différentes formes, bannière ou encart publicitaire, ou nouvelles fenêtres. Aujourd’hui, Facebook et Instagram enregistrent nos discussions, sans même qu’on soit en train d’utiliser ces applications, comme l’expérience faites par un usager dans l’article « Votre téléphone vous écoute, ce n’est pas de la paranoïa » de vice.com :

« j’ai décidé de faire une petite expérience. Deux fois par jour pendant cinq jours, j’ai essayé de prononcer des phrases qui pouvaient théoriquement être des déclencheurs. Des phrases comme « J’envisage de retourner à l’université » ou « J’ai besoin de chemises pas chères pour le travail ». Ensuite, j’ai porté une attention toute particulière aux publications sponsorisées sur Facebook pour tenter de repérer un quelconque changement. Et des changements, il y en a eu, littéralement du jour au lendemain. Tout à coup, on me proposait des cours dans diverses universités et des marques de vêtements abordables. Après une conversation privée avec un ami à propos de mon manque d’espace de stockage, j’ai aussi vu des publicités de 20 Go d’espace de stockage en ligne. Même si chaque fois c’étaient des offres intéressantes, le résultat de mon expérience a surtout été révélateur et terrifiant. »

Ce qu’il faut comprendre c’est que Facebook/Instagram ne font en principe rien d’illégal car, chaque utilisateur est d’accord avec les « conditions d’utilisations ». Cet article met en avant plusieurs coïncidences entre une discussion dans la vie privée et un contenu publicitaire. Le Page Rank et le Business Target2 Se réapproprier la toile

B/ GAFAM & NATU
gèrent nos désirs, nos recherches, nos goûts. Plus les algorithmes sont poussés, plus nos données sont récoltées, plus nous sommes aveuglés par ces chiffres invisibles. Au début du Web, nous étions plus libres de naviguer sur Internet, cette richesse se perd. La notion de sérendipité venant du monde scientifique se perd également.

La sérendipité est un néologisme qui provient du mot anglais serendipity, en référence au conte initiatique persan, Les trois princes de Serendip (1557). Désignant la faculté de faire des découvertes inattendues par hasard, ce terme revêt de multiples interprétations, il est employé pour les recherches faites sur le Web. Nous cliquons et petit à petit nous nous faisons notre propre chemin tout en nous éloignant de notre recherche initiale ; cet éloignement est intéressant, car nous découvrons quelque chose que nous n’aurions pas pu connaître autrement.

C/ Machine & interfaces dans nos foyers

On peut constater l’évolution de la domotique à l’intérieur de nos foyers, en tout cas ce fut l’ambition des entreprises d’investir dans ce domaine. Les premières applications de domotique sont apparues au début des années 1980. Elles sont nées de la miniaturisation des systèmes électroniques et informatiques.
Le secteur de la domotique s’est véritablement démocratisé dans les années 2000, sûrement avec la démocratisation des ordinateurs et du Web dans les foyers. Une évolution possible de la domotique dans nos foyers pourrait être une réponse au vieillissement de la population qui nécessite d’avoir plus d’assistance.
Il y a un cas de recherche en domotique qui me semble légitime en lien avec la population vieillissante, ce sont les travaux de recherche du GIS M.A.D.O.N.N.A.H [Maintien et Assistance Diurne Ou Nocturne pour personnes âgées et/ou Handicapées] qui ont conçu un appartement-témoin dans l’EPHAD Bellevue à Bourges. Cet appartement est doté d’équipements domotiques de réseaux capteurs et de biomédicaux. Les données recueillies par ces divers capteurs entrent dans un système communicant permettant, d’une part, la détection du type de défaillance ainsi que la situation du patient et, d’autre part, le déclenchement de l’alerte rapide du personnel soignant ou, du médecin ou du télécentre.
Aujourd’hui, nous sommes entourés de produits, objets électroniques qui nous permettent d’avoir plus de confort, de sécurité et de convivialité dans la gestion des habitations. Dans le spectre de la consommation de masse, Amazon ou Google proposent des objets connectés, ces objets sont là dans le but de mieux connaître les usagers et de prédire quels seront leurs prochains achats. Ces données récoltées via ces objets connectés sont camouflées par des signaux numériques (listes, boutons compteurs recommandations, fils d’actualité, publicités personnalisées, trajets GPS, etc.)

2 Se réapproprier la toile

Alternatives face à la centralisation d’internet

À l’origine, le Web a été conçu pour démocratiser la publication d’informations. Aujourd’hui, l’utopie d’un disque dur géant à la disposition de toutes et tous, en lecture et écriture, a laissé la place à une autre réalité : des entreprises privées laissent à notre disposition des fermes de serveurs qui nous permettent de communiquer, en échange de nos données personnelles.
L’avènement des réseaux, à permis à une grande partie de la population mondiale de donner son opinion, apporter des connaissances sur un sujet partagé par des personnes situé à différents endroit du globe et ceci par des interfaces conçues par des entreprises qui mettent en place des interfaces opaque permettant d’échanger de manière gratuite au prix de nos données personnelles.

2.1 Web : utopie du disque dur géant

Le développement des réseaux informatiques se développa lors de nombreuses étapes successives, il a permis aux utilisateurs de différents ordinateurs de communiquer. La somme de tous ces développements conduisit au « réseau des réseaux » que nous connaissons aujourd’hui en tant qu’Internet. Il est le résultat du développement technologique et du regroupement d’infrastructures réseau existantes et de systèmes de télécommunications.

Le 12 mars 1989, l’informaticien britannique Tim Berners-Lee dépose sur le bureau de son chef de service, Mike Sendall, un topo de quelques pages intitulé « Gestion de l’information : une proposition » Documents de Tim Berners-Lee, « Information Management : A Proposal » . Il y décrit sommairement les moyens de consulter directement l’énorme base de données du CERN, le laboratoire de physique nucléaire européen, stockée sur plusieurs ordinateurs, en allant chercher à son gré, grâce à des liens hypertextes, toute l’information disponible 10.

10
Joignot Frédéric, Les 30 ans du Web : de l’utopie à un capitalisme de surveillance, Le monde, 2019

La même année Tim Berners-lee met en place le protocole « http » pour atteindre et lier les documents numérique. Il conçoit l’ « URL » l’adresse unique qui permet d’identifier une adresse Web, le langage mis en place est le « HTML » qui permet de créer de nouvelles pages. Afin de permettre la circulation entre les pages , il crée le premier serveur Web sur le réseau intranet du CERN, présenté sur outil « navigateur » qui nomme« worldwideweb » grâce à ce nouveau outils de communication interne, les chercheurs du CERN s’en emparent rapidement. Depuis la démocratisation de ce réseaux, l’humanité est entrée dans « l’âge de l’information et de la connexion instantanée », construisant l’infini « toile » mondiale. Il est convaincu que la qualité du worldwideweb est de libérer un vieux rêve de l’humanité, rassembler toute la connaissance connue dans un espace que tous puissent explorer.

Ce rêve remonte « à la bibliothèque d’Alexandrie (fondée par Ptolémée en 288 av. J.-C.) et passe par l’imprimerie de Johannes Gutenberg (1400-1468) » ou encore « La libraire de Babel » la nouvelle écrite par Jorge luis Borges. Jerry Yang et David Filo, deux étudiants de Stanford, mettent en place un annuaire des sites baptisé « Jerry and David’s Guide to the World Wide Web ». En 1995, il deviendra Yahoo! Le premier portail d’indexation des pages « URL ». Considérant que le worldwideweb est une « vague mondiale de créativité, de collaboration et d’innovation sans précédent 11 ».

11
ibid.

Documents de Tim Berners-Lee, « Information Management : A Proposal »

En 1990, sur cette machine NeXT, Tim Berners-Lee developpa le premier serveur WWW, le navigateur multimédia et l’éditeur web. © 1990-2019 CERN

Novembre 1990, fonctionnel à l’adresse nxoc01.cern.ch et héberge la première page Web, TheProject.



A/ La toile mondiale

Tim Berners-Lee quitte le CERN en 1994 et fonde en collaboration avec le Laboratory for Computer Science du Massachusetts Institute of Technology (MIT), le World Wide Web Consortium (W3C). C’est un organisme à but non lucratif qui réunit ceux qui élaborent le développement de standards ouverts et gratuits et partagées avec les entreprises informatiques pour garantir « la croissance à long terme » du Web mondial tissé. Tim Berners-Lee met en avant de nouvelles idées innovante « Décentralisation : il n’y a pas de poste de contrôle central du Web. » Universalité : pour que quiconque puisse publier sur le Web, tous les ordinateurs doivent parler les mêmes langues. Transparence : le code, comme les normes, ne sont pas écrits par un groupe d’experts, mais développés et enrichis au vu de tous, jusqu’à atteindre un consensus. Son leitmotiv : « Un seul Web partout et pour tous ». Ses principes : accessibilité, développement gratuit, acceptation d’un code d’éthique et de déontologie – « respect, professionnalisme, équité et sensibilité à l’égard de nos nombreuses forces et différences, y compris dans les situations de haute pression et d’urgence ».


Intérieur du data center de Google dans le comté de Douglas en Géorgie (Etats-Unis), grand comme un terrain de football. Des diodes sur chaque serveur indiquent que tout va bien. © Google

Ce qu’on appelle le Web 2.0 c’est ce nouvel espace numérique en expansion, après s’être démocratisé dans nos foyers, s’installe un « cyber espace » créatif, interactif, composé de plusieurs milliards de pages où « surfer », se connectent, s’expriment et se socialisent l’ensemble des internautes. Trente ans après les expérimentations faites au CERN, que reste-t-il des idées rêvées par Tim Berners-Lee ?

Aujourd'hui, Tim Berners-Lee déplore que les entreprises numériques collaborent avec les gouvernements dans des opérations de surveillance, si bien que « chacun de nos mouvements en ligne peut être observé » – et que, déjà, les « régimes répressifs » en abusent. Il s’inquiète que « la désinformation se répande sur le Web comme une traînée de poudre » et dénonce le micro ciblage de masse du marketing politique en ligne, qu’il juge « contraire à l’éthique ». Tim Berners-Lee déchante, sa créature lui a échappé. Il ne s’y résout pas.


Evan Roth

Evan Roth à fait le tour du monde pour observer l'Internet matériel. Par l'usage de capteur infrarouge, il a photographié l'entrée dans les mers des câbles sous-marins qui nous permet d'avoir Internet. Le filtre rouge apposé sur les tirages rappelle qu’Evan Roth a enregistré des vidéos de chacun des sites grâce à des techniques précises. Usant de détecteurs de champ électromagnétique et de caméras thermiques, il a ainsi capté les bruits produits par l’émission des réseaux Internet, inaudibles en temps normal par l’oreille humaine

B/ GAFAM & NATU

GAFA(M)   NATU prennent de plus en plus de place dans nos vies d’internautes. Ces acronymes désignent la grosse quinzaines d’entreprises au capital énorme qui règnent sur le numérique. Utilisé dans les années 2000, l'acronyme GAFA évoque Google, Apple, Facebook et Amazon. L'acronyme NATU apparu à l'aube des années 2010 désigne les sociétés et start-up plus récentes que sont Netflix, Airbnb, Tesla et Uber. À eux seuls, ils génèrent un trafic colossal sur la Toile et regroupent des milliards d'utilisateurs plus ou moins actifs. La démocratisation des smartphones permet un développement sans précédent de l’ensemble des services proposé par ces géants du Web.
Ces acteurs n'ont toutefois pas le même rôle même s'ils ont le rêve commun d’un monde centralisé. En 1996 la librairie en ligne Amazon éclôt dans un garage de Seattle, Windows annexe la majorité des ordinateurs personnels, Internet Explorer devient le navigateur dominant du World Wide Web, bientôt concurrencé par Google. Ainsi, quelques années plus tard, Amazon devient la plus importante entreprise de commerce en ligne tandis que Google s'illustre comme la société qui détient le monopole de la recherche sur le Web. De leur côté, Facebook atteint plus de deux milliards d'inscrits et Twitter plus de 300 millions d'utilisateurs mensuels.
Les Natu proposent des services payant tout en collectant aussi les données des utilisateurs. Netflix mise sur l'offre de films et de séries télévisée en flux continu moyennant un abonnement, Airbnb sur la location de logements de particuliers et Uber sur le service de transport. Elles ont amplifié le phénomène « d’ubérisation » : elles proposent un "nouveau" modèle économique grâce au digital, qui peut potentiellement remettre en cause l'économie dite « traditionnelle », malgré le nouveau conditionnement de mode de vie que ces entreprises ont cré.

Ce ne serait pas la première fois qu’une extraordinaire technologie, de masse, assouvissant un grand rêve humain, se retourne contre la société qui l’a adorée. Voyez la voiture individuelle, le cœur de notre fameuse « civilisation de l’automobile ». Le penseur écologiste Ivan Illich (1926-2002) la décrit comme une industrie finalement « contre-productive ». Son « monopole radical », qui a façonné l’urbanisme mondial, l’économie, les dépenses énergétiques, a fini par devenir nocif pour la planète. D’instrument de libération, elle est devenue objet d’aliénation et de pollution.Le Web suit-il le même processus 12 ?

12
Joignot Frédéric, Les 30 ans du Web : de l’utopie à un capitalisme de surveillance, Le monde, 2019

Qu’en pense Tim Berners-Lee, qui s’est dit « dévasté » par l’affaire Cambridge Analytica, quand Facebook a transmis les données personnelles de 80 millions d’« amis » à une société d’analyse alors mandatée par le futur président américain Donald Trump ? nos données personnelles sont désormais « conservées dans des silos propriétaires, loin de nous » et « nous n’avons plus de contrôle direct sur elles ». Nos données personnelles qui sont désormais stockés dans des silos propriétaires fermés, loin de nous posent problème. L'affaire Cambridge Analytica, une société d’analyse alors mandatée par le futur président américain Donald Trump a permis de transmettre les données personelles de 80 millions d'internautes afin de conduire le vote en sa faveur. Des services différents, mais un objectif commun, s’approprier le plus possible l'intimité des internautes, mesurer le plus possible leurs comportements pour les prévoir ou les conduire. Peu importe si cela impacte de manière négative l’environnement ou l’utilisateur.


Drulhe Louise,The Critical Atlas of the Internet, 2015

C/ À la conquête du mesurable

Les catégories que produisent aujourd’hui les big data n’ont pas pour objectifs d’être partagées avec les individus pour construire des catégories d’identifications offrant à la société un tableau d’ensemble. Elles découpent une interminable mosaïque de cibles pour préciser le tir des campagnes de marketing. Il n’est pas nécessaire que ceux qui sont identifiés dans la niche le sachent. Comme le rappelle Dominique Cardon dans son ouvrage À quoi rêvent les algorithmes dans le chapitre L’ «idiotie » des algorithmes

« Le service de vidéo de Netflix a ainsi créé près de 77 000 microgenres pour classer les goûts de ses utilisateurs dans une suite de cases à la précision surréaliste : « Drames sentimentaux européens des années 1970 avec paysages et couchers de soleil », « Comédie post-apocalyptique portant sur l’amitié », « Thrillers violents au sujet des chats pour les 8-10 ans » etc 13.

13
Cardon Dominique,À quoi rêvent les algorithmes, Nos vies à l'heure des big data, Éditions du Seuil et La République des Idées, Paris, 2015, p .87

Il faut comprendre que l’implication de ces entreprises dans nos vies privées est seulement à but lucratif sous couvert d’améliorer les services, et de mieux connaître leurs clients. Cette conquête du mesurable se répand aussi sur ce qui structure notre société, les palmarès économiques donnés pour les quartiers, les villes, ou les pays comme la note AAA pour L’Allemagne ou une note inférieure pour la Grèce due à son endettement. Un quartier défavorisé ayant une note inférieure fait augmenter le prix des assurances car, c’est un quartier à risque. L’ensemble des données manipulées par des algorithmes qui sont invisibles et pas forcément compréhensibles par l’ensemble des utilisateurs entraîne une homogénéité des conditions de vie et des modes de vie. Où est la place du créateur dans un monde organisé par la « quantification de soi » ?

Il peut dénoncer cette quantification, la présenter, mais aussi surfer dessus afin d’être mis en avant, recommandé par les algorithmes et être lourdement médiatisé, si nous regardons les grandes lignes de l’art contemporain actuel, plus un artiste fait le buzz plus il sera célèbre, il ne sera pas connu pour la qualité ou la reflexion qu'il produit mais parce qu'il fait le buzz. Il suffit de voir le scandale provoqué à la foire annuel Art Basel de Miami en 2019, par la banane scotchée puis mangée par un visiteur d’Art Basel à Miami de l'artiste Maurizio Catalan vendue 120 000$ par la galerie Perrotin. Bien que je m’éloigne de mon sujet initial qui porte sur l’émancipation des systèmes de publication à l’heure d’Instagram et du monopole d’Internet par les GAFAM & NATU, nous pouvons voir comment il est important d’avoir un regard sur le mécanisme de cette mise en réseaux briée par le computationnel de masse.

D/ Espaces de stockage

carte perforée,
H.Hollerith

_ 1890 : la carte perforée, une mémoire à 80 trous Herman Hollerith, employé au United States Census Bureau, dépose le brevet d’une machine pour lire les trous de ces cartes et les transformer en données exploitables, puis l’utilisa pour le recensement, qu’il traita en un an, contre dix précédemment. Herman Hollerith, lança sa propre société (IBM) et inventa la mécanographie, ancêtre de l’informatique.


Bande magnétique

_ 1928 : 50 octets par centimètre de bande magnétique La bande magnétique est l’une des plus anciennes méthodes de stockage et elle continue à être utilisée. Mise au point en 1928, la bande magnétique fut rapidement miniaturisée et enroulée avant d’être intégrée dans des boîtiers : les cassettes, audio ou vidéo. Il continue pourtant de servir, grâce à son exceptionnelle résistance, environ trente ans de durée de vie.

IBM RAMAC 305

_1956 : Le Disque Dur Les disques durs proposaient des capacités de stockage de 20 à 50 Mo dans les premiers PC grand public, contre 500 Go aujourd'hui. Les disques durs se sont massivement implantés dans les premiers ordinateurs grand public en raison de leur capacité de stockage importante, de la durée de vie du média, de son faible coût et des multiples réécritures possibles. L’IBM RAMAC 305 (RAMAC pour Ramdom Access Method of Accounting and Control, en anglais) est le premier ordinateur à disque dur (l’IBM 350) commercialisé en septembre 1956 par IBM.


Disquette souple

_ 1971 : Disquette souple de la taille d'une pizza Alors que les entreprises s'équipent d’ordinateurs individuels, il leur fallait trouver le moyen d’ajouter de nouveaux logiciels. IBM reprit alors le principe de la bande magnétique qu’il transforma en disque plat.


Disquette rigide

_ 1982 : une disquette rigide de la taille d'une poche de chemise En 1984, Apple décide d’équiper ses ordinateurs Macintosh avec un lecteur de disquettes 3.5, inventées par Sony. Rapidement, ce format s’impose. Plus solide grâce à son conditionnement rigide et avec un volet en métal pour protéger la partie magnétique. Avec une capacité initiale de 720 ko, la disquette passe rapidement à 1,44 Mo.



CD-Rom

_ 1984 : 80 minutes de musique sur les premiers CD-Rom Si le CD audio a tué le vinyle en dix ans à peine, le CD-R fera de même avec la disquette. Dans les années 2000, les lecteurs CD-R sont remplacés par des lecteurs-graveurs, et le grand public peut alors archiver le contenu de son ordinateur.


Carte SD

_ 2000 : plus de 100 DVD sur les cartes les plus récentes A la fin des années 1990, téléphones, appareils photo, caméscopes, consoles de jeux ou lecteurs MP3 ont besoin d’espaces de stockage fiables et de petite taille. Les cartes mémoire Flash (basées sur la technologie imaginée par Toshiba, qui permet d’enregistrer sans support magnétique) deviennent vite incontournables.


clé USB

_ 2000 : Deux ans de musique sur une clé USB Utilisant la technologie Flash, IBM invente un outil qui tient dans la poche : la clé USB. Simple à utiliser, elle est solide et ne se raye pas, contrairement au CD. En 2007, on pouvait y mettre jusqu’à 16 Go.


Cloud
(stockage à distance)

_ 2014 : dans le cloud, 1.000 milliards d'octets pour 7,2 euros Au début des années 2000, Amazon avait un problème : en dehors des périodes de forte affluence, ses immenses serveurs informatiques étaient sous-utilisés. La solution ? Louer l’espace libre aux particuliers. Le cloud était né.


On « n'achète » plus un logiciel, mais on « loue » un programme, ses options et l’espace nécessaire pour stocker les informations. Les opérateurs se font la guerre et sont prêts à casser les prix. Face à ses concurrents (IBM, Apple, Amazon, ou encore le petit Français OVH, l’un des moins chers du marché), Google a frappé fort et propose ainsi 100 Go de stockage à 1,50 euro par mois, ou 1 To à 7,20 euros (il y a seulement quelques mois, c’était le prix à payer pour 200 Go).

Ce que l’on peut constater, c’est que la miniaturisation des composants électroniques amène l’espace de stockage à devenir invisible et paraît immatériel. Or aujourd’hui, les Clouds personnels, les bases de données des entreprises privées sont situés dans des Data-Center. Nous n’avons aucune possibilité de comprendre la consommation énergétique de ces data-center. Qu'en est-il de la sécurité de nos données ?

Mathias Chaillot, La folle évolution du stockage informatique, https://www.capital.fr/economie-politique/la-folle-evolution-du-stockage-informatique-953110, 2014

2.2 Le monde Open source


Richard Stalllman

Considéré par la communauté informatique comme le père des logiciels libres, Richard Stallman a commencé à s'intéresser au sujet lorsqu'il travaillait au laboratoire d'intelligence artificielle au MIT. Le laboratoire possédait une imprimante qui tombait souvent en panne, mais comme les chercheurs avaient le code source du pilote de l'imprimante, ils avaient modifié le programme pour que l'imprimante leur envoie un signal à chaque panne. Un jour, le laboratoire achète une nouvelle imprimante de marque Xerox, plus fiable que la précédente. En revanche, le pilote de l'imprimante n'est pas fourni à la livraison. Richard Stallman entend parler plus tard d'un laboratoire qui possède les sources de ce pilote. Il s'y rend, demande le code, mais on lui répond que le laboratoire s'était engagé à ne pas diffuser les sources du pilote. Ressentant ce refus comme une agression, Richard Stallman prend alors conscience du danger de la « logique propriétaire ».

A/ Logiciel libre et Open source

Il faut avant tout noter que le concept de logiciel libre est plus ancien que celui de l’open source. L’idée de logiciel libre est née d’un mouvement fondé par Richard Stallman, connu comme le père du projet GNU. Le logiciel libre vient s’opposer aux logiciels propriétaires qui imposent des limitations de licences aux utilisateurs. L’objectif du libre est d’offrir plus de libertés aux utilisateurs individuels ou en collectivités quant à l’utilisation des logiciels. Les utilisateurs devront avoir la liberté d'exécuter, copier, distribuer, étudier, modifier et améliorer le logiciel.

L’association entre logiciel libre et logiciel gratuit a constitué un obstacle à l’adoption commerciale. En 1998 en Californie, les partisans du logiciel libre se sont donc réunis pour défendre leurs idées et les avantages du logiciel libre face à l’industrie du logiciel commercial. Le mouvement du logiciel libre a donc été rebaptisé devenant ainsi l’open source, en mettant en avant les avantages du partage du code pour les entreprises. L’open source repose donc sur les principes du logiciel libre, mais les fondateurs du nouveau mouvement ont défini dix conditions préalables que doi
●La redistribution doit être libre
●Le programme doit être distribué avec le code source, sinon il doit y avoir un moyen très médiatisé pour l’obtenir sans frais
●La licence doit autoriser les modifications et les œuvres dérivées, et doit leur permettre d'être distribuées sous les mêmes termes que la licence du logiciel original

●Pour maintenir l’intégrité du code source de l'auteur, la licence peut exiger que les œuvres dérivées portent un nom ou un numéro de version différent de ceux du logiciel original
●La licence ne doit discriminer aucune personne ou groupe de personnes
●La licence ne doit pas défendre d'utiliser le programme dans un domaine d'activité spécifique
●Les droits attachés au programme doivent s'appliquer à tous ceux à qui il est redistribué, sans obligation pour ces parties d'obtenir une licence supplémentaire
●La licence ne doit pas être spécifique à un produit
●La licence ne doit pas imposer des restrictions sur d'autres logiciels distribués avec le logiciel sous licence. Par exemple, la licence ne doit pas exiger que tous les autres programmes distribués sur le même support soient des logiciels open source
●La licence doit être technologiquement neutre.


Dans son livre l’Éthique hacker et l’esprit de l’ère de l’information, le philosophe finlandais Pekka Himanen nous rappelle quels choix stratégiques et structurels font les entreprises en relation avec le numérique. Mais surtout quels positionnements et regards devons-nous avoir, en tant qu’utilisateurs ? Il ne s'agit pas de faire un choix entre le monde centralisé imposé par les géants du web et la sphère logiciel libre et Open source, mais de les comprendre.


Catégorie de prorpiété des logiciels
L’éthique hacker de l’argent défendue par StallmanCatégorie de prorpiété des logiciels ne s’oppose pas à l’idée de faire de l’argent mais juste à celle de s’enrichir en faisant de la rétention d’information. Il propose une nouvelle forme de l’économie de marché libre dans un sens plus profond que dans le capitalisme ordinaire mais qui demeure une économie capitaliste. C’est une idée radicale qui est la plus difficile à faire accepter aux entreprises de l’Open source, lesquelles préfèrent fonder leur modèle ouvert sur une approche plus pragmatique. Le modèle Open source est choisi dans cas parce qu’il est supérieur d’un point de vue technique et économique. Sinon, c’est le modèle fermé qui est préféré 14.

14
L’Éthique hacker et l’esprit de lère de l’information, Pekka Himanen, éditions Exils, p. 70

Concernant le graphisme, l'Open source présente l'intérêt que sa source est ouverte et qu'il autorise l'apport personnalisé du programme par la modification de son code source. L’utilisateur peut ainsi intégrer les fonctions de son choix, mais aussi et surtout comprendre comment fonctionne son outil. Il évite ainsi de se voir réduit à la simple situation d’usager ou de consommateur.

B/ Le blog, entre journalisme et journal intime

_ LE BLOG A DÉMOCRATISÉ LA PUBLICATION, PAS LA DIFFUSION
Le blog restera une belle aventure. Cet outil a accompli un geste majeur dans l’histoire de la culture : démocratiser la publication, permettre à n’importe qui de publier un contenu sur Internet. Le blog a ainsi ouvert la voie au Web 2.0, et YouTube, Instagram, Facebook, Twitter et les smartphones l’ont ensuite totalement banalisé, facilitant toujours plus l’acte de publier. En se démocratisant, le blog a laissé de côté le problème de la diffusion. Pour être lu, le contenu devait être connecté à d’autres blogs, par l’entremise de la blogroll, une liste de blogs amis placée sur le côté de l'interface. Ce système de recommandation a constitué une oligarchie du blog, où seuls les plus connus pouvaient être vraiment lus.

_ DE LA RECOMMANDATION D’UN AUTEUR À CELLE D’UN CONTENU
Les réseaux sociaux ont complètement changé la donne. De la recommandation d’un blog, donc d’une œuvre cohérente et entière, pour ne pas dire d’une personne, on est passé à la recommandation d’un article unique, le fameux « partage ». Dans ce nouvel écosystème, la personnalité de l’auteur tend à devenir secondaire, seul compte le contenu. Les réseaux sociaux ont démocratisé la diffusion. N’importe qui peut « jeter » son contenu dans le Web et espérer être lu, même sans n’avoir jamais eu de lecteurs auparavant. Les blogs ne faisaient finalement que reproduire le vieux modèle des médias où il faut déjà avoir une audience pour espérer être lu.

C/ Histoire du blog

_En janvier 1994, le journaliste free-lance américain Justin Hall publie son premier post de blog
Le 20 octobre 1997 est mis en ligne Open Diary, une sorte de version béta des réseaux sociaux actuels. Le site devient rapidement une communauté de journaux intimes/personnels en ligne. Ses deux fondateurs, Bruce & Susan Abelson le décrivaient comme « le premier site Web réunissant des rédacteurs de journaux intimes au sein d’une grande communauté ». Le concept de communauté et de social networking était né.


Screenshot d'Open Diary

_En février 1995, John Barger crée son premier site Web « Robot Widsom »
Sur lequel il publie ses réflexions sur des sujets très en vogue déjà à l’époque : l’intelligence artificielle, la culture internet, le design hypertexte et les dernières tendances technologiques. Le 17 décembre 1997, dans l’espoir d’apporter à son audience une valeur ajoutée, il dresse dans ses différents articles une liste de liens « chaque jour façonnée par ses propres intérêts dans les arts et la technologie ». Il offre ce faisant une sorte de journal quotidien de ses recherches et lectures » (ce qu’il nomme en anglais « a day-to-day log of my readings and intellectual pursuits »). Pour qualifier cette collection de liens éditorialement pertinents, il crée une nouvelle expression « Weblog », expression ayant vocation à décrire le processus de « logging du Web ». En 1999, l’on recensait 23 blogs (principalement des blogs politiques) sur Internet et en 2006… près de 50 millions.

_Entre 2001 et 2002, lancement des premiers blogs blockbusters
Notamment et parmi les plus marquants d’entre eux, lancement des blogs devenus médias pure-players célèbres : Techcrunch, Mashable, le Huff Post ou Gizmodo. Ces médias aujourd’hui incontournables du Web ont tous été lancés par des blogueurs indépendants.

_Entre 2003 et 2005, les moteurs de recherche entrent dans la danse
Les moteurs de recherche rachètent ou lancent leur propre plateforme de blogging. En 2003, Google entre dans la danse avec le rachat de Blogger (comptant environ 1 million de blogueurs et 200.000 comptes actifs). Dans la foulée, Google lance Adsense et crée ainsi le premier réseau publicitaire offrant la possibilité d’insérer des publicités contextualisées au sein des contenus de blogs. En 2004, MSN qui lance Spaces, plateforme de blogging qui leur permet de faire le lien entre MSN Messenger et les services Hotmail. En 2005, AOL lance son service de blogging RED ciblant les adolescents et rachète la plateforme d’édition de blog Weblogs Inc. pour 25 millions de dollars.

_À partir de 2003 : Essor des plateformes de blogging.
Les toutes premières plateformes de blogging furent lancées en 2001, c’est surtout en 2003 que l’essor du blog prend un coup de boost avec la création de WordPress.

D/ Communauté

Une communauté est un groupe d'au moins deux personnes qui s'influencent l'une l'autre à travers des interactions sociales. La communauté est dite "virtuelle" dès que ses membres utilisent les réseaux informatiques (notamment Internet) pour se rencontrer et échanger. Pour être clair, la communauté est bien réelle, mais les rencontres et les échanges sont délocalisés : ils se font dans un espace virtuel via des ordinateurs connectés en réseau (Internet, intranet ou extranet). Grâce à la mise en réseaux des connaissances, la communauté Open source comprend ceux qui partage leurs codes source d’une page Web, d’un outil, le but de partager ces connaissances est de pouvoir avoir un soutien de différentes personnes ayant un autre point de vue ce qui permet d’améliorer en terme technique le projet initial. Wikipédia est autant une encyclopédie collaborative qu’une encyclopédie classique à la différence que n’importe qui peut écrire un article sur n'importe quel sujet, ce qui peut générer des informations erronées.

2.3 Anarcho narcissique à l’arrêt de métro

Cette partie met en avant la méritocratie du partage de connaissance, le nom est en référence à un chapitre « Anarcho-communiste à l’heure du thé » du livre « Les liaisons numériques » de Antonio A. Casilli. L’auteur met en avant les qualités du partage dans la grande communauté virtuelle. Il compare le comportement des internautes en termes de partage avec l’ère communiste où on re-distribuait les ressources. Le réel et le virtuel ne sont pas distincts, mais imbriqués ; les traces corporelles sont un moyen d’exprimer et réaliser son autonomie, ses stratégies ; les TIC ne sont pas désocialisantes mais reconfigurent notre manière d’être en société.

A/ Partager pour être

Un futur utopique a été préfiguré par le passé tribal : ce sont les paroles du théoricien du Web Richard Barbrook, dans son essai consacré à ce qu’il appelle l’économie du don high-tech. Cette économie, selon lui, serait un système mixte, où la propriété privée coexiste avec des formes de biens communs. Il n’est certainement pas le seul à penser que, dans la circulation des ressources et de l’information, l’idée de don, de partage, à côté du marché et de l’État, occupe encore aujourd’hui une place importante.

« Si le marché est basé sur l’équivalence (je paie le prix correspondant à la valeur d’une marchandise) et l’État sur l’égalité (j’ai le même droit que tout citoyen d’accéder à un certain bien ou service), d’autres aspects de nos sociétés fonctionnent selon un mécanisme de don, de dette qui ne se rembourse jamais complétement. Certains ont avancé l’idée que le don est le mode de circulation des biens et services propre aux structures sociales en réseaux 15.

15
Casilli Antonio A,Les liaisons numériques, Vers une nouvelle sociabilité, Éd. du Seuil, coll. La Couleur des Idées, 2010, p. 40


Daily sharing

Le mécanisme du don est la pierre angulaire de toute participation. Tout d’abord, les usagers s’attendent à avoir un retour sur le temps et l’énergie qu’ils accordent aux activités en réseau. Par rapport à ceux qui s’engagent moins, les participants actifs des communautés reçoivent plus rapidement des informations, de l’aide et du support de la part des autres. Un bon exemple de cela est le service de partage de fichiers de Bittorrent. Chaque utilisateur consacre une fraction plus ou moins importante de son disque dur à l’hébergement de morceaux de fichiers. En échange, il peut accéder à un énorme catalogue de logiciels, de films, de morceaux de musique, etc. (…) Le téléchargement de ces fichiers, dont la taille est souvent assez importante, peut prendre plus ou moins de temps selon le niveau d’implication de l’utilisateur dans le service même.

Les Blogs, puis les réseaux sociaux ont permis de créer des communautés et des nouveaux métiers comme les « youtubeurs » ou les influenceurs, leur métier est de partager du contenu dans leur domaine précis. Il y a des membres spécialisés dans le culinaire, le high tech, le maquillage, le bricolage, etc... Dans ce context, le concept de DIY ( DO IT YOURSELF ) est proche des nouvelles façons de partager, qui consiste à faire soi-même un artefact qui est trouvable dans le commerce, ce qui nécessite simplement du temps de la part de celui qui désire le posséder. Grâce aux tutoriels de YouTube on peut peut-être apprendre à faire soi-même une reliure japonaise, un écran de sérigraphie, etc…

B/ Liking & following

Comme on peut le comprendre, il y a une véritable ambition de partager nos richesses intellectuelles à travers les réseaux sociaux. Les utilisateurs sont récompensés par des signaux/concepts qui sont propres aux réseaux sociaux eux-mêmes. Les likes reçus sous forme de notifications permettent d’évaluer la pertinence de ce qu’on vient de partager, ces notifications procurent une émotion positive, plus on reçoit de likes, plus on se sent compris. Quand on regarde Instagram ou Twitter, les pages des utilisateurs mettent en avant le nombre de publications de chacun, mais aussi le nombre de personnes qui tiennent à continuer de nous lire ou nous suivre sous forme de following. Il y a ceux qui nous suivent et ceux qu’on suit pour pouvoir consulter leurs actualités.

Certains comptes dépassent le million de followers, cette quantité devient une mesure de crédibilité. Prenons comme exemple le joueur de Football Cristiano Ronaldo. La star portugaise de 33 ans, quintuple Ballon d'or, vient d'atteindre la barre des 144,6 millions de followers, devançant désormais d'une tête Selena Gomez et ses 144,4 millions de fans. Sur le réseau social de partage de photos, le portugais partage sa vie quotidienne, ses exploits sportifs, ses moments en famille avec ses enfants et sa compagne Georgina Rodriguez. IL fait la promotion des marques dont il est le sponsor. Un savoureux mélange qui n'est pas sans déplaire à ses fans du monde entier. Depuis la création de son compte, il a posté plus de 2300 publications.
Influenceur est devenu un métier, et ceux-ci recoivent en échange de leurs notoriété, des services, des cadeaux, de l'argent, ils ont une forte réputation sur les réseaux sociaux. Cette ambition générée par ces réseaux sociaux entraîne une mise en avant de la vie personnelle de chacun dans le but d'être récompensé par l’augmentation du nombre de followers et de likes.

3 Pratiques & outils
éditoriaux actuels

L’apparition du numérique a entrainé ces dernières années une transformation profonde des modèles de production et de circulation des livres, qui avaient peu changé depuis le XVIIIe siècle. Le Web, en particulier, a provoqué une remise en question du sens même du partage des connaissances : d’une économie de la rareté, nous sommes passés à la surabondance. Auparavant, une poignée d’institutions centralisatrices, privées et publiques, étaient garantes du choix, de l’évaluation et de la distribution des contenus. Aujourd’hui, il n’y a plus de système de légitimation, ou alors ils sont déstructurés.

3.1 Mutations des supports

Bien qu’on puisse différencier l’édition numérique de l’édition traditionnelle. Le numérique est ancré dans la manière de construire un projet éditorial. Aujourd’hui, une multitude de formats et de supports sont possibles et présents, on pensait que le numérique allait tuer l’édition papier, mais ce n’est pas le cas hormis pour la presse qui subit l’efficience du numérique. Par l'accessibilité rapide du contenu, le comportement des lecteurs a évolué. Avant l'avènement d’Internet, on pouvait acheter un journal entier, pour n'en lire finalement que quelque articles. Maintenant, l’ensemble des médias est fragmenté, nous pouvons acheter un morceau de musique d’un album, ou un article d’un journal.

Le livre papier, dans sa linéarité et sa finitude, dans sa matérialité et sa présence, constitue un espace silencieux qui met en échec le culte de la vitesse et la perte du sens critique. Il est un point d'ancrage, un objet d'inscription pour une pensée cohérente et articulée, hors du réseau et des flux incessants d'informations et de sollicitations : il demeure l'un des derniers lieux de résistance 16.

16
Cédric Biagini et Guillaume Carnino, Le livre dans le tourbillon numérique le monde diplomatique, n° 666, septembre 2009, p. 27



A/ Éditorialiser l’information

Au cours des dernières années, la notion de « désintermédiation » a souvent été convoquée : le Web et les technologies numériques réduiraient les médiations entre la production et la publication des contenus. L’édition aurait donc perdu son importance, car n’importe quel usager pourrait, sans médiation, rendre disponible les contenus qu’il souhaite. Au contraire, la fonction éditoriale n’a jamais été aussi présente et aussi centrale qu’aujourd’hui.


Il y a de l’édition partout : dans les différents médias en ligne, mais aussi dans la structuration des contenus sur les réseaux sociaux, dans les plateformes de distribution, dans les blogs, dans les moteurs de recherche. Textes, images, vidéos, données sont produits et circulent désormais en environnement numérique.
Même les contenus destinés à l’imprimé sont dans leur totalité rédigés, structurés et mis en forme avec des outils numériques et sont ensuite commercialisés, rendus visibles et accessibles via des plates-formes en ligne. En ce sens, il n’y a plus aucun contenu qui ne soit pas touché par les technologies informatiques. L'idée d'une pensée démocratisée, entre autres, apparaît centrale pour l'histoire de l'édition numérique, tel qu'expliqué dans l'ouvrage : Pratiques de l'édition numérique écrit par Marcello Vitali-Rosati, Michael E. Sinatra.

l’évolution de l’édition, voire le métier même de l’éditeur, a historiquement accompagné un certain idéal démocratique qui est encore aujourd’hui le sien, mais dont la préservation s’annonce pourtant comme l’un des enjeux les plus importants pour les années à venir 17.

17
Pratiques de l'édition numérique, Marcello Vitali-Rosati, Michael E. Sinatra, Presses de l’Université de Montréal, 2014

Par son entrée dans l’ère de l’informatique en réseau, le livre semble être appelé à devenir de plus en plus réinscriptible et multimédia, tout en gardant ses qualités intrinsèques d’objet physique apportant du contenu au lecteur. Il n’est plus seulement séquentiel comme autrefois, dans cette fameuse chaîne du livre qui mène de l’amont vers l’aval de manière linéaire, la chaîne de l’édition devient modulaire et souple.

Il est aussi réticulaire. Comme un oignon, il se pare de multiples couches, un ensemble d’informations ajoutées par des dizaines de métiers différents, qui participe à une vaste entreprise d’enrichissement documentaire, et par des auteurs secondaires qui, par leurs inscriptions, contribuent à toutes les étapes de la vie du texte, à enrichir de lecture du texte, à ajouter des strates supplémentaires au texte initial 18.

18
Florian Cramer, Pierre Cubaud, Marin Dacos, Yannick James, Annick LantenoisLire à l’écran, Contribution du design aux pratiques et aux apprentissages des savoirs dans la culture numérique, Éd. B42, 2011, p. 21

Bien que l’omniprésence du numérique soit dans ce qui structure notre société, elle est aussi présente comme support des médias. Aujourd’hui nous pouvons différencier l’édition numérique de l’édition imprimée. L'édition numérique ou électronique s'inscrit dans l'histoire comme une pratique culturelle et technique.
Elle a entraîné et entraîne encore de nombreux changements dans l'ensemble de la chaîne éditoriale. L'histoire de l'édition est liée à l'histoire du développement d'Internet et du Web, d'une part, et l'histoire des humanités numériques, d'autre part.

L'édition numérique est un phénomène qui s'inscrit dans le développement plus vaste des humanités numériques. Comme l'expliquent les chercheurs Michaël E. Sinatra et Marcello Vitali-Rosati, les humanités numériques, issues de l'expression anglais "digital humanities", mènent à un changement de paradigme ayant des répercussions sur l'édition numérique :

Loin d’être un simple développement technologique ayant un impact sur le processus de recherche et de visualisation des données en sciences humaines et sociales, les humanités numériques nous amènent à repenser le sens même de la recherche et, par conséquent, l’ensemble du modèle de production et de circulation du savoir à l’époque de l’édition numérique 19.

19
Pratiques de l'édition numérique,Marcello Vitali-Rosati, Michael E. Sinatra, Presses de l’Université de Montréal, 2014, http://www.parcours
numeriques-pum.ca/la-fonction-editoriale-et-ses-defis

Les humanités numériques ont pour objet d'étude des changements culturels déterminés par le numérique, tels qu'une nouvelle conception du savoir et de nouveaux modes d’accès.

« La rencontre des univers du livre et du développement logiciel est à l’œuvre dans plusieurs expérimentations de chaînes éditoriales, faisant apparaître de nouvelles approches et de nouvelles pratiques de design. Les étapes du processus d’édition sont réévaluées, repensées, re-conçues, notamment par l’avènement d’un environnement profondément numérique. Quelles sont les influences des méthodes et des outils du développement Web sur les chaînes de publication des livres ? » La problématique est posée dans le chapitre « Repenser les chaînes de publication par l’intégration des pratiques du développement logiciel 20».

20
Antoine Fauchié et Thomas Parisot, N°8, Science et Design, Éditions Numériques aux éditions PUF, novembre 2018, p . 46

Multichannel, Antoine Fauchié

Remplacer un logiciel de Publication Assistés par Ordinateur (PAO) par un autre est peu aisé. Cela demande une nouvelle lecture du logiciel lui-même. Il faut reconsidérer l’interface qui s’offre à l’utilisateur. C’est pourquoi les différentes étapes qui forment les chaînes de publications qui structurent l’édition sont difficilement interchangeables.

« Les éléments qui forment les chaînes de publications des structures d’édition sont difficilement interchangeables.. La gestion avancée des styles ou fonctionnalités liées aux commentaires diffèrent sensiblement entre le logiciel de traitement de texte Microsoft Word et sont équivalent ouvert et libre qu’est LibreOffice Writer. Cette non-interopérabilité des outils entretient une dépendance des utilisateurs et détermine une chaîne de publication séquentielle qui se décline comme suit : de Microsoft Word vers Adobe InDesign, conduisant à une sortie en PDF ou en tout autre format destiné à l’impression. Chaque fichier est un ensemble fini qui appartient exclusivement à un seul logiciel 21.

21
Antoine Fauchié et Thomas Parisot, Éditions Numériques, N°8, Science et Design, aux éditions PUF, novembre 2018, p. 47
B/ Éditer l'archivage

Le principe et les modalités de l’écriture ont profondément été transformés par la textualité d’Internet et nos nouveaux moyens de communiquer via des supports de plus en plus interactifs. Cette utilisation des supports numériques par la sphère artistique a tendance à réduire la frontière entre l’acte de création et son résultat final.
Le blog qui se situe à mi-chemin entre le journal personnel et l’archivage publié sous une forme d’édition structurée ou singulière a été investi par de nombreux acteurs de la création, jusqu’à en faire œuvre : à la fois interface, atelier ouvert. C’est un processus de création partagé qui se rapproche d’une pratique de notation quotidienne comme peut le faire Jonas Mekas, ou encore aux « hypomnémata » évoqués par Michel Foucault dans L'écriture de soi :

L’apparition des blogs a permis un nouveau type d’archivage : l’auto-archivage immédiat, qui, non figé, se reconstitue en permanence, et sur lequel le lecteur peut interagir. Ainsi, l’œuvre-archive inclut sa genèse, ses hésitations, ses retours, ses commentaires, ses silences, sa réception. Cette émergence produit de nouvelles formes plastiques et esthétiques fondées sur le réseau, l’interactivité, le flux, le fragment, la pluralité des discours 22.

22
Responsable scientifique : Julie Morel Équipe : Reynald Drouhin, Sylvie Ungauer, Dominique Moulon, Grégory Chatonsky, Gwenola Wagon, Karine Lebrun

À ce jour, les blogs, que ce soit comme outils pour les créateurs, comme moyen plastique pour les artistes, ou dans le milieu des étudiants en art, sont extrêmement répandus. Cela s’inscrit de manière générale dans un large mouvement contemporain qui regroupe l’archive comme objet média, et l’archivage comme œuvre et comme principe relationnel. Aujourd'hui, chacun peut s’emparer de ces outils et les transformer en matière à pratiquer une recherche jusqu’à en faire œuvre, tout en y portant un regard critique.

Au-delà du blog, par les réseaux sociaux, les services comme Pinteret, Dribble, ou Are.na, l'utilisateur peut garder, regrouper des recherches, des réfèrences, ce qui permet de sauvegarder du contenu sans se soucier de l'espace de stockage ou de la manière par laquelle c'est archivé. Le graphiste qui doit être en veille constante des nouveautés en terme d'outils et de tendance doit avoir la capacité d'enregistrer sans que cela lui prenne véritablement du temps.

Le journal libre Informat est un projet intéressant, autant pour la mise en place du contenu que pour son procédé de construction. C'est un quotidien expérimental. Fruit d’une réflexion sur la structure et l’impact de l’information dans notre environnement, Informat est le reflet d’une idée simple : imprimer les informations en complète autonomie. Informat recueille les données issues de France Presse avec pour seul objectif d’offrir une lecture brève, objective et globale des différents sujets traités par les médias. Informat s’imprime chez soi sur une unique feuille de format A4, il facilite la transition de l’information entre son format digital et un support papier lisible et compact.

C/ Galaxie Gutenberg, numériser l’imprimé

On peut s’approprier l’idée de bruit du signal de la théorie de l’information de Claude Shannon, quand on tente de scanner quelques pages d’un ouvrage. Bien souvent nous perdons des fragments d’information : mauvais réglage, flou de distance, poussière dans le scanner, ou encore le document original n’est pas à un format adéquat pour être numérisé. Afin de faire une bibliothèque de contenus numérisés, il faut avant tout numériser les documents papier, pour en extraire leur contenu. Pour cela il faut utiliser un système électronique, un capteur qui photographie un nombre fini d’informations considérées comme significatives. Ces informations sont ensuite susceptibles d’être traitées par l’ordinateur. La « remédiation » est ainsi réalisée d’un support à l’autre. Dès 1904, Arthur Korn qui était un physicien allemand (1870-1945) était confronté aux problèmes de numérisation lui-même, par du moirage causé par l'échantillonnage d’un document. Dans son « appareil de numérisation », une cellule au sélénium balaie une photographie en un nombre fini de lignes. Le signal électrique résultant est transmis sur une ligne téléphonique au récepteur, qui à son tour déplace une source lumineuse au-dessus d’un papier photosensible.
En juillet 1971, Michael Hart, alors étudiant à l'Université de l’illinois, lance le Projet Gutenberg. Souhaitant donner un accès électronique pour tous aux grandes œuvres de la littérature mondiale, et appartenant au domaine public, ce projet présente les premiers livres numérisés. Si la capacité des disquettes de l'époque (alors que le disque dur n'existe pas encore) l'oblige à numériser de courts textes au départ, il peut, d'année en année, suivant les évolutions technologiques, numériser des œuvres au volume toujours plus important.

« Cette numérisation de « tous les savoirs de l’humanité » s’accompagne du développement des e-books, readers ou encore livres électroniques. Le géant américain Amazon a lancé le Kindle (permettant d’acheter du contenu vendu en ligne par... Amazon) ; Sony le Reader PRS 505 ; la filiale de Philips, iRex, l’iLiad ; et Booken le Cybook. Les opérateurs téléphoniques veulent aussi se saisir de ce marché : Orange avec le Read & Go et SFR avec le GeR2. Les Personal Digital Assistant (PDA, ordinateurs de poche) et les téléphones portables, notamment l’iPhone, proposent eux aussi du contenu. La bataille fait donc rage entre les différents lecteurs et les formats de fichier qui leur sont associés (PDF, Mobipocket, HTML, TXT…)23.

23
Lire Robert Darnton, « La bibliothèque universelle, de Voltaire à Google », Le Monde diplomatique, mars 2009

iBooks

Une des grandes illusions consiste à croire que le basculement numérique, s’il est suffisamment préparé, peut permettre à la chaîne du livre de maintenir son modèle économique et sa structure, moyennant quelques aménagements. Pour le Syndicat de la librairie française, la librairie pourrait « exploiter entièrement toutes les opportunités numériques », et les éditeurs et libraires « mieux encore jouer leur rôle de médiateurs ». Or, si dans un premier temps, le modèle traditionnel de l’édition peut être singé, le monde numérique modifiera profondément le statut des acteurs intermédiaires (librairies, éditeurs, bibliothèques). À chaque révolution technologique, on commence par recréer ce que l’on faisait avant : aux débuts de l’imprimerie, on reproduit des lettrines manuscrites ; aux premiers temps de la télévision, on filme des émissions radiophoniques, du théâtre et des débats jusqu’à ce que le média invente sa propre forme. Car une technologie n’est jamais neutre : elle ne dépend pas des usages, bons ou mauvais, qui en sont faits, les deux finissant toujours par advenir concomitamment. Une technologie ouvre un monde nouveau, qui possède ses propres qualités et défauts en comparaison de l’ancien.

En 2008, la Commission européenne vise à rendre accessible, sur Internet, le patrimoine des bibliothèques nationales et autres lieux de conservation des États membres de l’Union. L’empire Google, dans son entreprise de captation intégrale du réel, a été l’un des premiers à développer sa bibliothèque virtuelle, qui compte désormais plus de sept millions d’ouvrages.

3.2 Mutations des usages

Internet privilégie l'efficacité, l'immédiateté et la masse d'informations « Le risque que la lecture classique devienne insupportable, y compris physiquement, se profile. Nous assistons alors à la liquidation de la faculté cognitive (...) remplacée par l'habileté informationnelle ». Comme le souligne Nicholas Carr : « La dernière chose que souhaitent les entrepreneurs du Net, c'est d'encourager la lecture lente, oisive, ou concentrée. Il est de leur intérêt économique d'encourager la distraction... »

A/ Perception hybride
Considérez un instant le bel objet physique que vous tenez dans vos mains. Caressez sa couverture, émerveillez-vous devant son façonnage, son dos, son mors ou sa gouttière, devant la manière dont l’encre se mêle au papier 24.

24
Dan Rubin p. 35 Back Office N°3 éditions B42, 2019

le Web a fait perdre l’attention du lecteur par la possibilité de « switcher » d’un article à un autre en un seul clic. Si le monde du livre est en plein essor, cela peut s’expliquer par différents paramètres, comme le désir de posséder un bel objet ou pour prendre de la distance avec le numérique. De plus, les sensations que procure un livre sont totalement différentes de celle que propose une lecture à travers un écran, l’odeur du papier et des encres, le toucher, le fait de tourner une page physiquement.
La non matiéralité d'Internet peut donner envie à chacun d'avoir de véritables objets physiques, qui sont en plus, pérenne.
Pour la spécialiste de l’intégration des technologies de l'information et de la communication en classe, Marie-France Laberge, la lecture est devenue plurielle.

« Lire ne réfère pas automatiquement au livre pour les élèves qui fréquentent nos écoles actuellement ; lire fait partie d’un univers où coexistent l’image, le son et l’écrit ».

Comme elle l'explique dans son texte Nouveaux Médias et transformation des pratiques de lecture, les effets positifs de ces nouvelles formes de lectures sont nombreux. En effet, c'est dès le plus jeune âge que l'apprentissage est le plus efficace, cela va donner une génération ayant une facilité à être multitâche, en tout cas, capable de lire sur de multiple supports nécessitant différentes qualités de lecture.

La façon de lire et de s’approprier ces lectures doit être dirigée. C’est à l’enseignant de mettre en place les conditions de l’appropriation du savoir. La lecture hypermédia exige le développement de nouvelles compétences, non seulement parce qu’elle appelle la recherche d’informations dans différents modes (oral, écrit, images) et suivant différentes modalités sensorielles (vision, ouïe, toucher avec la souris), mais aussi parce que le mode d’organisation des documents se trouve également diversifié par rapport à l’imprimé 25.

25 Lecture à l'écran : défis du lecteur branché par Marc-André Brouillard 14 octobre 2010, Pour une lecture à l’écran efficace

Depuis les années 1990, de nombreuses voix proclament le basculement imminent ou en voie de réalisation de nos économies « traditionnelles » vers une économie de l’attention. L’intuition en est séduisante, tant chaque instant de notre vie paraît la confirmer : nous autres, citoyens des pays surdéveloppés, connectés à des réseaux de communication de plus en plus riches, vivons notre surabondance consumériste et informationnelle comme un déficit chronique de temps d’attention, la place que tient l'économie de l'attention dans le capitalisme cognitif qui caractérise la société de l'information s'intensifie.

Bien que les théoriciens de l'économie de l'attention aient tendance à considérer la valeur de l'attention comme une forme de monétarisation du « temps de cerveaux disponible » que celle-ci ne s'y réduit pas 26.

26
Emmanuel Kessous,temps de cerveaux disponible, p. 283
La lecture n’est pas un acte naturel, mais une pratique culturelle qui n’a cessé de se transformer au cours de l’histoire de l’écrit en général 27

27
Lire à l’écran, Contribution du design aux pratiques et aux apprentissages des savoirs dans la culture numérique, Édition b42, Florian Cramer, Pierre Cubaud, Marin Dacos, Yannick James, Annick Lantenois, p. 07

Aujourd'hui, quand on navigue sur Internet, on a la possibilité d'ouvrir plusieurs pages en même temps tout en les conservant sous formes d'onglet, le processus d'attention qui est réduit est attaché à ce système d'interface où nous sommes plus obligé de lire l'ensemble d'une page puisqu'on la conserve dans notre ensemble d'onglets. La roue à livres, illustration figurant dans l'ouvrage Le diverse et artificiose machine del Capitano Agostino Ramelli de Agostino Ramelli, 1588

B/ Lecture à quatre mains

Chaque support dégage des qualités différentes qui demandent des usages compatibles. Bien que certaines interfaces numériques de site Web ou de liseuse imitent visuellement le support imprimé, il n’en reste pas moins que ces supports numériques peuvent avoir leurs propres autonomies visuelles et proposer une expérience innovante de lecture sans freiner la lisibilité du contenu. Même si feuilleter des pages sur une liseuse peut être simulée de manière assez convaincante par une animation à l’écran de circulation de la page courante d’un bord vers l’autre. Lire la même œuvre dans une édition imprimée ou sur l’écran n’est pas lire le même livre, bien que la lecture sur liseuse est plus proche d'un livre que la lecture à l'écran sur PC ou téléphone.

Si le lecteur d'un livre imprimé n'est pas obligé d'en lire toutes les pages, la matérialité même de l'objet lui impose la perception immédiate, sensorielle, de l'importance de l'œuvre qu'il contient. La lecture du fragment, du passage, est ainsi toujours rapportée, volontairement ou non, à la totalité textuelle dont il fait partie. Il n’en est pas ainsi avec les textes électroniques dont les fragments peuvent être extraits sans aucune perception de l’ensemble auquel ils appartiennent 28.

28
Roger Chartier, Dossier Demain le livre. Livres hebdo, n° 787, 4 septembre 2009, p. 75

Ce qui peut faire la force de l’hybridation des supports de diffusion est peut-être d’offrir une interface de lecture adaptée à chacun des supports, en l’occurrence il n’est pas forcément légitime d’imiter le feuilleté du livre quand l’usager est devant son écran. À la différence d’une lecture dans un livre qui est principalement linéaire, par Internet on peut avoir une lecture plus fragmentée et se faire son propre chemin de lecture. De plus, les concepteurs des services grand public comme Google Books et Amazon en sont conscients et ont mis en place plusieurs techniques alternatives, essentiellement basées sur la visualisation : des lectures en cours d’autres usagers, ou de recommandations inspirées de la navigation passée, voire de notices d’ouvrages sélectionnées de manière aléatoire. Dans tous les cas, il faut substituer au texte descriptif (notice de l’ouvrage) des indices visuels qui permettent une lecture de survol de l’ensemble de l’écran.

Le livre se situe à un tournant de son histoire et que, malgré les chausses-trapes qui l’attendent, et à condition d’abandonner tout fétichisme, sa vitalité sa liberté et sa force sont en mesure d’être décuplées avec l’arrivée du numérique en réseau. Révolution de l’accès, bien entendu, mais aussi révolution des usages, qu’ils soient d’écriture, de lecture ou d’inscription. Le livre, donc sans cesse, se ré-invente, et réinvente notre société par la même occasion 29.

29
Lire à l’écran, Contribution du design aux pratiques et aux apprentissages des savoirs dans la culture numérique. Édition b42, Florian Cramer, Pierre Cubaud, Marin Dacos, Yannick James, Annick Lantenois, p. 25

3.3 Le graphiste et ses outils

Écrire avec une machine à écrire donne une autre écriture qu’à la main ou avec le clavier d’un smartphone. Cela est de même pour un graphiste, le processus de production qu’il met en place induit la production elle-même. Cette affirmation a été étayée par la thèse d’Amod Damle, professeur de Computing and new Media à l’université du Wisconsin :

Les processus impliqués dans une activité créative comme le design peuvent être influencés de manière fondamentale par les spécificités de “l'outil mis à disposition.
A/ Le medium soumis à l’outil qui le façonne

Aujourd’hui, une multitude d’outils, de services, de moyen de collaborer avec d’autres acteurs de la production ou de la diffusion sont disponibles. Cependant, cette disponibilité des outils mis en place par des services d'édition sont souvent standards et fermés, par ce fait, ils standardisent la production faite.

Adobe systems incorporated est la société qui a conçu différents logiciels pour la photographie, l'édition, la vidéo et l'animation, l'illustration, le Web, la 3D, la réalité augmentée. Ils sont utilisés universellement par l’industrie graphique. Ces programmes sont exemplaires et la majorité des designers s’en satisfait très bien. Mais il ne faut pas tomber dans l'illusion de l'exhaustivité, soit l’idée que tout peut être fait en utilisant un menu déroulant et une barre d’outils. La force des logiciels standards permet une grande polyvalence de fonctions, les scénarios d'usage des différents logiciel, sont planifiés pour chaque type de projets. La conséquence de cette standardisation des scénarios offre un outil moyen qui, par le WYSIWYG (What you see is what you get) empêchent les erreurs, les bizarreries, les mauvaises ou bonnes surprises.

Toutes les spécificités qui pouvaient ainsi apparaître durant le développement de ces programmes sont supprimés pour répondre à l’usage médian conventionnel, ces outils sont praramétrés par défaut en vue d’une plus grande facilité d’accès par exemple un automatisme permet de saisir immédiatement dans un nouveau document InDesign. Ce texte sera alors composé automatiquement avec un caractère acceptable (arial), un corps acceptable (12points), un interlignagne acceptable (120% du corps) et une couleur acceptable (noir) 30.

30
Donnot Kevin, La maison prison des logiciels graphiques, Graphisme en France, code = outils = design, 2012, p.06

Les outils façonnent : le geste et la pensée. En général, ils correspondent à une fonction précise, cependant on peut détourner un outil de son utilité première afin d'expérimenter de nouvelle fonctionnalité. Comme le fait par exemple, le duo de graphiste E+K, Élise Gay & Kévin Donnot. Leur pratique intérroge principalement la frontière entre numérique et imprimé. Pour cela, ils n’hésitent pas à inventer des outilsdir. Migayrou Frédéric, Coder le monde, Mutations/Créations 2, Orléans, Éditions HYX, 2018 en fonction de leurs commandes : machines d’impression ou programmes informatiques. Ce qui leur permet une plus grande liberté d'action et de comprendre le mécanisme des outils qu'ils utilisent.


dir. Migayrou Frédéric, Coder le monde, Mutations/Créations 2, Orléans, Éditions HYX, 2018

Open Source Publishing écrit et dessine en utilisant uniquement des logiciels libres et Open source. C’est une caravane de praticiens provenant de divers domaines. Elles et ils conçoivent, programment, recherchent et enseignent. Travaillant pour le print, le web, et ses croisements, OSP crée des identités visuelles et des services digitaux, développant toujours une relation plus intime avec l'outil. Contrairement au duo E+K, Open Source Publishing se positionne politiquement en ayant fait pour choix d'utiliser uniquement des logiciels libres et Open source. Cette émancipation des logiciels propriétaire leur permet d'être complétement indépendants de tout outils numérique. Par indépendant au-delà du sens politique du terme, il faut prendre en compte le fait que OSP échange, collabore avec d'autres acteurs du spectre de la création mais surtout ils connaissent véritablement les outils qu'ils utilisent car la plupart du temps, ils les conçoivent.

Rappellons que durant la moitié de l'année 2019, la société Adobe systems incorporated a dû désactiver tous les comptes actifs, payants ou gratuits au Venezuela, suite à un conflit politique avec les États-Unis(l'administration Trump a émis l'ordre de sanction contre le gouvernement du président venezuelien Nicolas Maduro pour avoir prétendument usurpé la présidence et perpétré des violations des droits humains contre les citoyens du pays. Ce décret exécutif vise à empêcher les entreprises américaines de faire des affaires directement - et indirectement - avec le régime Maduro, explique la décision d’Adobe d'annuler tous ses abonnements dans le pays.)

Rappellons que durant la moitié de l'année 2019, la société Adobe systems incorporated a dû désactiver tous les comptes actifs, payants ou gratuits au Venezuela, suite à un conflit politique avec les États-Unis(l'administration Trump a émis l'ordre de sanction contre le gouvernement du président venezuelien Nicolas Maduro pour avoir prétendument usurpé la présidence et perpétré des violations des droits humains contre les citoyens du pays. Ce décret exécutif vise à empêcher les entreprises américaines de faire des affaires directement - et indirectement - avec le régime Maduro, explique la décision d’Adobe d'annuler tous ses abonnements dans le pays.)

Ces automatismes, n’influencent-ils pas les décisions ou les principes graphiques pensés en amont ? Le graphiste serait-il réduit à éxecuter ce que prédit le logiciel ? Jusqu'où cette standardisation des outils aveugle-t-elle l'autorité créative de l'auteur ?

B/ Créer ses propre outils

Comprendre comment fonctionne l'outil qu'on utilise la majorité de notre temps, n'est pas nécessaire, pour la plupart des graphistes, "l'important c'est qu'il fonctionne !" comme la sous-partie précédente tente de le présenter, une production dépend du support et des outils choisis. Afin d'explorer de nouveaux chemin de créativité, il est aujourd'hui possible grâce aux langages Web de balisage léger (HTML, CSS, JavaScript, Markdown etc...) de concevoir facilement, par exemple, une mise en page pour une affiche ou une revue d'exposition. Le terme "WEBTOPRINT", est généralement utlilisé pour les applications Web qui permettent de créer un lien entre les imprimeurs et les acheteurs de documents imprimés via Internet. Pour toute une constellation d'acteurs et de collectifs, ce terme veut aussi dire que le langage Web est utilisé pour faire du print, ce qui rend possible la création de systèmes singuliers. Ainsi le graphiste a la possibilité de repenser, manipuler, échanger, expérimenter l'outil qu'il met lui-même en place. Parmi cette constellation d'acteurs du Webtoprint, qui questionnent les nouvelles formes de publications à l’ère du numérique et les mutations des modes de conceptions, il y a le collectif PrePostPrint qui influence l'utilisation et l'échange de système WEBTOPRINT.

L’initiative PrePostPrint est née d’un constat : les logiciels traditionnels de mise en page et d’édition sont figés, fermés, souvent coûteux, cloisonnés et cloisonnants, et parfois peu ergonomiques. Il est nécessaire d’envisager des technologies plus accessibles et conviviales, pouvant évoluer et s’adapter à chaque projet. Ainsi Sarah Garcin et Raphaël Bastide, deux designers graphiques aux pratiques numériquement libres, ont décidé de constituer un collectif dont les membres et les projets sont à géométrie variable. Rassembler les énergies déployées autour de la création et de l’usage d’outils alternatifs de publication, voilà l’ambition de PrePostPrint 31.

31
Article écrit par Antoine Fauchié. publié le 29 juin 2017, Workshop PrepostPrint, Chercher, manipuler, partager, imprimer

« Peut-on réinventer une chaîne graphique ouverte, permettant à partir d’une seule source, de publier sur une multitude de supports, assurant ainsi l’autonomie de ses acteurs ? » Cette interrogation de Raphaël Bastide et de Sarah Garcin fait écho à de nombreuses expérimentations en cours, celle d’Open Source Publishing est sans doute la plus emblématique : utiliser quelques lignes de code plutôt que des logiciels fermés et cloisonnants. PrepostPrint a organisé un workshop qui a permis de détourner les technologies du web pour façonner des documents imprimés, et de privilégier l’expérimentation à l’efficacité. Projet politique, ouvert, enthousiasmant et rafraîchissant, PrePostPrint offre la possibilité de ne plus subir, mais de prendre en main, de transformer et de collaborer.

Code X est un journal publié à l’occasion du salon de l’édition alternative organisé par PrePostPrint à La Gaîté Lyrique, le 21 octobre 2017. La mise en page de cette édition a été entièrement conçue avec les langages de programmation du Web (html, css, js) et imprimé à l’aide d’un navigateur Web.

Quentin Juhel & Julie Blanc, octobre 2017 éditions HYX, 260 × 360 mm, 16 pages, 500 exemplaires
PDF imprimé

Code X, éditions HYX
apercu par le navigateur Web
PDF généré par le navigateur Web

Do Doc
Do Doc

Il y a aussi le collectif, L'Atelier des chercheurs, (Sarah Garcin, Pauline Gourlet et Louis Eveillard) mélange graphisme, programmation et recherche depuis 2013. Leur leitmotiv est d'encourager l’apprentissage et l’émancipation à travers des activités de conception. Leur volonté est de promouvoir la diversité des pratiques, des savoirs et des savoir-faire en rendant ces processus visibles et disponibles et en permettant la circulation des connaissances qu’ils génèrent. Un de leurs projets qui fait écho à l'outillage d'un projet est le projet Do doc, conçu pour documenter et créer des récits à partir d’activités pratiques. Do doc (prononcer doudoc) est un outil ouvert et modulaire qui permet de capturer des médias, photos, vidéos, sons et stop motions de les éditer, de les mettre en page et de les publier. La diffusion des contenus produits peut se faire au format pdf ou directement dans une page Web.

Julie Blanc, dans une perspective de design global, considère que la mise en place de workflows de conception et de production dans la chaîne éditoriale peut concerner le design et la conception au même titre que les artefacts qu’il en résulte, sa volonté est de produire des worksflows légers adaptés à chaque projet grâce à un mélange de technologie open source existantes ou originales. Atlas comoslogique, connaissance non objective, se constitue et se structure à travers un corpus documentaire.


unique source de
publication, Julie Blanc
Atlas Cosmologique, Julie Blanc

Conclusion

La société mesurable et chiffrée comme modèle espéré par les mathématiciens et philosophes du siècle des Lumières est restée une utopie. En effet, les géants d'Internet contrôlent, devinent nos comportements, nos désirs. Nos moyens d'échanger et de se cultiver semblent de plus en plus efficaces au détriment de la gestion éthique et énergique de notre monde. Bien qu'il y ait des chemins alternatifs utilisés par des activistes, artistes, la prise de risque créative est-elle de plus en légère sous peine de ne pas être compris, ou de demander un trop gros effort au public ?

Bien que ce mémoire tente de poser un regard sur l'évolution des technologies de l'information et de la communication jusqu'à aujourd'hui, il me permet aussi de penser le futur, quelle marge de manœuvre va-t-il nous rester face aux algorithmes invisibles et pourtant présents. La définition faite de la tension entre les géants d'Internet centralisateurs de l'information et les moyens alternatifs par les différentes communautés Open source, me permet de préciser des choix possibles. On peut deviner que Google va anéantir l’hétérogénéité d'Internet par la diffusion de mêmes informations sous différentes formes, les recherches que nous faisons nous emmènent sur les sites Web les plus visités et pas forcément les plus pertinents, que va-t-il en être dans cinquante ans ? le Web qu'on connaît aujourd'hui va-t’il perdurer ?

Ce mémoire n’est pas principalement sur l’édition numérique, mais plutôt l’édition à l’ère du numérique : son ambition est de donner un aperçu de l’impact non seulement des outils, mais plus largement de la culture numérique sur l’édition. Nous sommes désormais devenus dépendants du confort de leurs infrastructures, de leurs interfaces difficilement modifiables, et des choix qu’elles opèrent à notre place. En tant que jeune futur designer graphique, je me positionne comme un créateur de visuel, d'interaction, mais aussi comme un concepteur de systèmes et d'outils, ce qui me permet une certaine indépendance en termes de réflexion, mais aussi dans la constitution d'un processus créatif. J'ai la possibilité d'utiliser la logique d'un logiciel tout comme de créer mon propre système, mais cela dépend de la commande, du projet, le ratio temps/technique est constamment considéré.
Par cette centralisation des moyens numériques, une homogénéité de la créativité peut être dangereuse. Il est nécessaire pour le créateur de connaître les outils qu’il emploie et d'avoir conscience de ce que cela induit.

Bibliographie


Ouvrages

●Mattelart Armand, Histoire de la société de l'information, (5ème éd.), Éd. la Découverte (Repères) Paris, 2001
●dir. Migayrou Frédéric, Coder le monde, Mutations/Créations 2, Orléans, Éditions HYX, 2018
●Chartier Roger, Les usages de l'imprimé, XVe-XIXe siècle [Alain Boureau, Roger Chartier, Marie-Élisabeth Ducreux, Christian Jouhaud,... et al.] ; sous la dir. de Roger Chartier, Fayard, 1987
●Ludovico Alessandro, Post-Digital Print, La mutation de l'édition depuis 1984, Éd. B42, 2012
●Cardon Dominique, À quoi rêvent les algorithmes, Nos vies à l'heure des big data, Éd. Su Seuil et La République des Idées, Paris, 2015
●Rubin Dan, Back office N°3, Éditions B42, 2019
●Marie-France Laberge, Nouveaux médias et transformation des pratiques de lecture
●Casilli Antonio A,Les liaisons numériques, Vers une nouvelle sociabilité, Éd. du Seuil, coll. La Couleur des Idées, 2010
●Biagini Cédric et Carnino Guillaume, Le livre dans le tourbillon numérique, Le Monde Diplomatique, N°666, 2009
● Pratique de l'édition numérique, Marcello Vitali-Rosati et Michael E. Sinatra, Presse de l'université de Montréal, 2014
● Florian Cramer, Pierre Cubaud, Marin Dacos, Yannick James, Annick LantenoisLire à l’écran, Contribution du design aux pratiques et aux apprentissages des savoirs dans la culture numérique, Éd. B42, , 2011
●Fauchié Antoine, Parisot Thomas, Science & Design, Éditions numérique, N°8, Éditions PUF, 2018
●Chartier Roger, Dossier Demain Le livre, Livres hebdo, N°787, 2009
●Kessous Emmanuel, L'attention au monde, Sociologie des données personelles à l'ère numérique, Coll. Recherches, Éditeur Armand Colin, 2012
●Donnot Kevin,La maison prison des logiciels, graphiques, Graphisme en France, code = outils = design, 2012, p.06
● Article écrit par Antoine Fauchié, Workshop PrePostPrint, Chercher, manipuler,partager, imprimer, 2017

sites Web

●Joignot Frédéric, Les 30 ans du Web : de l’utopie à un capitalisme de surveillance, Le monde, 2019
https://www.lemonde.fr/pixels/article/2019/02/14/les-30-ans-du-web-de-l-utopie-a-un-capitalisme-de-surveillance_5423578_4408996.html
●Drulhe Louise, The Critical Atlas of the Internet, 2015, http://internet-atlas.net/
●http://www.parcoursnumeriques-pum.ca/la-fonction-editoriale-et-ses-defis
●Mathias Chaillot,La folle évolution du stockage informatique, https://www.capital.fr/economie-politique/
●Darnton, Robert, La bibliothèque universelle, de Voltaire à Google, Le Monde Diplomatique, 2009

Remerciements

Je tiens à remercier
_Emmanuel Cyriaque, pour sa patience, pour son regard sur mes écrits, ainsi que les relectures
_Nicolas Tilly, pour les diverses ressources et techniques qui m'ont permis de construire mon système autant pour le print que le Web
_Marie Danse & Angélique Swierczynski, pour les relectures et corrections de dernière minute.
_Basile Jesset & Léa Fernandes, pour la gestion des commandes de papier.
_Alexandre Esteves, pour son aide à la reliure,
_Anthony Panie, pour son regard sur la mise en page.
_Manon Marchand pour son soutiens tout au long de l'écrit, de la mise en page et du façonnage.

Colophon

Cet objet imprimé est le mémoire de Dnsep mention design visuel / graphique conçu par Antoine Souvent en Décembre 2019 à l'ÉSAD d'Orléans

Enseignants encadrant
L'écriture du texte a été encadré par Emmanuel Cyriaque.
Le travail de mise en page ainsi que le système webtoprint a été supervisé par Nicolas Tilly

Dimensions : 190 x 230 x 15mm
Nombre de pages : 84 pages
Typographies: Atlas Grotesk & Atlas Typewriter, 2012, Fonderie : Commercial Type, Kai Bernau & Susana Carvalho avec Christian Schwartz

Papier : Keaykolour Recycled, calcaire, 120g/m2, chiné, 100% recyclé
Couverture : Curious Matter i-Tone®, Black Truffle, 270g/m2, mat
Impression : CMJN laser
Reliure : Broche reliure d'archivage
Découpe : Plotter, Silhouette Portrait
Page Web : http://antoinesouvent.fr/ctrl+p/index.html


Achevé d'imprimer à l'ÉSAD Orléans, 2020

QR Code