test
Design et Culture Numérique
Deux mille vingt trois
Université de Nimes
███████╗██████╗ ██╗████████╗ ██████╗ ██╔════╝██╔══██╗██║╚══██╔══╝██╔═══██╗ █████╗ ██║ ██║██║ ██║ ██║ ██║ ██╔══╝ ██║ ██║██║ ██║ ██║ ██║ ███████╗██████╔╝██║ ██║ ╚██████╔╝ ╚══════╝╚═════╝ ╚═╝ ╚═╝ ╚═════╝
Pour son projet thématique de l'année 2023-2024, l'option Design et Cultures numériques de la Licence Design de l'Université de Nîmes réalise un objet éditorial en web-to-print. Les textes réunis sont sélectionnés en fonction du cadre pédagogique et des thématiques de travail des étudiant·es qui en rédigent la présentation. Cet ouvrage est le premier livre imprimé édité et composé avec l'outil collaboratif BOOKOLAB.
Ces textes donnent lieu à une expérimentation à visée pédagogique dont l'objet est de permettre aux étudiant·es de mieux appréhender les métiers associés aux domaines de la conception éditoriale, graphique, de l'impression numérique, et du façonnage. Portant un intérêt particulier à l'enjeu actuel de la multiplicité des conditions d'accès à un même contenu et à la diversité des supports de lecture, ce projet constitue également une initiation aux techniques de conception graphique et éditoriale multisupport. La composition graphique de ce recueil a été entièrement réalisée avec les outils et technologies du web (html, css). Une version web existe également.
La conception de la mise en page d'un ouvrage avec les technologies du web permet une découverte de la programmation au service d'une pratique graphique. Cette initiation est assurée par un membre du collectif de designers graphiques Bonjour Monde. Ces dernières années, un intérêt pour la programmation, le hack et les valeurs du logiciel libre a émergé chez certain·es designers graphiques. L'utilisation de techniques et outils libres pousse à faire un pas côté dans l'écosystème de création, quitte à assumer une certaine maladresse mais non sans contrepartie.
Inscrivant leur métier dans la tradition de garant de l'accessibilité à l'information, ces designers rejoignent des valeurs issues de la culture des logiciels libres. Le code ouvert, la possibilité de le modifier et de se l'approprier sont considérées comme une condition inaliénable d'accessibilité. Le code devient matière de création au même titre que la typographie et le texte.
Outre l'enjeu de création du design graphique libre qui, adoptant des méthodes encore peu usitées, conçoit des objets graphiques singuliers, cette initiation aux langages standards du web est aussi l'occasion d’expérimenter un processus de création dit en single source publishing qui permet de faire d'une page web un livre et qui constitue un enjeu majeur face aux mutations des pratiques de lecture. Considérant l'imprimé comme un support parmi d'autres, tels que l'écran d'ordinateur ou le petit écran mobile, la conception éditoriale en single source publishing vise à décliner la mise en forme d'un même contenu sémantique (au format html) au moyen de feuilles de style spécifiques, adaptées aux différents supports de lecture. En modifiant leur chaine de travail, les designers sont en mesure de garantir l'accessibilité d'un contenu (texte, information) tout en maitrisant la pérennité et l'interopérabilité des technologies mobilisées pour sa diffusion.
Les objectifs pédagogiques adressent plusieurs aspects du design.
Le recueil est produit en plusieurs exemplaires à destination strictement non commerciale, destinés aux étudiant·es, à la bibliothèque et aux archives de la filière design de l'université de Nîmes, aux responsables pédagogiques de l'établissement et aux enseignant·es de l'option. Ils peuvent en outre être présentés dans des manifestations visant à valo-riser l'offre pédagogique de l'université de Nîmes (tel que des salons étudiants, journées portes ouvertes).
Lucile Haute █▓▒▓█▀██▀█▄░░▄█▀██▀█▓▒▓█ █▓▒░▀▄▄▄▄▄█░░█▄▄▄▄▄▀░▒▓█ █▓▓▒░░░░░▒▓░░▓▒░░░░░▒▓▓█ & Benjamin Dumond █▓▒▓█▀██▀█▄░░▄█▀██▀█▓▒▓█ █▓▒░▀▄▄▄▄▄█░░█▄▄▄▄▄▀░▒▓█ █▓▓▒░░░░░▒▓░░▓▒░░░░░▒▓▓█
Toute l’information imaginable semble accessible en quelques clics et nos ap-pareils nous sollicitent sans cesse pour orienter nos choix dans cet univers infini. Ce fai-sant, le numérique change
la manière dont nous sommes attentifs à ce qui nous occupe et à ce qui nous entoure. Nous avons interrogé Yves Citton sur la portée de ce change-ment et sur le rôle propre
qu’y jouent les nouveaux médias. Ils s’y révèlent ambivalents, et laissent
dès lors prise au politique
et à l’engagement.
Interview de Yves Citton par Thomas Lemaigre dans La Revue Nouvelle 2016/8 (N° 8)
Toute l’information imaginable semble accessible en quelques clics et nos ap-pareils nous sollicitent sans cesse pour orienter nos choix dans cet univers infini. Ce fai-sant, le numérique change
la manière dont nous sommes attentifs à ce qui nous occupe et à ce qui nous entoure. Nous avons interrogé Yves Citton sur la portée de ce change-ment et sur le rôle propre
qu’y jouent les nouveaux médias. Ils s’y révèlent ambivalents, et laissent
dès lors prise au politique
et à l’engagement.
La Revue Nouvelle : Quel est
le cheminement intellectuel parcouru pour arriver à cette notion d’écologie de l’attention, au cœur de vos travaux des dernières années ?
Yves Citton : Je viens de la littérature et d’une réflexion de théorie littéraire sur
ce qu’est lire et en quoi les livres ne sont vivants que dans la mesure où des lec-teurs ou des collectivités
y investissent de l’intérêt,
de l’attention et du temps.
Un livre existe parce que quelqu’un l’interprète et en fait quelque chose. Se crée alors une dynamique entre
lui et le médium, qui est mort
en tant que tel, mais qui a pu anticiper notre attention.
Vous pourriez vous dire que c’est de la communication, mais si vous regardez tout cela du point de vue de la lit-térature, vous vous apercevez qu’il se passe plein d’autres choses — surtout si quelqu’un écrit en 1720 et qu’on le lit
en 2016. Il y a une puissance d’agir propre au médium
et cela vaut pour tous les médias, au sens très large, pas seulement les médias
de masse. C’est cette puis-sance qui m’intéresse.
Les médias sont dépendants de l’attention humaine et l’on pourrait se dire que nous tous, en tant que spectateurs, nous avons un pouvoir énor-meen fait souvent un emblème
de passivité, regarder un film
ou une série TV est bien une
forme d’activité. Politique-regarder un film ou une série TV est bien une forme d’activité. d’hui, la façon dont nous
voyons le monde (et non la façon dont nous voyons le monde (et non seulement les écrans) prend des formes et des contenus qui lui viennent de ce qui est filtré par les médias.forme d’arbres, à tel animal plutôt qu’à tel autre, à telle couleur plutôt qu’à telle
autre.
C’est vraiment l’interface entre médias et attention qui m’intéresse : les médias sont des appareils qui transportent des enregistrements, des filt-rages de données sensibles
Les médias sont dépendants de l’attention humaine et l’on pourrait se dire que nous tous, en tant que spectateurs, nous avons un pouvoir énor-me parce que nous regardons la télévision. Même si l’on
en fait souvent un emblème de passivité, regarder un film ou une série TV est bien une forme d’activité. Politique-ment, cette idée me semblait intéressante. Par ailleurs,
il faut reconnaître que dans l’autre sens, de facto aujour-d’hui, la façon dont nous voyons le monde (et non seulement les écrans) prend des formes et des contenus qui lui viennent de ce qui est filtré par les médias. Même lorsque je regarde une forêt, j’ai en tête des images de re-portage à la Walt Disney qui m’ont rendu sensible à telle forme d’arbres, à tel animal plutôt qu’à tel autre, à telle couleur plutôt qu’à telle
autre.
C’est vraiment l’interface entre médias et attention qui m’intéresse : les médias sont des appareils qui transportent des enregistrements, des filt-rages de données sensibles
et intellectuelles, et ces appa-reils sont investis par une attention qui va elle-même filtrer, choisir, sélectionner
ce qui vient du médium.
Ce sont des rapports très complexes parce que le mé-dium même impose certaines choses et, en même temps, dans ce qui est imposé,
le spectateur a toujours une certaine marge d’activité.
C’est une approche que
le chercheur Stanley Fish
a poussée jusqu’au bout
en disant que le texte ne nous impose aucune signification,le texte ne nous impose aucune signification, que ce sont toujours les
« communautés interprétatives » qui construisent tel ou tel sens dans le texte.la loi ou les textes sacrés :
la loi n’est que ce qu’en fait
le juge, qui doit toujours l’in-terpréter. Il s’agit donc d’un regard à la fois très subversif et très émancipateur, parce que cela veut dire que c’est nous en tant qu’interprètes qui tenons le marteau par
le manche.
et intellectuelles, et ces appa-reils sont investis par une attention qui va elle-même filtrer, choisir, sélectionner
ce qui vient du médium.
Ce sont des rapports très complexes parce que le mé-dium même impose certaines choses et, en même temps, dans ce qui est imposé,
le spectateur a toujours une certaine marge d’activité.
C’est une approche que
le chercheur Stanley Fish
a poussée jusqu’au bout
en disant que le texte ne nous impose aucune signification, que ce sont toujours les « communautés interpréta-tives » qui construisent tel
ou tel sens dans le texte.
Il parlait d’abord en tant que critique littéraire, mais en fait cela se comprend aussi pour le numérique, et même pour la loi ou les textes sacrés :
la loi n’est que ce qu’en fait
le juge, qui doit toujours l’in-terpréter. Il s’agit donc d’un regard à la fois très subversif et très émancipateur, parce que cela veut dire que c’est nous en tant qu’interprètes qui tenons le marteau par
le manche.
RN : Comment cette interaction entre le médium et son utilisateur mute-t-elle avec les technologies de l’information ?
YC : J’aime bien l’idée de mutation.
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
mutation
Que veut dire mutation ? Que l’on ne part pas de rien, il ne s’agit pas de création ex nihilo. Il y avait quelque chose, mais cette chose, qui est là depuis longtemps, change suffisam-ment de caractéristiques pour avoir l’air de changer de na-ture. Il y a toujours eu, j’imagine, un sentiment de la part des humains que la vie est courte, que l’on aimerait faire plein de choses et que l’on n’en a pas le temps. On trouve
à toutes les époques de l’histoire des gens qui s’inquiètent
de ce déferlement de savoirs, de textes, etc. Comment peut-on s’y retrouver ?
La logique à l’œuvre a été très bien décrite par le chercheur et critique d’art Jonathan Crary à propos de la période 1860-1890. Il montre qu’il s’y passe toute une série de choses sur l’attention. D’une part, le travail en usine force les contre-maîtres et les patrons à contraindre l’attention et la concen-tration des ouvriers. Puis, il faut vendre cette production,
et donc capter l’attention flottante des consommateurs par
la réclame. C’est aussi le moment où se mettent en place, surtout en Allemagne, des mesures très précises des capaci-tés physiques du système nerveux humain : à partir de quelle vitesse on voit passer un objet, à partir de quelle fréquence on entend un son, etc. On prend le système sen-soriel humain comme une sorte de machine qui détecte,
ou non, certains phénomènes et l’on mesure cela précisé-ment. Enfin, toujours à cette époque, se développent plein
de nouveaux médias comme le télégraphe, le téléphone,
le cinéma, puis la radio, la télévision, ainsi que d’autres qui ont rapidement disparu. mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation mutation
Ce sont là de nouvelles machines pour distraire,
au sens étymologique : je suisje suis ici, mais mon attention est tirée loin d'ici.niques va exploser à travers tout le XXe siècle pour nous rendre attentifs à des choses qui sont dans d’autres es-paces-temps, aux JO de Rio en ce moment même, ou dans un vieux film d’Orson Welles. Cela existait déjà avant : lire un roman était déjà « se dis-traire », aller dans un autre espace-temps, mais l’industri-alisation, la publicité, les nou-veaux médias, et la capacité
à mesurer très précisément les capacités du système nerveux humain, cela amène une nouvelle dynamique, déjà une mutation.
Ce sont là de nouvelles machines pour distraire,
au sens étymologique : je suis ici, mais mon attention est ti-rée loin d'ici. Cette « distrac-tion » par des moyens tech-niques va exploser à travers tout le XXe siècle pour nous rendre attentifs à des choses qui sont dans d’autres es-paces-temps, aux JO de Rio en ce moment même, ou dans un vieux film d’Orson Welles. Cela existait déjà avant : lire un roman était déjà « se dis-traire », aller dans un autre espace-temps, mais l’industri-alisation, la publicité, les nou-veaux médias, et la capacité
à mesurer très précisément les capacités du système nerveux humain, cela amène une nouvelle dynamique, déjà une mutation.
Nous vivons une autre mutation, disons à partir des années 1970 où apparaît cette notion de surcharge informationnelle. Des chercheurs et des artistes prennent vraiment conscience de cela, comme Richard Serra et sa vidéo Television delivers people en 1973. Vingt ans plus tard, internet se déploie comme une sorte de médiathèque infinie… Le sentiment d’épuisement de l’attention devient de plus en plus intense.
Il convient à ce propos de distinguer deux logiques : il y a la surcharge informationnelle par opportunité et la surcharge par sollicitation. Je regarde cette vidéo sur Youtube alors qu’il y en a des millions d’autres dont je sais que beaucoup seront sans doute mieux que celle-ci. Donc je vais en regar-der trente secondes, puis je vais zapper… C’est la surcharge par opportunité, une première mutation qui fait que cela s’accélère, que nous sommes de plus en plus impatients face à la pression qualitative. Si j’ai accès à trois films, ce ne sera pas difficile de choisir celui qui me plaît le plus, si j’en ai deux millions, ce sera plus compliqué. Mais cet embarras
du choix, pour moi, ce n’est pas le plus important.
L’autre surcharge, ce sont les sollicitations : ce n’est pas uni-quement moi qui peux aller prendre ces contenus, beaucoup sont poussés vers moi, et je suis même sommé de répondre. Le philosophe italien Maurizio Ferraris parle de « mobilisa-tion totale ». Nous sommes vraiment assiégés par nos appa-reils connectés. Les barrières se brouillent entre les diffé-rentes sphères de l’existence du fait qu’il y a trop de sollici-tations pour que, avec les quelques heures de veille dont
on dispose chaque jour, l’on puisse répondre à toutes.
La mutation, c’est le fait qu’il ne s’agit plus seulement pour moi, à un moment donné, d’avoir le meilleur film, mais
de répondre ou non au médium qui m’en informe, avec éventuellement des conséquences pas du tout anodines, comme de me faire virer de mon travail, d’être impoli,
ou encore de sous-cultiver ma notoriété et, de ce fait, renoncer à un revenu futur. Surcharge par opportunité
et par sollicitation jouent en un continuum très étendu
de formes de pouvoir sur mon attention. On peut donc parler de mutation au sens de phénomènes quantitatifs qui ont des transformations qualitatives, parce qu’au bout d’un moment de ce jeu, certains peuvent se retrouver tellement épuisés qu’ils tombent en dépression ou en « burn-out numérique ».
RN : N’y a-t-il pas là un para-doxe de la part de ces opéra-teurs culturels ou médiatiques dominants, qui poussent l’accélération de ces notifi-cations, donc qui tendent
à susciter cet épuisement,
alors que le médium nécessite
un utilisateur subjectivement impliqué et actif ?
YC : Cette mutation
de l’activité du lecteur, c’est en quelque sorte le passage du livre ou du web 1.0
à l’internet d’aujourd’hui, dans lequel on a introduit l’interactivité. Non seule-ment vous accédez à ce qui est posté, mais vous pouvez y répondre, vous pouvez vous-même poster vos propres contenus, etc. Mais le numérique comme tel n’est pas seul en cause. Cela devient intéressant quand,
à l’intérieur du numérique, on arrive à classifier un peu les choses. Si l’unidirection-nalité des mass médias
se renverse et que chacun devient le média de l’autre en produisant de la matière qui va nourrir l’intelligence collective, c’est plutôt positif, c’est une sorte de démocrati-sation merveilleuse. C’est central dans le numérique,
et il faut le cultiver.
En même temps, on en voit plutôt la face sombre, à sa-voir que nous devons parti-ciper et nous exprimer,
et donc chaque fois que l’on regarde quelque chose
se produit une sorte d’injonction, il faut que
tu répondes et que
tu montres que tu existes.
Le paradoxe, c’est justement l’ambivalence que porte chaque évolution : il y a des tendances qui sont tout
à fait dangereuses et d’autres qui sont merveilleuses.
Intervient ici la notion de subjectivité computation-nelle. Se construire soi-même comme sujet, cela
se fait à travers des condi-tionnements, des conditions de communication, de pen-sée, de survie, et c’est
à l’intérieur de nos échanges avec nos semblables et dans notre environnement que nous construisons chacun notre singularité.
Il s’agit désormais de reconnaître que les médias numériques jouent un rôle de plus en plus important, au point de restructurer nos subjectivations. Il s’agit de comprendre en quoi être sujet en 2016 et en 1970, c’est quelque chose de différent, parce qu’un téléphone portable connecté est différent d’un téléphone par ligne fixe.moins cher, etc. Et en même temps — et la distinction
va être là —, on va produire des traces instantanées. Il y a là quelque chose d’absolu-ment nouveau pour l’histoire de l’humanité : tout ce que l’on fait avec le numérique laisse des traces, dont plein d’acteurs ont intérêt à s’em-parer, même sans avoir accès au contenu même, à ce qui s’est dit au téléphone dans notre exemple. Il est clair que quand vous envoyez un cour-riel avec Gmail, il y a un enre-gistrement automatique extérieur aux deux communi-cants. Il y a toujours un tiers.
Il s’agit désormais
de reconnaître que les médias numériques jouent un rôle
de plus en plus important,
au point de restructurer nos subjectivations. Il s’agit
de comprendre en quoi être sujet en 2016 et en 1970, c’est quelque chose de différent, parce qu’un téléphone por-table connecté est différent d’un téléphone par ligne fixe. Il y a des choses que l’on peut toujours faire ensemble, comme parler avec un parent lointain, et le progrès tech-nique rend cela plus facile, moins cher, etc. Et en même temps — et la distinction
va être là —, on va produire des traces instantanées. Il y a là quelque chose d’absolu-ment nouveau pour l’histoire de l’humanité : tout ce que l’on fait avec le numérique laisse des traces, dont plein d’acteurs ont intérêt à s’em-parer, même sans avoir accès au contenu même, à ce qui s’est dit au téléphone dans notre exemple. Il est clair que quand vous envoyez un cour-riel avec Gmail, il y a un enre-gistrement automatique extérieur aux deux communi-cants. Il y a toujours un tiers.
C’est quelque chose que notre vocabulaire n’a pas encore intégré : la « donnée » est une forme de prise. Les données ne sont jamais données, elles se trouvent être des données parce que quelqu’un a jugé bon de les prendre. Dès lors,
si chaque fois que l’on avait un énoncé avec le mot « don-née », on le remplaçait par « prise », cela donnerait des effets politiques tout à fait intéressants. On retrouve
là l’ambivalence déjà évoquée : les données, c’est le don, c’est le gratuit, c’est merveilleux de donner sans compter, etc., mais rappelons-nous que si les données ont été prises, elles ont été prises pour des raisons précises, qui appartiennent en général soit à des forces de police, soit à des forces commerciales du marché capitaliste.
RN : Après Snowden,
on ne peut plus réfléchir à ces questions de la même manière, même si internet n’est plus concevable sans ces « prises » de données. Mais voyez-vous aussi à l’œuvre d’autres logiques des big data que celles du contrôle sécuritaire et des superprofits financiers ?
YC : Il y a de plus en plus
de prises qui sont artis-tiques, tout un art qui
se développe sur les métadonnées, sur ce jeu entre données et prises. J’ai beaucoup d’admiration
et de grands espoirs que par des moyens artistiques nous puissions à la fois mieux comprendre ce qui se passe et ce que l’on pourrait faire. On constate quand même
un déficit assez catastro-phique en la matière de la part des politiques, alors que justement du côté écono-mique, Gafam1 et autres sont bien en avance vu les attentes de profit que nourrissent ces formes d’économie.
Un enjeu est notamment
de situer le rôle de chacun, du quidam. C’est justement en tant que n’importe qui que mes données valent quelque chose parce que n’importe qui, on peut
le transformer en statis-tiques, et qu’en même temps c’est ma singularité que l’on vise et que l’on calcule. Pour les big data, nous sommes tous des quidams singula-risés. Et l’on retrouve toujours la même ambi-valence : chacun fait partie
à la fois de ce qui est exploité et de ce qui exploite, chacun est soumis aux médias
et chacun a une certaine marge de pouvoir sur eux. Notre subjectivité computa-tionnelle est clivée. Il s’agit de ne pas trop s’exploiter les uns les autres et finalement de ne pas trop s’exploiter soi-même…
RN : Vous distinguez plusieurs types d’attention, notamment l’attention collective, c’est-à-dire le fait que nous baignons tous dans un certain nombre de discours et de formats portés par nos médias, et qui cadrent les jeux de notre attention individuelle
et de notre attention conjointe (en groupe). Vous parlez même d’« envoûtement médiatique », pour traduire comment cette attention collective surplombe chacun et nous imprègne. Mais
ce contenu, dans l’air du temps, n’est-il pas lui aussi clivé, variable en fonction d’où chacun se situe dans la société ? Il suffit de vivre avec des adolescents pour se rendre compte que tout le monde
ne vit pas dans la même économie de l’attention. Ne conviendrait-il pas de parler d’« économies des attentions » ?
YC : Sans doute. Mais il n’est pas complètement idiot
de parler de l’attention au singulier. Le penseur allemand Georg Franck a écrit l’un des premiers ouvrages qui s’intitulait L’économie de l’attention en 1998. Il y part certes
du constat qu’il n’y a que des attentions dont les objets, les régimes, les qualités, les intensités, etc., sont tellement différents que l’on ne peut pas les comparer : être attentif
à un film, être attentif à la route quand vous conduisez, être attentif quand vous lisez un roman, être attentif à un ami malade, tout cela est trop irréductible, il y a à priori une multiplicité d’attentions hétérogènes, hétéroclites, etc. Mais si Franck parle d’économie de l’attention au singulier, c’est qu’il est en train de se passer quelque chose de nouveau parce qu’émerge une mesure homogénéisatrice de l’atten-tion. Le meilleur exemple d’une telle mesure, c’est Pagerank de Google, l’algorithme qui édite les pages de résultats
de vos recherches, qui décide quels items s’affichent, dans quel ordre et aussi comment cela va se monnayer. Si vous êtes Brad Pitt beaucoup de gens parlent de vous, vous pouvez faire de la pub et vous êtes payé des millions
à l’heure. Si vous n’êtes pas Brad Pitt vous ne serez pas payé, etc. Si vous recherchez « tomate » ou votre nom
de quidam, vous générerez des flux d’argent tout à fait différents. C’est quelque chose comme une mesure mondialisée, qui homogénéise toutes les différences
et qui lie une certaine valeur à notre attention.
RN : Nous avons l’habitude d’opposer attention et distraction. Vous vous méfiez de cette vision de l’attention. Pourquoi ?
YC : Il me semble que c’est une vision qui nous emmène dans des discours néoréac-tionnaires parce qu’elle contient un manichéisme simplificateur : « C’est bien d’être attentif ou concentré sur quelque chose et c’est mal d’être distrait ». J’y vois une trace de ce que pointe Jonathan Crary à propos
de l’industrialisation au XIXe siècle : c’est vraiment une position de patron et de contremaître, « je veux que dans mon usine les gens soient attentifs, parce que j’ai des ennuis s’ils commencent
RN : Nous avons l’habitude d’opposer attention et distraction. Vous vous méfiez de cette vision de l’attention. Pourquoi ?
YC : Il me semble que c’est une vision qui nous emmène dans des discours néoréac-tionnaires parce qu’elle contient un manichéisme simplificateur : « C’est bien d’être attentif ou concentré sur quelque chose et c’est mal d’être distrait ». J’y vois une trace de ce que pointe Jonathan Crary à propos
de l’industrialisation au XIXe siècle : c’est vraiment une position de patron et de contremaître, « je veux que dans mon usine les gens soient attentifs, parce que j’ai des ennuis s’ils commencent
La concentration n’est ni un bien ni un mal en soi, c’est juste un mode d’attention parmi d’autres, avec ses forces et ses limites. Je préfère parler de différentes qualités et situ-ations attentionnelles.
La question n’est plus d’être attentif contre distrait, dans
le bien contre le mal, mais
de savoir quelles bonnes attentions développer dans
La concentration n’est ni un bien ni un mal en soi, c’est juste un mode d’attention parmi d’autres, avec ses forces et ses limites. Je préfère parler de différentes qualités et situ-ations attentionnelles.
La question n’est plus d’être attentif contre distrait, dans
le bien contre le mal, mais
de savoir quelles bonnes attentions développer dans
telle circonstance. Et il se peut que cela ressemble à de la dis-traction. Il y a un véritable nuancier des attentions que chacun agence en fonction des circonstances. Les neuro-scientifiques comme Jean-Philippe Lachaux montrent que pour un système nerveuxpour un système nerveux humain, y compris l’appareil sensoriel, c’est un régime tout à fait exceptionnel d’être concentré sur une seule chose à la fois.ce qui est de l’ordre du fond
et ce qui est de l’ordre de la figure qui en émerge.
Il ne faut pas réduire l’atten-tion à une question de sail-lance : quelque chose qui s’impose à notre attention, comme une sirène de pom-piers, une lumière qui clignote, etc., en rapport avec un impératif de survie. Le tra-vail de l’attention, c’est juste-ment, hors situation évidente de saillance, d’ex-traire d’un fond quelque chose qui va être une figure. On en revient directement au numérique, aux écrans et à la surcharge informationnelle par solli-citation. Tel message, fond et forme, qui nous sollicite à travers les écrans, a-t-il
telle circonstance. Et il se peut que cela ressemble à de la dis-traction. Il y a un véritable nuancier des attentions que chacun agence en fonction des circonstances. Les neuro-scientifiques comme Jean-Philippe Lachaux montrent que pour un système nerveux humain, y compris l’appareil sensoriel, c’est un régime tout à fait exceptionnel d’être concentré sur une seule chose à la fois.La fonction première est d’être sensible à plein
de choses en même temps
et de constamment décider
ce qui est de l’ordre du fond
et ce qui est de l’ordre de la figure qui en émerge.
Il ne faut pas réduire l’atten-tion à une question de sail-lance : quelque chose qui s’impose à notre attention, comme une sirène de pom-piers, une lumière qui clignote, etc., en rapport avec un impératif de survie. Le tra-vail de l’attention, c’est juste-ment, hors situation évidente de saillance, d’ex-traire d’un fond quelque chose qui va être une figure. On en revient directement au numérique, aux écrans et à la surcharge informationnelle par solli-citation. Tel message, fond et forme, qui nous sollicite à travers les écrans, a-t-il
été voulu comme une sail-lance ou comme un support au travail actif de l’attention créatrice ? Ce n’est pas l’écran comme tel qui fait problème, c’est ce qui y est proposé comme écologie de l’attention, comme situations et comme qualités attentionnelles.
été voulu comme une sail-lance ou comme un support au travail actif de l’attention créatrice ? Ce n’est pas l’écran comme tel qui fait problème, c’est ce qui y est proposé comme écologie de l’attention, comme situations et comme qualités attentionnelles.
RN : Repartons de l’idée très générale que l’être humain occidental de 2016 est tout
le temps pris entre ses limites
et sa volonté de les dépasser, entre son souci et sa crainte
de l’autonomie. Les promesses d’autoaccomplissement des individus et d’autoconstruction de la société sont des principes actifs des réalités de notre modernité. Au vu de tout cela, ces idées de subjectivation computationnelle, de surcharge par sollicitation et de commen-surabilité de tous les types d’attention relèvent-elles toujours de cette modernité-là ? Ou sommes-nous en train
de passer dans un autre régime ?
YC : Katherine Hayles est une chercheuse américaine qui a très bien décrit les ambivalences de la place des médias dans nos régimes d’attention. Elle critique ainsi le projet trans-humaniste : pour elle, cette idée de télécharger son cerveau sur un ordinateur
et ensuite le transférer dans un autre corps, jeune, pour devenir immortel, etc., c’est nier la complexité de la con-naissance humaine, qui est une connaissance corporée. Notre attention est embar-quée dans un corps sensible au plaisir, à la douleur, à la beauté. Or ces sensibilités sont filtrantes. L’humain construit à travers elles toutes ses connaissances.
Le corps n’est pas réductible
à une prothèse du cerveau,
il n’en est pas séparable.
C’est avec cette grille de lecture qu’il convient d’examiner
ce que j’appelle l’exoattention, qui peut donner un morceau de réponse sur l’enjeu de l’autonomie. De quoi s’agit-il ? Cela s’ancre dans cette idée que depuis le paléolithique toute l’histoire de l’humanité peut être comprise comme l’histoire d’habiletés qui étaient d’abord corporées, mais que les humains arrivent à extérioriser sous la forme d’outils. Qu’est-ce qu’un silex ? C’est un ongle plus puissant.
On extériorise la mémoire à travers l’écriture, la capacité d’entendre à travers l’enregistrement par gramophone, etc. Jusqu’à présent et pour simplifier, on extériorisait des enregistrements bruts de tout filtrage : le micro ne sélectionne pas, parmi tout ce qui se passe, ce qui est pertinent ou pas.Votre écoute maintenant, elle, sélectionne ce que je dis et ne fait pas attention au bruit de fond, alors qu’un micro enregistrerait au même niveau ce bruit et nos voix. L’attention est restée le propre de l’humain.
Mais depuis cinq ans, on crée des algorithmes qui pratiquent l’apprentissage profond, le deep learning. Il s’agit de fournir plein de données à une machine — avec les big data c’est facile, on en récupère partout — et ces algorithmes font émerger, non pas la signification, mais des corrélations. À partir d’un certain point, ces corrélations émergent
« toutes seules », sans que les humains aient besoin de dire à la machine à quoi faire attention. Or le travail de l’atten-tion, c’est exactement cela, vous avez un champ de données sensibles, de stimulus, vous les traitez avec plusieurs filtres différents, ce qui génère des figures qui s’extraient d’un fond. Jusqu’à présent seuls les humains pouvaient le faire. Depuis moins d’une dizaine d’années, grâce à la combinai-son d’algorithmes, des big data, d’énormes puissances
de calcul et des gens intelligents qui arrivent à concevoir
et utiliser cela, Amazon, Google, la NSA, etc., fonctionnent tous à cela. L’exoattention a donc extrait de nous, de nos corps, de nos subjectivités, cette aptitude à distinguer les figures d’un fond, soit une partie de l’interface même entre soi et le monde qu’est l’attention.
C’est de nouveau quelque chose d’ambivalent. Soit c’est la fin de l’humain parce que ce qui fait son essence, c’est juste-ment de rendre certaines choses pertinentes ou pas. Nous serions alors en train de basculer dans le transhumain
ou dans le posthumain. Soit l’extériorisation nous laisse toujours dans une position autonome, à la fois en amont parce que c’est nous qui fabriquons ces algorithmes, ces données, ces ingénieurs et ces industries, et également
en aval, où il y a de l’humain qui interprète tout cela, qui
y donne sens. Personne ne me force à acheter ce qu’Amazon a décrété être bon pour moi.
Cela deviendrait vraiment dangereux là où justement je ne pourrais plus choisir parmi les sollicitations que m’envoie Amazon, là où je serais forcé de brancher mes yeux ou mes oreilles sur certaines figures. Il y a un épisode2 d’une série de la BBC Black Mirror, où, dans un monde dystopique, les habitants n’ont plus le choix de se débrancher d’images violentes, de publicité, de sexe, etc. Pour pouvoir choisir
ce qu’ils voient, ils doivent payer. Cela illustre à merveille
un danger potentiel de cette nouvelle exoattention.
À l’inverse, il me semble que nous avons vraiment besoin
de l’exoattention, par exemple pour savoir quelles sont les conséquences environnementales de nos actions, lorsque
je règle mon thermostat, lorsque j’achète tel type de pommes venant du Chili, etc. L’exoattention, cela peut me donner accès à des plans de réalité que je n’ai pas les moyens d’appréhender, moi tout seul et tout petit, des analyses qui se calculent sans que je le sache et qui dépassent complè-tement la conscience personnelle. On peut tout à fait le faire aujourd’hui. Avec une application comme BuYCott, vous pouvez savoir en scannant le code-barre d’un produit s’il
a été produit dans des conditions sociales ou environnemen-tales éhontées. Oui, l’exoattention impliquera la prise
de données, du contrôle, mais si cela nous rend les trans-formations climatiques moins calamiteuses, pourquoi pas ?
RN : Et avec une complexité particulière. Si l’on reprend l’exemple du silex, vous et moi on peut — cela va peut-être prendre du temps — apprendre à en fabriquer un, taillé comme il faut, etc. Alors que programmer des algorithmes…
YC : Ce n’est pas cela qui me préoccupe. Programmer des algorithmes, maintenant, il se trouve des ressources pour l’apprendre ou pour payer les gens qui savent le faire. Je ne désespère pas que l’on puisse s’éduquer les uns les autres pour que l’on soit tous un peu hacker en amateur, c’est même un des impératifs de l’éducation du XXIe siècle.
Ce qui me préoccupe, c’est que l’exoattention s’appuie sur des objets technologiques comme des circuits intégrés. Les produire, non seulement je ne sais pas comment
on fait, mais nous sommes incapables de le faire dans des conditions conviviales, non industrielles, non aliénantes : cela ne peut en effet se pro-duire que dans d’immenses usines, des installations com-plètement aseptisées, qui mobilisent des millions d’euros de capital fixe. Quelque chose comme un téléphone portable, il y a dedans tellement de degrés
YC : Ce n’est pas cela qui me préoccupe. Programmer des algorithmes, maintenant, il se trouve des ressources pour l’apprendre ou pour payer les gens qui savent le faire. Je ne désespère pas que l’on puisse s’éduquer les uns les autres pour que l’on soit tous un peu hacker en amateur, c’est même un des impératifs de l’éducation du XXIe siècle.
Ce qui me préoccupe, c’est que l’exoattention s’appuie sur des objets technologiques comme des circuits intégrés. Les produire, non seulement je ne sais pas comment
on fait, mais nous sommes incapables de le faire dans des conditions conviviales, non industrielles, non aliénantes : cela ne peut en effet se pro-duire que dans d’immenses usines, des installations com-plètement aseptisées, qui mobilisent des millions d’euros de capital fixe. Quelque chose comme un téléphone portable, il y a dedans tellement de degrés
d’hétéronomie ! La micro-électronique, le code, la pro-priété intellectuelle, les imbrications entre les différentes applications… C’est sûr que ce n’est pas
du silex ! Donc qu’est-ce que l’on en fait ? Est-ce qu’il faut les condamner parce qu’il n’y a moyen de les produire que de façon hétéronome ? Et aller vivre avec des low tech ? Cela ne me semble pas ridicule, et je respecte les gens qui font ce choix-là, ils ont compris de façon assez forte quelque chose que l’on suspecte et ils agissent
en conséquence. Nous avons cependant en commun
le nucléaire, les pesticides,
la fin de la biodiversité, tous ces risques et transformations globaux dont personne ne peut s’abriter, même dans une retraite rurale. Or le numé-rique est un moyen incon-tournable pour essayer de rendre tout cela habitable malgré tout.
Le défi est de réussir à faire
le pont entre l’un et l’autre,
à la fois développer des ancrages locaux d’autonomie et se brancher sur des réseaux planétaires qui passent par l’électricité, les apps, les Gafam, etc. Il me semble que
d’hétéronomie ! La micro-électronique, le code, la pro-priété intellectuelle, les imbrications entre les différentes applications… C’est sûr que ce n’est pas
du silex ! Donc qu’est-ce que l’on en fait ? Est-ce qu’il faut les condamner parce qu’il n’y a moyen de les produire que de façon hétéronome ? Et aller vivre avec des low tech ? Cela ne me semble pas ridicule, et je respecte les gens qui font ce choix-là, ils ont compris de façon assez forte quelque chose que l’on suspecte et ils agissent
en conséquence. Nous avons cependant en commun
le nucléaire, les pesticides,
la fin de la biodiversité, tous ces risques et transformations globaux dont personne ne peut s’abriter, même dans une retraite rurale. Or le numé-rique est un moyen incon-tournable pour essayer de rendre tout cela habitable malgré tout.
Le défi est de réussir à faire
le pont entre l’un et l’autre,
à la fois développer des ancrages locaux d’autonomie et se brancher sur des réseaux planétaires qui passent par l’électricité, les apps, les Gafam, etc. Il me semble que
c’est dans ce grand écart que doit se penser le politique aujourd’hui.
1 | Voir l’article de Thomas Lemaigre dans La Revue Nouvelle 2016/8 (N° 8).
2 | « Fifteen Million Merits », épisode 2 de la saison 1, 2011.
c’est dans ce grand écart que doit se penser le politique aujourd’hui.
Les métiers du numérique apparaissent aujourd’hui comme des territoires marqués
au masculin dans la plupart des pays
occidentaux (Ashcraft et al., 2016),
avec une sousreprésentation accrue des femmes (European Commission, 2018),
alors que ce n’est qu’à partir des années 1980
que l’espace du numérique s’est reconfiguré
en excluant matériellement ou symboliquement
les femmes des métiers du logiciel (Abbate, 2012 ; Hicks, 2017).
De nombreuses initiatives institutionnelles
ont été lancées pour inverser la tendance,
tel le projet européen WICT (2004) qui a émis des recommandations concernant la formation,
le marché du travail et les entreprises.
Le projet SIGIS (Strategies of Inclusion : Gender and the Information Society)
a recensé plusieurs dizaines d’initiatives
en Europe qui témoignent d’une participation
de femmes dans le numérique, afin d’inspirer
des politiques d’attraction et d’inclusion
des femmes. Son rapport final (SIGIS, 2004, pp. 42-43) identifie trois façons d’apporter
aux femmes l’empowerment nécessaire pour leur inclusion dans les technologies de l’information (TI) : insertion dans des communautés
et des réseaux, mise en visibilité
des professionnelles des TI, et formation.
Nous voulons ici cibler plus particulièrement l’empowerment par les technologies.
De nombreux travaux sur la relation entre
technologie et genre ont posé la question
en termes de pouvoir, souvent pour analyser
la technologie comme moyen, lieux et pratiques
de domination (matérielle ou symbolique),
mais aussi pour défendre l’idée qu’elle peut être
outil de résistance et d’empowerment (par exemple : Wajcman, 2004 ;Faulkner, 2001 ;Plant, 1996 ; Omrod, 1995 ; Haraway, 1990).
L’objectif de l’article est d’étudier différentes pratiques
de maîtrise et de mobilisation des technologies numériques,
qui ont été mises en œuvre par des femmes afin d’augmenter
leur pouvoir et celui d’autres femmes dans le numérique.
Nous avons privilégié des pratiques non mixtes, car les deux facettes de la non-mixité — se protéger et se construire (Lewis et al., 2015) — ont un impact possible
sur l’empowerment. L’empowerment est défini comme
« un processus par lequel des individus développent leur capacité d’agir et d’acquérir un pouvoir » (Biewener, Bacqué, 2015, p. 69). Pour comprendre l’apport des TIC (Technologies de l’information et de la communication),
nous nous sommes appuyées sur le cadre théorique
de la typologie des formes de pouvoir, souvent utilisée
par les auteur.es féministes (Guétat-Bernard, Lapeyre, 2017, p. 10 ; Biewener, Bacqué, 2015, p. 80) : pouvoir avec, pouvoir pour, pouvoir intérieur, pouvoir sur, et nous avons choisi des cas satisfaisant aux critères suivants :
a) des initiatives spontanées ;
b) par des femmes engagées dans les technologies numériques ;
c) dans le but de développer leur pouvoir et celui d’autres femmes par le numérique ;
d) depuis le moment où la participation des femmes
a commencé à décliner.
Notre étude n’a pas vocation à dresser un panorama exhaustif : elle repose sur un échantillon ayant une représentativité théorique (Miles et Huberman, 2003, p. 62), c’est-à-dire visant à comprendre des phénomènes émergents, au cours desquels des femmes en situation de minorité non dominante dans le domaine des technologies numériques, ont pu se saisir de ces technologies pour augmenter leur pouvoir et celui d’autres femmes.
Nos cas sont donc illustratifs des différents types de pouvoir. Ils témoignent tous d’une capacité d’action des initiatrices
qui, pour s’opposer à une situation de domination
ou de discrimination liée à l’exercice d’un pouvoir
sur, ont développé d’autres formes de pouvoir. Le premier,
celui du pouvoir avec, repose sur la force du collectif :
nous montrons comment certains réseaux de femmes,
à différents niveaux et avec différents objectifs, augmentent leur capacité à entrer et/ou à agir dans le numérique.
Le second type correspond au pouvoir pour : nous donnons
à voir comment certaines femmes ont investi un champ d’application technologique leur permettant d’augmenter
la maîtrise de leur corps. Le troisième type, celui du pouvoir intérieur, renvoie au développement de la confiance
en soi et au dépassement d’une domination intériorisée (Calvès, 2009, p. 739) : nous l’illustrons avec les artistes
de la première vague du cyberféminisme.
La notion de pouvoir avec est liée
à la capacité de s’organiser pour défendre un objectif commun.
Il existe une variété de situations
où des femmes se saisissent
des technologies numériques
pour se rassembler et s’entraider,
dans un contexte où la domination masculine ne leur laisse
que peu de place. Il s’agit
de création de réseaux, le plus souvent informels, sans structure hiérarchique. Nous présentons trois types de cas : la collaboration entre expertes informatiques ; le soutien pour progresser vers des positions de pouvoir ; l’incitation à dépasser la barrière de la masculinité
des TIC.
Anita Borg, chercheure connue pour ses contributions
aux systèmes d’exploitation tolérants aux pannes, a lancé
en 1987 aux États-Unis le premier réseau d’expertes
en informatique. Cette communauté en ligne a commencé
à fonctionner grâce à une messagerie expérimentale que Borg était en train de développer, et elle appela cette communauté Systers. L’objectif était de partager de l’information
et des conseils sur les systèmes d’exploitation, ce qui offrait
aux chercheures une alternative au mentorat auquel
elles avaient peu accès, et une plate-forme d’échanges accueillante sur laquelle elles ne risquaient ni insultes,
ni harcèlement, ce qui était une pratique fréquente
dans les forums d’informaticiens. En dix ans le nombre
de participantes est passé de 20 à 2 500. Le réseau en compte aujourd’hui 7 500 et s’inscrit dans une communauté plus large, celle de l’Institut AnitaB.org. Cette initiative a ouvert
la voie à la mise en relation numérique d’expertes dans d’autres domaines (histoire, économie, physique, théologie…) (Regan Shade, 1994).
D’autres réseaux autour de l’expertise informatique
ont vu le jour, notamment en lien avec le mouvement
du logiciel libre, où la communauté des développeurs
se montrait particulièrement hostile aux femmes assimilées
à ce que rejetaient les activistes du libre (F/LOSS, 2006). Par exemple Debian Women (autour du système d’exploitation Debian) ou LinuxChix (autour du système d’exploitation Linux).
L’objectif de cette deuxième catégorie de réseaux
est d’augmenter le nombre de femmes aux postes de pouvoir dans les TIC, particulièrement sujets au plafond de verre.
En 1989, une entrepreneuse dans le numérique Carolyn Leighton a constitué un réseau de femmes travaillant
dans les TIC - Women in Technology International (WITI),
qui s’est ensuite élargi aux femmes technophiles
pour leur offrir des opportunités de formation (webinaire),
de mentorat ou d’emplois, ainsi qu’aux entreprises en quête
d’une diversité accrue dans les postes techniques.
Ce réseau, qui depuis 2001, s’appelle WITI Professional Association, se présente comme le réseau le plus important
(167 000 adhérent.es), et rassemble des individus
(97 % femmes) avec un haut niveau de formation,
et utilisant ou mettant en œuvre des technologies
dans leur vie professionnelle. Le réseau favorise
leur progression professionnelle.
Dans le même esprit, le réseau Women who Code créé en 2011 par trois femmes alliant compétences en marketing digital
et en développement informatique, a pour but ultime
une représentation proportionnelle de femmes à tous niveaux dans le secteur du numérique. À la différence de WITI,
ses membres sont toutes en poste dans le numérique (plus 75 % dans des postes techniques, et 15 % dans des postes d’encadrement ou de direction). Le réseau leur propose
des moyens d’évoluer, ainsi que des opportunités d’emploi,
de visibilité et de participation à des conférences dans les TI.
Cette troisième catégorie de réseaux cherche à attirer des filles et femmes dans le secteur du numérique en les rendant
plus visibles et en leur apportant un soutien, notamment
en proposant des formations en ligne sous différentes formes. Nos exemples traduisent une diversité de cibles. Le réseau Girls in Tech (GIT) a été fondé aux États-Unis en 2007
par une femme ayant d’abord fait carrière dans le marketing
– Adriana Gascoigne – et qui en est toujours présidente,
pour inciter les femmes à entrer dans les TIC, en particulier dans les industries des TI et les start-up numériques. Ce réseau revendique plus de 100 000 membres, avec des chapitres dans 36 pays et des actions propres au contexte de chaque pays. L’objectif majeur est de développer la confiance en soi par des conférences et des formations en ligne (développement de sites Web, infographie…), mais aussi des rassemblements en face
à face (ateliers pratiques, concours …) qui permettent
de rencontrer des professionnelles, ainsi que des hackathons mixtes menés dans un esprit d’égalité.
De façon plus ciblée, le réseau Duchess, fondé en 2007
aux Pays-Bas par l’informaticienne Clara Ko, rassemble
des informaticiennes travaillant sur les technologies Java (langage datant de 1995). Il compte 550 membres, dans 60 pays, et vise à valoriser et promouvoir les femmes travaillant dans le monde Java. Le réseau français, Duchess France,
a été créé en 2010 pour donner aux femmes plus de visibilité dans la communauté Java, et faire connaître ces métiers techniques afin de susciter de nouvelles vocations.
C’est une communauté de techniciennes passionné.es,
qui partagent des connaissances, et poussent les chercheures
à augmenter leur participation dans les conférences avec
un accompagnement très pragmatique (ateliers de préparation à l’écriture de communications, sessions de coaching pour répéter les présentations). Il est dirigé par une équipe
de 11 femmes, toutes spécialistes du langage Java.
La diversité ethnique dans les métiers du numérique
est particulièrement faible aux États-Unis. Cela explique
le lancement en 2011 de Black Girls Code (BGC)
par une ingénieure ayant travaillé plus de vingt ans dans
les biotechnologies, Kimberly Bryant. Son action consiste
à former des filles, et à combler la fracture numérique
qui pénalise particulièrement celles qui se trouvent dans
un milieu défavorisé. L’objectif annoncé est de former 1 million
de filles d’ici à 2040 ! Notre dernier exemple est Lesbian
who tech qui répond à l’invisibilisation des lesbiennes
et des queers dans les métiers du numérique, invisibilisation
qui se retrouve aussi dans les études féministes sur la relation entre genre et technologie (Landström, 2007).
Fondé en 2012 par Leanne Pittsford pour augmenter
la diversité de genre dans le secteur du numérique, ce réseau
a ouvert trois ans plus tard une antenne en France. Son objectif
est d’offrir l’appui du groupe pour prendre confiance et sortir de l’invisibilité dans le milieu professionnel.
Le réseau rassemble aujourd’hui des femmes
qui se reconnaissent comme lesbiennes ou non-binaires,
et revendique plus de 50 000 membres.
La notion de pouvoir pour est liée à l’exercice
de la capacité d’action pour des développements tournés vers l’émancipation. On peut observer
un empowerment de ce type dans l’émergence, sous l’impulsion de femmes, de produits/services visant euxmêmes l’empowerment
des utilisatrices. Le contexte dans lequel
ces activités sont menées est celui de biais discriminants (sexe, ethnie) pouvant accompagner certains développements
en Intelligence Artificielle, notamment
lors de l’utilisation de données massives (big data) pour différentes applications : reconnaissance
des formes et modèles de décision, morphologie genrée des robots et des assistants virtuels (boyd, Crawford, 2012). Ces initiatives montrent une prise en main, souvent
par des femmes, de problèmes jusque-là ignorés. Avant de présenter un cas d’empowerment
des femmes par la mobilisation de technologies numériques récentes, nous allons voir comment des logiques de genre peuvent influencer
la production de ces technologies.
Le caractère mécanique des raisonnements logiques associés aux algorithmes leur a souvent conféré un caractère d’objectivité. Cette propriété est aujourd’hui largement discutée (Cardon, 2015), et différents évènements ont attiré l’attention du public, comme le processus de recrutement interne d’Amazon qui, assisté par un algorithme d’intelligence artificielle (IA), s’est révélé faire preuve de discrimination sexiste à l’embauche. Dans le domaine de l’IA, les résultats produits par les programmes qui transcrivent en machine
les méthodes abstraites que sont les algorithmes, dépendent
de nombreux facteurs dont les variables que manipulent
les algorithmes, l’écriture des programmes, et les données fournies en entrée. Certaines procédures permettent aujourd’hui, dans certains cas, de sélectionner
« automatiquement » des variables « pertinentes », mais l’écriture de ces procédures reposent sur une activité humaine. De plus, l’écriture des programmes relève avant tout
de l’expertise technique et de l’expérimentation. Et, comme
le souligne Schmitt (2016) « la croyance dans l’existence
de données ‘brutes’, non biaisées, non manipulées, qui seraient l’exact reflet des faits qu’elles représentent et parleraient
d’elles-mêmes (…) traduit une conception aujourd’hui largement reconnue comme illusoire » (p. 87).
L’humain reste donc au cœur du processus de conception
et les technologies numériques n’échappent pas aux influences du monde social, et donc aux relations de genre. La logique
de genre peut intervenir à différentes étapes de la conception, intentionnellement ou non. On peut distinguer quatre situations, qui peuvent parfois se combiner dans certaines applications opérationnelles : la reproduction intentionnelle
de stéréotypes de genre ; la production de biais genrés ;
la validation expérimentale des technologies
sur des échantillons biaisés d’usagers ; et l’invisibilité
des enjeux d’égalité dans des logiciels de décision.
Nous illustrons ci-dessous ces quatre situations.
Pour certains usages ciblés, les stéréotypes de genre sont volontairement reproduits. C’est notamment le cas pour
les assistant.es virtuel.les et les robot.es. Laura, Julie Desk
et Sophia sont des noms choisis pour les assistants vocaux
et les robots qui accompagnent désormais les usagers
de services, les salariés d’entreprises, et les expérimentations
en IA. Ainsi, la robote Sophia cumule différents attributs sexués à la fois dans son design avec une apparence très féminisée et dans la communication autour de sa présentation :
« Hi, I am Sophia (…) Think of me as a personification
of our dreams for the future of AI (…) ». De plus, la voix
de ces agents conversationnels active des stéréotypes.
La version américaine de Siri a « la voix d’une adolescente,
une qualité de voix un peu mignonne, sentimentale, qui évoque
celle d’une jeune femme que l’on pourrait aimer »
(Cassel, 2018).
La deuxième situation est l’introduction de biais de genre,
non explicitement intentionnelle, par des algorithmes d’intelligence artificielle qui apprennent à partir
des bases de données biaisées. Un des facteurs majeurs
de l’efficacité croissante des logiciels d’apprentissage automatique repose sur la taille et la qualité des bases
de données qui servent à les entraîner. Or des recherches récentes mettent en évidence le caractère genré de certaines bases et des résultats biaisés qu’elles engendrent. Par exemple, une étude récente de trois logiciels majeurs reconnaissance faciale –basés sur une typologie binaire classiquement utilisée dans ce domaine– a montré qu’ils avaient tous de meilleures performances sur les visages d’hommes (Buolamwini
et Gebru, 2018).
En traitement automatique de la langue, les approches les plus populaires de représentation des termes encodent
des associations sexistes, telles que « man is to computer programmer as woman is to homemaker » (Bolukbasi et al, 2016). Ces associations sexistes explicites peuvent s’associer
à une non neutralité plus cachée. Dans Wikipédia, largement utilisé en ingénierie des connaissances, les articles consacrés
à des femmes soulignent souvent leurs statuts de femmes
en précisant leurs maris, leurs enfants, et leurs parcours singuliers en tant que femmes (Wagner et al. 2016).
De plus, Wikipédia concentre les inégalités femmes-hommes avec une invisibilité des femmes puisque moins de 20 %
des 30 millions de fiches sont consacrées à des femmes.
Si une part de l’informatique reste théorique et la rapproche des mathématiques, une part croissante est devenue expérimentale. La validation des artefacts produits est alors soumise aux questionnements de protocoles expérimentaux. Lorsque ces derniers incluent des utilisateur.es l’existence
de biais genrés devient une hypothèse légitime à tester.
À notre connaissance, en informatique, aucune étude à large échelle n’a analysé sous l’angle du genre la composition
des échantillons de tests. Or, comme ceux-ci sont souvent menés dans les environnements de développement où la sur-représentation masculine est attestée, la probabilité de biais
est assez forte. Le témoignage de la directrice du laboratoire Facebook AI Research de Montréal sur une expérience
d’un de ses stages de jeunesse portant sur un système
de reconnaissance vocale dans les cockpits d’hélicoptères
est une illustration paradigmatique : « Le système était
en place, nous étions en train de le tester (…). Tout à coup, l’équipe se rend compte que tous les sujets de l’étude
sont des hommes. Je me retrouve donc aux commandes
d’un hélicoptère, dans le rôle du sujet féminin. ».
Le premier workshop autour des questions de genre
dans la principale conférence internationale d’interaction
homme-machine (CHI) confirme que souvent le genre
n’est pas un facteur explicitement considéré dans le design
des technologies interactives et lorsqu’il l’est les produits sont élaborés à partir de modèles idéalisés (Thomas et Mavin, 2014). Dans le domaine de l’aide à la décision, les enjeux d’égalité sont très peu présents et certaines n’hésitent
pas à affirmer que « the features of commercial software tools are usually optimized around the preferences of male developers » (Williams, 2014).
Dans ce contexte de l’innovation numérique, peu féminisé
et peu marqué par des préoccupations de genre, certaines femmes se sont positionnées sur des niches encore
peu explorées manifestant ainsi une capacité d’action
et favorisant un empowerment accru pour d’autres femmes.
L’exemple le plus notable est celui des technologies de suivi
de données corporelles spécifiques aux femmes.
Les applications qui s’inscrivent dans le mouvement
du « quantified self » ont été lancées en 2008 et visent
à recueillir des données corporelles personnelles (tension, calories consommées, sommeil, nombre de pas…) à des fins d’analyse. Elles ont connu un essor considérable,
avec des objectifs de santé ou de bien-être. Cependant,
les innovateurs du numérique ont largement ignoré
les usages féminins spécifiques. Ainsi, l’outil santé d’Apple
et la plateforme HealthKit n’ont intégré un suivi de la santé reproductive qu’au bout d’un an, en 2015, sous la pression
des utilisatrices, et un des principaux outils du marché, Fitbit, n’a ajouté une fonction de suivi menstruel qu’en 2018.
Pourtant, dès 2009, une jeune entrepreneuse danoise, Ida Tin, cherchant un moyen de suivre son cycle menstruel
et ses périodes de fertilité, a conçu et fait développer
une application de suivi des cycles qui a conduit en 2012
à l’application allemande Clue. Tin a voulu une interface d’apparence neutre (couleur, tonalité, images…) en phase avec des contenus scientifiquement fondés. Cette application gratuite qui revendique 2,5 millions d’utilisatrices dans
180 pays, a été présentée dans la presse comme « The health
app that hopes to empower women » (BBC News, 20153 ).
Quelques années après, devant l’engouement des utilisatrices, les applications se sont multipliées (Myamoto et Pau, 2018), notamment aux États-Unis (Glow, Period tracker Lite…) et au Japon (Luna Luna, Selene Calendar…). Aujourd’hui, ces applications sont souvent référencées
par le terme « Femtech », qui a été forgé à la fin des années 2000 par Ida Tin. Elles apportent aussi des informations, conseils, moyens d’échanges sur la santé spécifique des femmes (cycles menstruels, fécondation, grossesse, contraception, syndrome prémenstruel, sexualité…). Elles augmentent
la capacité de décision et l’autonomie des utilisatrices,
par une connaissance accrue du fonctionnement de leurs corps
et de la reproduction, et une maîtrise de leurs données personnelles. Ces thèmes, qui semblaient tabous dans le monde de l’innovation numérique, ont été initialement portés
par des femmes, et ensuite investis plus largement compte tenu des enjeux financiers.
En France, la première conférence sur « L’état de l’art
de la menstrutech » s’est déroulée en 2018 dans le cadre
du festival Futur.e.s . Des plateformes pour soutenir le secteur
de la Femtech, en particulier les entrepreneuses, ont vu le jour (France Femtech, Eve Femtech Hub…) pour inciter
à des innovations technologiques permettant aux femmes
de s’impliquer dans une maîtrise accrue de leur santé reproductive. Les applications sur téléphone mobile dédiées
à la santé des femmes nourrissent de grands espoirs pour l’empowerment des femmes (autonomie, responsabilisation) dans les pays en voie de développement.
Cependant, une recherche sur le projet Motech (Mobile Technology for Community Health) 5 pour le suivi
de grossesse au Ghana et en Inde montre que les conditions dans lesquelles l’utilisation de l’outil a été pensée et organisée
n’a guère augmenté la capacité d’action de ces femmes
(Al Dahdah, 2017). En effet, l’outil a, le plus souvent,
été imposé à un échantillon de femmes sans qu’elles aient donné leur accord ; en Inde, les femmes ont découvert
a posteriori que son utilisation n’était pas gratuite ;
les brefs messages vocaux hebdomadaires qui leur dictaient
le comportement à adopter, ont souvent été perçus comme
des injonctions peu fondées car contraires à leur propre expérience et savoir local ; le système ne permettait aucun dialogue avec les émetteurs de ces messages ; certains ordres étaient inconciliables avec leur propre calendrier (aller à une consultation le jour de marché) ou leur état à ce moment-là (absence de lactation) ou les moyens disponibles (absence
de transport le jour de l’accouchement). Au lieu d’augmenter
la capacité d’action, ce système était au contraire un facteur d’aliénation. Le processus d’empowerment est soumis
à une condition majeure : une utilisation volontaire
par des femmes qui intègrent le dispositif dans leur
vie au quotidien, non par des prescriptions à respecter,
mais par des informations pouvant avoir un sens. Cela renvoie à la conception de l’outil, fondée sur un modèle abstrait
et une vision simplifiée des problèmes de santé dans les pays
en développement (ignorance des femmes), sans adaptation aux conditions locales.
Le pouvoir intérieur correspond à une dimension subjective de l’empowerment : c’est la prise
de conscience de soi comme un être pleinement humain et peut-être le développement
d’une identité renouvelée. Pour illustrer
ce troisième type d’empowerment, nous avons retenu le cas de la première vague
du cyberféminisme, et plus particulièrement celui du premier groupe artistique qui s’est revendiqué comme cyberféministe. En 1991, quatre artistes australiennes prennent le nom de VSN Matrix, VSN pouvant être lu comme Vénus ou comme
un acronyme connotant le monde des affaires,
et la matrice jouant sur l’ambiguïté entre utérus
et matrice numérique. Ce groupe publie
un Manifeste cyberféministe pour le 21e siècle sous forme d’une image digitale représentant
une sphère avec un texte provocateur,
qui se répandit de façon virale sur les listes
de diffusion féministes et fut traduit
en plusieurs langues.
Les artistes ont été inspirées
par le Manifeste cyborg (Haraway, 1990) qui propose une vision de l’identité
et des rapports entre humain.es, renouvelée par les possibilités d’hybridation entre vivants
et artefacts. Sans développer
les formes variées prises
par le cyberféministe dans
les années 1990 (Paasonen, 2011), nous voulons pointer
sur le collectif VSN Matrix
dans la mesure où la première vague du cyberféminisme
fut très souvent associée
aux créations numériques.
Ces artistes se sont saisies des technologies numériques avec l’utopie qu’elles pourraient « create new languages, programs, platforms, images, fluid identities and multi-subject definitions in cyberspace » (Fernandez et Wilding, 2002, p. 21).
Au-delà du plaisir de jouer avec la technologie, elles cherchent
à développer leur capacité d’action et à affirmer une identité
qui ne soit pas définie par rapport à un modèle masculin toujours posé comme l’original et l’idéal (Wajcman, 2004,
p. 63). On peut donc voir dans cette affirmation émergente
du cyberféminisme le développement d’un pouvoir intérieur, nourri par la diffusion électronique du « virus du féminisme » (Plant, 1996), mais aussi par l’appropriation technique (Couey, 2003). VSN Matrix a notamment développé
un jeu vidéo qui s’appuie sur la métaphore du hacker,
mais de façon subversive : l’objectif du jeu est de pénétrer
dans les banques de données de l’ennemi principal (Big Daddy),
mais pour les altérer et non pas pour en prendre le contrôle (Sofia, 2003).
La mise en place de réseaux a répondu
à des contextes où l’on trouvait pratiques d’exclusion, plafond de verre, image masculine des TIC, fracture digitale entre hommes
et femmes, et marginalisation des femmes.
Margré la diversité de leurs origines et de leurs terrains de déploiement, ces réseaux présentent plusieurs caractéristiques communes.
Ce sont des espaces de ressources : ils offrent
des informations, des connaissances
et des formations. Ce sont des espaces d’aide
et collaboration, soit sur des problèmes
ou projets, soit par des accompagnements
dans le parcours professionnel.
Ce sont aussi des espaces de renforcement personnel,
par la mise en visibilité de soi devant d’autres
et par les retours positifs qu’on en reçoit. Ce sont enfin
des espaces de construction d’une identité collective positive.
Ces réseaux montrent la capacité de s’organiser pour agir
à la fois sur la dimension individuelle de l’empowerment
(développement des capacités personnelles, efficacité personnelle accrue) et sur sa dimension collective
(conquériret défendre une place pour les femmes
dans le monde professionnel du numérique).
Ils suggèrent que l’empowerment requiert des espaces
collectifs de construction d’une identité
empowered. La dimension mono-sexuée de ces réseaux
de femmes permet d’échapper aux normes d’interaction
socio-sexuées et aux pratiques de domination de genre.
C’est aussi l’assurance de pouvoir développer autonomie
et confiance en soi. Le cas de la femtech témoigne d’un déficit
de pensée du genre dans le développement informatique
qui peut se révéler une source d’opportunités :
c’est en se glissant dans les interstices qui, invisibles au départ, ne sont pas un enjeu de pouvoir, que des femmes
ont pu innover.
La possibilité pour des artistes de subvertir le cyberespace
est le signe de l’émergence d’une conscience critique qui conduit
à renverser les effets aliénants de la technologie.
Les illustrations que nous avons données font apparaître
deux dimensions du pouvoir décrites par (Guérin, 2017).
La première est celle de la matérialité du pouvoir. Les processus d’empowerment (pouvoir avec, pouvoir pour, pouvoir intérieur) n’auraient pu émerger si les femmes initiatrices n’avaient
eu l’accès et la maîtrise technologique nécessaires
pour construire des alternatives (réseau, site, logiciel…).
Cette dimension matérielle du pouvoir montre l’importance
d’une plus grande mixité dans les métiers du numérique,
que ce soit dans le développement, la recherche
ou l’entreprenariat.
La deuxième dimension est celle de l’affect.
Alors que les sentiments négatifs (mépris, humiliation, invisibilité…) entravent la capacité d’action, les sentiments positifs (amitié, plaisir…) la favorisent. Dans nos cas, on peut relever que le refus d’être marginalisées (difficulté d’accès
à des groupes), ignorées (compétences peu reconnues, attentes ignorées), dépréciées (images négatives) a conduit des femmes à innover et à s’emparer de technologies. Le plaisir de créer,
qui a été dynamisé par des réponses positives (développement d’un réseau, utilisation d’un logiciel…) a été un facteur fort d’empowerment. La création de communautés a suscité
de nouvelles relations favorisant la reconnaissance mutuelle.
Notre étude des trois formes de processus d’empowerment dans le numérique
–porté par un collectif (pouvoir avec),
visant à une autonomie accrue (pouvoir pour), permettant de dépasser une domination intériorisée– montre que les innovations numériques ont très vite été utilisées
par des femmes pour acquérir du pouvoir depuis plus de trente ans. Depuis une dizaine d’années, les technologies du Web 2.0 (blogs, podcasts, réseaux sociaux numériques…) ont été utilisées par de nombreux mouvements féministes,
ce que l’on regroupe sous le terme
« cyberféminisme ». Débordant le contour
de sa première vague, le cyberféminisme (parfois qualifié de « 2.0 ») est aujourd’hui défini comme « une pratique activiste, liée à l’idéologie d’ouverture propre au réseau, visant le partage
de connaissances autant techniques
que théoriques de même que l’accessibilité
des outils de création et de diffusion
pour les femmes et groupes de femmes »
(Lalonde, 2012, p. 9).
Des recherches récentes montrent de jeunes féministes
non professionnelles du numérique, qui ont développé
des compétences techniques leur permettant de ne plus être dépendantes de professionnels extérieurs (Jouët et al., 2017). Cependant au-delà de cette acquisition de compétences d'utilisatrices éclairées, on observe une baisse continue
de professionnelles des TIC (voir par exemple l'initiative
du collectif Femmes@Numérique). Comme nous l'avions analysé dans des travaux précédents, ce phénomène
est directement lié à la persistance d'un stéréotype dévalorisant les femmes par rapport à la technique
( Morley et McDonnell , 2017), qui est source
de discrimination.
Quelle que soit sa forme, l'empowerment des femmes
par les TIC atteint ses limites pour lutter contre
ces discriminations insidieuses. L'analyse des succès locaux d'inclusion d'une mixité durable dans les filières du numérique met en lumière le rôle essentiel d'un changement de culture pour la rendre inclusive ( Morley et Collet , 2017).
La non-acceptation sociale des biais générés
par les applications d'apprentissage automatique et plus généralement des logiciels se manifeste depuis quelques années par des publications aussi bien académiques (par exemple Burnett et al. , 2016) que grand public (par ex. O'Neil , 2016 ; Criado Pérez, 2019). Les cas d'empowerment
par la prise en main de conception technologique
par des femmes sont embryonnaires, mais s'ouvrent
sur un champ de recherche qui questionne sous l'angle
du genre les processus de décision et de conception
de produits/services numériques utilisés au quotidien.
Le présent article est une réponse à un appel fait par la recherche en sémiotique pour caractériser un ensemble de phénomènes (textuels et/ou visuels) ayant fait l’objet d’une attention médiatique particulière ces dernières années, regroupés sous le terme global de fake news. Plus particulièrement, il s’agit ici de faire le point sur les apports d’une perspective théorique et empirique spécifique, à la compréhension de ces phénomènes : celle de la cyberpsychologie, et notamment de la psychologie expérimentale sur laquelle elle s’appuie. Nous aborderons en premier lieu la question des fake news et des connaissances issues de la cyberpsychologie relatives à leur crédibilité. Dans un second temps, nous aborderons une évolution technologique récente : celle des deepfakes, qui posent des questions nouvelles sur les facteurs influençant la crédibilité des fake news, mais aussi sur les stratégies qui permettent de s’en prémunir.
Une fake news est ainsi définie comme un élément médiatique factuellement inexact mais présenté par son émetteur comme ayant une valeur de véracité avec une volonté explicite de tromper le récepteur de ce dernier (Pennycook & Rand, 2021). Si le phénomène est ancien – Kalsnes (2018) donne plusieurs exemples datant de la fin du XIXème siècle visant par exemple à augmenter les chiffres de vente d’un journal, à divertir un public, ou encore à attiser des sentiments d’hostilité à l’égard d’une minorité – ce terme est réapparu au cours des cinq dernières années, à la faveur de deux phénomènes distincts : (1) la survenue de plusieurs évènements démocratiques historiques, par exemple le référendum sur l’appartenance du Royaume-Uni à l’Union Européenne, qui a donné lieu au Brexit, ou encore l’élection de Donald Trump à la présidence des Etats-Unis d’Amérique, qui en a incontestablement popularisé l’usage et (2) l’irruption des réseaux sociaux dans ces évènements, comme vecteurs de ces messages erronés mais susceptibles d’infléchir sur les résultats des votes. L’intérêt de la psychologie pour ce thème émergent est double. En premier lieu, il permet d’explorer des thèmes classiques en psychologie sociale tels que la formation de croyances et ses liens avec la prise de décision, sous un angle nouveau : l’étude de la crédulité et des facteurs individuels et contextuels qui la favorisent (Forgas & Baumeister, 2019). En second lieu, naturellement, l’objectif de telles études est souvent de proposer des pistes pour prévenir de telles tromperies ou d’en atténuer les conséquences.
L’intérêt récent pour les fake news tient à leurs effets supposés sur la prise de décision humaine. En psychologie cognitive, un programme de recherche initié dans les années 1960 et 1970 a contribué à montrer en quoi l’être humain ne pouvait être considéré comme un agent décisionnel parfaitement rationnel
est un type de siège, c'est-à-dire de meuble muni d’un dossier et destiné à ce qu’une personne s’assoit dessus.
(Kahneman et al., 1982). En effet, selon le modèle classique défendu notamment en sciences économiques, lorsque l’être humain est confronté à une situation où (1) il peut choisir entre plusieurs actions possibles et (2) de ce choix découlera une issue plus ou moins avantageuse, alors sa décision reposera sur un calcul intégrant, d’une part, le caractère plus ou moins avantageux de chaque issue et d’autre part, la probabilité que telle décision donnera effectivement lieu à telle issue. Dans une situation simpliste dite de jugement sous certitude, où telle action donnera lieu, dans tous les cas, à une issue donnée, la prise de décision est fondée uniquement sur l’évaluation des bénéfices comparés de chaque issue. En pratique, cependant, le lien entre un choix et une issue n’est pas certain. La qualité de la prise de décision dépendra de celle de l’information sur laquelle elle s’appuie. Cependant, l’être humain dispose de ressources limitées pour la prise de décision, que celles-ci soient internes – c’est à dire cognitives, par exemple attentionnelles ou mnésiques
En biologie ce qui concerne la mémoire, ou des moyens facilitant la conservation des souvenirs.
– ou externes à l’individu, par exemple lorsqu’une décision est prise sous contrainte temporelle. Dans ces situations de prise de décision sous incertitude, l’agent décisionnel ne traite pas toutes les informations dont il dispose, mais juste suffisamment d’informations pour parvenir à une issue satisfaisante (Simon, 1957). Ce faisant, il s’appuie sur des heuristiques,
Partie de l’histoire de la science qui consiste à la recherche des documents. Et discipline qui consiste à formuler les règles de la recherche scientifique.
c’est-à-dire des principes visant à simplifier les traitements d’information impliqués dans le calcul des probabilités de chaque issue et les utilités associées (Tversky & Kahneman, 1974). La notion de biais renvoie au fait que ces jugements subjectifs sont parfois erronés, et ce de manière prévisible.
Une première piste pour comprendre les effets des fake news sur la prise de décision a été mise en évidence par Hasher et al. (1977). Ces auteurs ont exposé leurs participants à quarante affirmations plausibles et leur ont demandé d’en évaluer la vraisemblance. Ils ont répété l’expérience trois fois à deux semaines d’intervalle. D’une session à l’autre, la moitié des affirmations présentées était nouvelle, tandis que les autres étaient répétées d’une fois sur l’autre. Les résultats ont montré que la simple exposition répétée à une affirmation augmentait sa vraisemblance perçue. Cet effet dit de vérité illusoire pourrait expliquer la croyance dans la véracité des fake news, dès lors que celles-ci sont diffusées massivement via les réseaux sociaux et les canaux médiatiques traditionnels.
Deux explications ont été avancées pour expliquer l’effet de vérité illusoire. La première, dite référentielle, repose sur le fait que l’individu est capable de se souvenir qu’il a déjà été exposé à une affirmation. De plus, si l’affirmation était accompagnée d’une information sur sa valeur de vérité – vraie ou fausse – l’individu peut se référer à cette information (Brown & Nix, 1996). La seconde, dite non-référentielle, intervient même lorsque l’individu ne dispose pas d’une information de véracité, et repose sur le fait que la simple exposition répétée à une même affirmation facilite son traitement cognitif ultérieur. Cette facilité de traitement est perçue à son tour comme un indice de la véracité de l’affirmation (Unkelbach & Stahl, 2009). Autrement dit, la simple exposition répétée à une fake news pourrait suffire à rendre celle-ci crédible aux yeux du lecteur.
Ce phénomène est d’autant plus préoccupant que l’effet de vérité illusoire persiste même lorsque l’individu dispose déjà de connaissances qui permettent de contredire l’information erronée (Fazio et al., 2015).
L’effet de vérité illusoire apparaît donc comme un processus explicatif clé de l’efficacité des fake news. Heureusement, la simple exposition répétée à une information ne suffit pas pour augmenter sa véracité perçue. Pennycook et al. (2018, étude 1) ont montré que cet effet n’existait qu’à la condition que l’information présentée, quoique fausse, restait néanmoins plausible. Une information peu plausible – dans l’article cité, « la Terre est un carré parfait » - ne donnera pas lieu à cet effet.
L’exemple que nous venons de citer est édifiant. L’affirmation « la Terre est un carré parfait » est manifestement fausse – en l’occurrence, contredite par un consensus scientifique, lui-même construit sur la base d’une expérience commune de plusieurs millénaires. Pourtant, ce type d’affirmation continue de susciter une adhésion au moins de certains groupes sociaux, par exemple autour de la résurgence de la théorie de la « Terre plate »
Ce type de croyance est largement débattu en ligne, avec des arguments avancés en faveur comme en défaveur de cette thèse.
Entretenir une croyance minoritaire (ici, que la Terre est plate) n’implique pas seulement d’accorder une crédibilité aux affirmations en faveur de cette thèse, mais aussi d’accorder une plus faible crédibilité à celles qui la contredisent – ou encore à accorder une forte crédibilité aux informations contribuant à discréditer ces sources1.
1 Notons à ce propos que le terme de fake news est réapparu dans la conscience populaire lorsque le Président américain Donald Trump l’a utilisé à plusieurs reprises pour discréditer des informations véhiculées dans les médias traditionnels (presse, télévision), ayant a priori subi un processus éditorial classique.
L’intérêt académique récent pour les fake news s’est inscrit dans le contexte politique, et plus particulièrement dans le contexte politique américain. Ce système a pour caractéristique de comporter deux partis au idéologies distinctes (Républicain vs. Démocrate). Le débat public repose sur la diffusion d’informations par de multiples canaux médiatiques, y compris des canaux où la diffusion est largement facilitée mais le processus éditorial peut être absent. Cette configuration particulière a été à l’origine de l’hypothèse suivante : l’orientation idéologique pourrait influer sur la crédibilité qu’un individu apporte à une information. Cette hypothèse, appelée du raisonnement motivé, propose que le traitement de l’information par un individu serait biaisé en fonction de ses convictions idéologiques. Plus particulièrement, l’individu accorderait davantage de crédibilité aux affirmations concordant avec ses convictions, et moins de crédibilité aux affirmations discordantes (Kahan, 2013).
Kahan et al. (2011) ont ainsi évalué la crédibilité perçue de trois individus fictifs, mais présentés comme experts d’un domaine idéologiquement clivant – le changement climatique et son origine anthropique, l’énergie nucléaire, et la législation en faveur du port d’armes, respectivement – présentés comme exprimant une opinion en relation avec leur sujet d’expertise. L’orientation de cette opinion était manipulée expérimentalement. Les auteurs ont mesuré l’expertise perçue de l’individu : ce dernier était perçu comme d’autant plus expert que ses conclusions s’accordaient avec les convictions idéologiques du participant.
Pennycook et al. (2018, étude 2) ont étudié l’impact de ce « raisonnement partisan » sur la perception de la véracité d’informations présentées dans un format semblable à un post Facebook (Tableau 1). Les informations étaient de nature politique et idéologiquement orientées, i.e., mettant en valeur ou non un politicien à la tendance politique bien connue. La moitié des informations présentées était fausse, les autres étaient vraies. Enfin, dans le cas des fake news, les auteurs ont également manipulé expérimentalement la présence ou l’absence d’un bandeau indiquant que la véracité de l’information était disputée par un tiers.
Conformément à la procédure classiquement adoptée dans les travaux sur l’effet de vérité illusoire (Hasher et al., 1977; cf. partie 2.1), la passation expérimentale se déroulait en plusieurs étapes, avec une étape de familiarisation suivie d’une étape d’évaluation, dans laquelle la moitié des informations présentées était familière, et les autres étaient nouvelles.
Les résultats ont montré que les informations familières étaient perçues comme plus vraisemblables que les informations nouvelles, suggérant un effet de vérité illusoire.
D’autre part, les informations (effectivement) vraies étaient perçues comme plus vraisemblables que les informations fausses. En revanche, aucun effet d’interaction n’a été détecté : l’exposition préalable augmentait la crédibilité perçue des informations, que celles-ci soient vraies ou fausses. Les auteurs ont aussi contrôlé l’orientation idéologique des participants (Démocrate ou Républicaine) à l’aide d’un questionnaire.
Pour examiner la présence d’un biais partisan, ils ont classé les informations présentées suivant leur compatibilité avec l’orientation du participant (concordante ou discordante). Les résultats ont montré que les informations présentées étaient perçues comme plus vraisemblables si elles étaient concordantes avec l’orientation du participant que dans le cas contraire. En revanche, il n’y a pas eu d’effet d’interaction : l’exposition répétée à un message faux conduisait les participants à y accorder plus de crédibilité, que ce message soit en accord ou non avec leurs convictions. Ces résultats montrent que le raisonnement partisan pourrait conduire un individu à accorder de la crédibilité à une fake news dès lors que celle-ci est conforme à ses convictions.
L’étude que nous venons de présenter montre que les fake news semblent être d’autant plus facilement acceptées qu’elles sont compatibles avec les orientations politiques de l’individu. Pennycook et Rand (2021) ont cependant montré une limite de cette étude, lié au phénomène dit de la « troisième variable » (Shadish et al., 2002).
L'orientation politique présente des corrélations élevées avec de nombreuses variables, et il est possible que l’effet apparent de l’orientation politique soit en fait dû à d’autres variables qui lui sont corrélées.
Parmi ces variables, on peut retenir les croyances existantes du participant. Cette explication de l’effet de vérité illusoire a le premier avantage de permettre un lien théorique avec un biais cognitif bien connu : le biais de confirmation (Nickerson, 1998). Ce biais conduit l’individu à accorder plus de crédit à des indices confirmant une hypothèse existante, et moins de crédit à des indices infirmant cette hypothèse.
Un second avantage de cette interprétation est qu’elle permet d’élargir le débat sur la vulnérabilité aux fake news au-delà du champ politique. Par exemple, les réseaux sociaux sont le lieu de nombreux débats sur l’efficacité de vaccins et le lien entre la vaccination et la survenue d’autres troubles.
L’exemple le plus connu est la croyance en un prétendu lien entre la vaccination à la rougeole, aux oreillons et à la rubéole (dit vaccin ROR) et l’autisme, lien pourtant démenti par la littérature scientifique (DeStefano & Shimabukuro, 2019).
Nyhan et al. (2014) ont évalué l’efficacité de différentes stratégies visant à dissiper les croyances erronées sur un lien entre le vaccin ROR et l’autisme. Trois d’entre elles reposaient sur l’exposition à des informations émanant d’une source officielle, le CDC (Centers for Disease Control and Prevention) : un démenti sur le lien entre vaccination et autisme, une description des symptômes et risques associés aux maladies que le vaccin permet de prévenir, et un récit d’une mère relatant l’hospitalisation de son enfant atteint de la rougeole. La dernière consistait à exposer les participants à des photos d’enfants atteints des maladies. L’expérimentation prévoyait enfin une condition contrôle dans laquelle les participants n’étaient exposés à aucune intervention.
L’étude a montré un résultat surprenant : quand bien même les interventions pouvaient réussir à dissiper les croyances erronées sur les effets des vaccins, ceci ne se traduisait pas nécessairement par un effet favorable sur les intentions à vacciner son enfant. Chez les parents nourrissant les attitudes les plus négatives à l’égard du vaccin, l’exposition pouvait même donner lieu à une hostilité plus prononcée au vaccin.
Le terme de deepfake désigne un type de contenu d’émergence récente exploitant les technologies du
deep learning,
L’apprentissage profond est un type d’intelligence artificielle dérivé de l’apprentissage automatique , où la machine est capable d’apprendre par elle-même. Contrairement à la programmation où elle exécute des règles prédéterminées.
issues du domaine de l’Intelligence Artificielle, pour créer des contenus très réalistes avec l’intention de manipuler le spectateur (Verdoliva, 2020). Si les finalités peuvent être variées – divertir un auditoire, encourager une réflexion citoyenne sur les dérives de la technologie – l’objectif est parfois de tromper l’auditoire, par exemple en fournissant un support réaliste dans lequel un individu connu semble émettre des propos qu’il n’a jamais émis.
La vidéo virale You won’t believe what Obama says in this video2 combine deux de ces finalités. Une première partie, falsifiée, met en scène l’ex-président américain Barack Obama qui semble proférer des insultes à l’encontre de son successeur Donald Trump. La seconde partie constitue un démenti, où il est révélé qu’il s’agissait d’un montage, les propos étant prononcés par un imitateur.
Cette vidéo a fait date, non seulement parce qu’elle a permis de sensibiliser le grand public aux problématiques informationnelles des deepfakes, mais aussi parce qu’elle illustrait des progrès techniques frappants pour l’époque (Suwajanakorn et al., 2017).
2https://www.youtube.com/watch?v=cQ54GDm1eL0
La littérature actuelle concernant les deepfakes se concentre principalement sur la mise au point de solutions techniques visant à identifier ces derniers. En comparaison, peu de travaux se sont intéressés aux aspects psychologiques de l’exposition à ces contenus. Vaccari et Chadwick (2020) ont examiné la crédibilité perçue de la vidéo que nous venons d’évoquer. Ils ont exposé des participants à trois contenus possibles : (a) un extrait trompeur court dans lequel « Obama » insultait explicitement Donald Trump, (b) un extrait trompeur long comprenant l’intégralité de l’intervention d’« Obama », mais pas la seconde partie révélant la tromperie ; et (c) la vidéo intégrale comportant l’allocution d’Obama et la révélation qu’il s’agit d’un extrait manipulé (Figure 1). A l’issue du visionnage, il était demandé aux participants si à leur avis Obama avait bien prononcé l’insulte contre Trump (oui / non / ne sait pas)
Figure 1 – Conditions expérimentales dans l’étude de Vaccari et Chadwick (2020)
Les résultats montrent que 49,2% des participants avaient été dupés par la vidéo. Ce chiffre intègre les participants ayant déclaré que l’insulte avait vraiment été prononcée (16,0%) et ceux ayant répondu qu’ils ne savaient pas si l’extrait était authentique ou non (33,2%). Si la proportion des participants ayant cru à l’authenticité de l’insulte ne différait pas significativement suivant la condition, le contenu de la vidéo a eu un effet significatif sur la proportion des participants ayant déclaré l’authenticité incertaine. Cette proportion était supérieure dans la condition « extrait long » (36,9%) et dans la condition « extrait court » (35,1%) par rapport à la condition « extrait intégral » (27,5%). Surtout, les auteurs ont montré que l’exposition à un média trompeur pouvait éroder la confiance dans les informations diffusées sur les médias sociaux, et que cet effet était causalement expliqué par l’incertitude ressentie quant à la véracité d’un contenu trompeur.
Moliner (2016) a proposé un programme de recherche sur le thème de la psychologie sociale de l’image, dans lequel il est supposé que la transmission de l’information via l’image implique que l’émetteur de l’image et son destinataire partagent un ensemble de croyances collectives. La psychologie sociale invite à donner, dans cet ensemble, une place particulière aux catégorisations sociales et aux stéréotypes
Variété de courge dont les fruits, le plus souvent de forme allongé sont consommés à un stade très jeune.
(Figure 2). Assurément, les deepfakes représentent une situation dans laquelle ce contrat n’est pas respecté, dans la mesure où l’émetteur est animé de l’intention de tromper le destinataire, c’est-à-dire de présenter comme véridique une information fausse. Nous avons vu que cette tromperie peut s’appuyer sur des croyances partagées : l’étude de ces dernières et de leur influence sur la croyance dans les deepfakes pourrait offrir de nouvelles perspectives de prévention de leurs effets néfastes.
Figure 2 – Schéma d’un programme de recherche sur la psychologie sociale des deepfakes, adapté de Moliner (2016)
Le présent article s’est donné pour objectif de faire un état de quelques travaux actuels en psychologie sur le thème des fake news. Plus particulièrement, cette synthèse porte sur les travaux relevant d’une approche expérimentale. Ce champ de recherches constitue un prolongement naturel de travaux classiques en psychologie cognitive et sociale sur le raisonnement. Il montre que les fake news tirent parti de limites endogènes
interne, qui se transforme de lui-même, sans intervention de l’extérieur
au raisonnement humain : l’exposition constante à des contenus trompeurs, notamment via les réseaux sociaux, tend à faciliter le traitement cognitif d’informations erronées. De plus, face à une fake news, nous ne sommes pas un terrain neutre : nos convictions antérieures peuvent influer sur notre vulnérabilité à ces informations erronées, tant dans la mesure où elles peuvent influer sur nos croyances et nos actions, que dans la mesure où nous pouvons choisir de les propager.
Ces travaux de recherche permettent aussi d’évaluer l’efficacité d’interventions visant à prémunir le grand public des effets indésirables des fake news. Les évolutions de la technologie ouvrent des possibilités nouvelles pour la manipulation de contenus textuels et imagés de plus en plus vraisemblables, mais aussi pour de nouvelles stratégies de prévention
L’abondance des termes référant aux luttes politiques
et citoyennes numériques tels que cybermilitantisme, cyberactivisme, cybercitoyenneté, blog engagé, technomilitantisme, e-militantisme révèle l’hétérogénéité des approches disciplinaires et des pratiques militantes liées &
agrave; la technologie numérique. Les travaux académiques sur le cybermilitantisme s’accordent sur l’importance du rôle du Web dans la transformation des rapports au politique
et à la citoyenneté1 et abordent les pratiques militantes numériques en interrogeant leur continuité / discontinuité avec les processus du militantisme hors ligne. Dans ce sens, Granjon qualifie de « néomilitantisme » les pratiques politiques ayant comme support les technologies
de l’information et de la communication, qu’il considère comme « la traduction technologique d’un type précis d’engagement militant»
La reconfiguration des espaces de lutte est à considérer comme la conséquence de la porosité des frontières qui séparent les espaces numériques du public et du privé,
de l’oral et de l’écrit et de l’action collective et individuelle. Cet article positionne les luttes féministes en ligne dans l’histoire plus globale des mouvements sociaux, prenant &
agrave; son compte l’hypothèse du risque de dépolitisation du cyberféminisme s’il est considéré comme un mouvement autonome dissocié du reste des luttes sociales et politiques2. Cependant, la présente étude révèle qu’au-delà de cette continuité, le cyberféminisme détient une singularité liée d’une part aux moyens technologiques de sa production
et d’autre part à la reconfiguration de la lutte féministe
à travers les différentes vagues et générations de féministes. Doit-on considérer le·la cyberféministe comme un·e acteur·trice qui a un parcours de militant·e hors ligne qu’il·elle adapte aux technologies de l’information
et de la communication ou comme un·e militant·e qui utilise exclusivement ces moyens numériques dans sa lutte ?
Afin d’éviter la vacuité de ces différentiations, cet article envisage le cyberféminisme tel un processus multiforme
et hétérogène qui dépasse les oppositions classiques entre
l’« en ligne » et l’« hors ligne ». Les « mobilisations
du clavier »3permettent ainsi de repenser le rôle des organisations intermédiaires entre les militant·es et l’État. Avec la révolution tunisienne, les réseaux sociaux numériques se sont dotés d’une perspective politique
et sociale, devenant des lieux de circulation d’une parole contestataire et militante. S’emparant de ces outils numériques, les féministes ont investi ces espaces comme lieu privilégié de lutte où se mettent en scène des réseaux
de sororité.
Afin d’éviter toute forme d’idéalisation, il est important de complexifier l’analyse en prenant en compte une distance critique avec ces procédés numériques et de les confronter
à leurs contradictions et à leurs failles. S’inscrivant dans
le champ d’une sociolinguistique critique et politique qui donne toute sa place à une démarche anthropologique numérique et partant d’une recherche de terrain en ligne4 qui se caractérise par la veille numérique, l’observation participante et les entretiens menés avec des cybermilitantes, cette recherche propose d’aborder les discours du cyberféminisme comme une formation discursive qualifiée d’« e-littératie féministe ».
Si la notion de « littératie » renvoyait au départ renvoyait au départ à laà la capacité de lire et d’écrire,
sa définition est aujourd’hui plus large et englobe les formes dynamiques d’échanges et d’interactions écrites5. Je l’utilise dans cet article en tant que compétence sociale d’expression, d’interaction et de productions discursives hétérogènes.
Il s’agit alors d’une part d’interroger la portée émancipatrice et performative de cette elittératie et d’autre part
de la confronter au concept d’« espace public oppositionnel ». Cette notion pensée par Negt6 est une réponse critique aux conceptualisations de Habermas sur la sphère publique 7 et considère que face à l’exclusion des dominé·es de l’espace public bourgeois se dresse un « espace oppositionnel »
où se déploient les voix minoritaires.
Qualifié par les médias occidentaux de « révolution 2.0 »
ou de « révolution Internet », le soulèvement populaire
de 2010-2011 en Tunisie a été rapidement articulé
aux pratiques militantes sur les réseaux sociaux numériques. L’idéalisation du cyberactivisme tunisien
par les médias occidentaux allait dans le même sens que
les discours romantiques sur le pacifisme des mouvements sociaux tunisiens, minimisant ainsi la puissance de la lutte populaire dans l’espace public et réduisant sa force politique à l’efficacité des technologies de l’information. Abbas revient sur le risque d’une telle lecture qui confond « le média avec le contenu et avec la cause du mouvement protestataire »8 . Pourtant, la méfiance de toute forme de réduction des luttes populaires au cyberactivisme n’est pas en contradiction avec une réflexion sur sa dimension émancipatrice.
Une épaisseur historique s’impose afin d’analyser
le corpus cyberféministe en le situant dans la continuité d’une histoire des usages militants et contestataires numériques en Tunisie. La spécificité du cybermilitantisme tunisien tient à plusieurs facteurs, tels que la prise de risque, le contournement de la censure et la dimension résistante9. Si, par exemple, avant et pendant la révolution, Facebook
a représenté un espace de contournement de la parole institutionnelle prorégime, quelques mois après
la révolution, il est devenu un espace de politisation.
Ce constat invite à penser ces nouvelles sphères militantes envisageant la lutte féministe dans une continuité des luttes pour l’égalité sociale et la dignité et c’est dans ce sens que
cet article examine le cyberféminisme tunisien
en interrogeant sa possibilité de se situer dans la lignée d’autres mouvements sociaux en Tunisie.
Connu pour la force de son féminisme étatique10, le pouvoir politique tunisien a longuement instrumentalisé la cause
des femmes pour des logiques politiques, sociales, géopolitiques et néolibérales11. L’expression « l’exception tunisienne » concerne essentiellement les avancées juridiques en matière de droits des femmes inscrites dans
le Code du statut personnel depuis 1956. Le récit national retiendra la figure du président Habib Bourguiba comme celle d’un libérateur allant parfois jusqu’à omettre le rôle
des luttes féminines qui ont précédé ses décisions juridiques. Marzouki insiste sur les conséquences de cette idéalisation : « Ce geste sera garant de la dette historique dont doivent être reconnaissantes les femmes de Tunisie envers leur libérateur mais il apposera surtout le sceau de la confusion entre politique étatique et devenir féminin. Devançant
les intéressées quant à toute possibilité d’intervention propre, le chef de l’État leur aménagera les voies de leur libération mais les mettra, du même coup, de façon quelque peu paradoxale, sous sa tutelle. »12 Si le cadre juridique garantit les mêmes droits à toutes les femmes, le risque consisterait néanmoins à minimer les inégalités d’accès
à ce cadre. Ne disposant pas des mêmes bénéfices sociaux
et culturels, certaines femmes défavorisées ou marginalisées ne peuvent facilement jouir de ces lois.
Depuis la période coloniale, plusieurs générations
de féministes ont milité pour la reconnaissance des droits des femmes sur le plan social et politique en les articulant avec d’autres revendications telles que les luttes anticoloniales, contre la dictature, la précarité et la domination de classe 13… Lakhel revient, lors d’une enquête de terrain, sur les deux dernières générations de féministes tunisiennes et, en explicitant leurs spécificités, elle considère que « la première, constituée de femmes nées peu avant
ou après l’indépendance, a lancé le mouvement féministe autonome des années 1980, mouvement qui a articulé
les premières revendications féministes sortant du giron bourguibien. […] La seconde “génération militante” est constituée de femmes nées sous Ben Ali et dont
le militantisme féministe a vu le jour à partir de sa chute
en 2011 »14. Les féministes de la nouvelle génération, tout en étant présentes dans les luttes sur le terrain, se sont aussi emparées des réseaux sociaux numériques comme un outil, un média, un partenaire de lutte15.
Plusieurs figures importantes ont marqué ce champ militant. Lina Ben Mhenni, jeune militante et cyberdissidente décédée en 2020 à l’âge de 36 ans, a tenu
un blog nommé Tunisian Girl qui a subi plusieurs tentatives de censure et lui a valu des années de répression. S’inscrivant dans des mouvements sociaux postrévolution tels que « Manish Msameh », les écrits de Lina Ben Mhenni avaient aussi une portée féministe où elle abordait des questions liées à la domination de classe, la précarité
et la violence subies par les femmes. En ce qui concerne
les luttes féministes et queer, la figure de Khookha Mcqueer est importante à citer. Celle-ci se définit comme une femme transgenre et non binaire, performeuse et militante féministe et queer. Ses posts et ses publications tendent
à visibiliser le vécu des personnes queer et à produire une parole féministe et queer où elle évoque les discriminations juridiques et sociales à l’égard des femmes transsexuelles.
Même si plusieurs féministes et des cybermilitant·es politiques ont marqué le champ militant de ces dernières années, il est encore difficile de circonscrire le cyberféminisme tunisien tant il réfère à des pratiques différenciées et hétérogènes qui se sont largement transformées dans le temps16. S’il a été considéré comme un postféminisme, le cyberféminisme ne peut se réduire
à la simple étude féministe sur le rôle et les pratiques féminines en ligne. Les autrices fondatrices du mouvement dès les années 1990 ont permis le développement d’une distance critique nécessaire face au risque d’un techno-utopisme. Paasonen retrace cette histoire et insiste: « Due to
Plant’s visibility, cyberfeminism became associated with her work and, consequently, critiques concerning it be those ones of de-politicization or technoutopianism became extended to cyberfeminism as a whole. »
Une première question s’impose : le préfixe « cyber » invite-t-il à repenser la pratique du militantisme féministe ? Il est difficile de proposer une définition homogène du cyberféminisme au vu de la singularité des rapports que chaque féministe établit entre la notion de « cyber » et celle de féminisme : « the relationship between “cyber” and “feminism” is, then, far from a simple one and many cyberfeminist articulations have involved a certain logic
of “thinking against” the notion of feminism while paying less attention to both the continuities and inner diversity
of feminist thought across different decades ». L’importante présence numérique des femmes lors des révolutions arabes a attiré l’attention de plusieurs chercheur·euses et médias
qui n’ont pas hésité à projeter des modèles d’émancipation eurocentrés sur les luttes des femmes arabes. Newson et Lengel rappellent que plusieurs médias et travaux ont longuement insisté sur la problématique de l’invisibilisation des femmes dans l’espace public arabe17.
Cet imaginaire s’érige en continuité avec un discours colonial et orientaliste sur l’enfermement des femmes arabes dans les sphères non mixtes du privé et s’inscrit à contre-courant des observations de terrain ainsi que des images
de révolte qui ont traversé le monde arabe, contredisant ainsi l’hypothèse de l’implantation du cyberféminisme comme conséquence de la supposée expulsion des femmes de l’espace public de contestation18. La prise en compte de cette complexité du rapport des femmes arabes à la lutte dans l’espace public n’exclut en rien l’importance de l’espace numérique dans la construction et la circulation d’une parole féministe périphérique.Dans les dix entretiens menés lors de cette recherche, les militantes ont insisté sur
le rôle joué par les réseaux sociaux numériques dans leur formation féministe et leur accès à cette parole militante,
mais elles ont aussi toutes insisté sur les risques
de dépolitisation des luttes quand elles sont réduites aux espaces numériques.
Les pratiques numériques féministes observées en ligne sont multiples (des groupes privés, des pages publiques
de signalement de harcèlement, de demande de soutien ou d’aide, de partage d’informations) – et se partagent entre
des espaces ouverts mixtes et d’autres restreints aux membres du collectif et non mixtes. Les collectifs étudiés (Falgatna, Chaml, Enazada) se réclament d’un féminisme qui s’éloigne des pratiques du féminisme institutionnel ou d’organisations associatives et regroupent de jeunes militantes aux affiliations politiques différenciées, même
si les observations révèlent que plusieurs d’entre elles s’affirment comme étant des femmes de gauche. Dans
sa préface à l’ouvrage de Negt, Alexandre Neummen se pose cette question : « Que se passe-t-il lorsque les groupes sociaux écartés de la délibération publique entrent en action et prennent la parole, en dehors de l’espace politique reconnu ? La force des choses et la volonté des acteurs veulent alors que se forme un espace public oppositionnel, répondant à ses propres formes de communication. »19
Les réseaux sociaux numériques représentent aussi pour les groupes militants non institutionnalisés
un « espace oppositionnel » qui permet par les contournements20 du discours du féminisme institutionnel et/ou associatif de créer un espace contestataire de la marge en dehors des lieux légitimes de l’exercice du pouvoir afin
de réinventer des sphères spatiotemporelles de la lutte politique. Le cyberféminisme ne se substitue pas aux organisations et aux associations féministes et il ne s’agit pas dans ce qui suit de minimiser la force de ces structures présentes depuis les luttes anticoloniales en Tunisie, mais
de comprendre les processus complexes et la dynamique de la lutte horizontale, collaborative. La participation des femmes au processus révolutionnaire n’est ni homogène ni linéaire et se caractérise par une circularité des individus et des discours entre les différentes sphères et réseaux
de militantisme. Elle est multiforme et se différencie selon les contextes, comme le rappelle Krefa :
Le discours féministe des collectifs de jeunes militantes invite à une interrogation sur la place des luttes féministes dans le cadre plus global des mouvements sociaux.
En plus des observations,
des entretiens et de la participation aux actions, mon terrain sur les nouveaux mouvements féministes
à post révolution a consisté aussi en une importante veille numérique. Cependant, plusieurs données du corpus ne peuvent être exploitées pour des questions éthiques, étant moi-même impliquée dans la cause féministe
et proche de plusieurs militantes, ayant aussi participé à plusieurs actions et par une volonté de ne pas mettre en danger les autres féministes, je n’évoquerai pas et je n’utiliserai pas les interactions et témoignages ayant ayant eu lieu dans le cadre des groupes privés
ou secrets qui se veulent être des espaces d’échange « safe ». ll me fallait donc faire le choix de ne jamais utiliser ces données pour assurer la sécurité des militantes et pour respecter les principes de sororité et d’hospitalité.Par ailleurs, il est impossible de ne pas être influencée par ces actions privées qui constituent un savoir situé,difficilement exploitable mais qui nourrit de manière forte l’analyse. Les observations de terrain ont été effectuées lors de ma participation aux groupes en ligne mais aussi lors de ma présence à certaines réunions, événements, manifestations féministes qui ont eu lieu à Tunis et à Paris entre 2012 et 2022.
Dix entretiens sous forme de récits de vie ont été menés entre 2021 et 2022. Sept entretiens ont été menés en ligne (par Zoom) et trois en rencontrant physiquement les militantes qui vivent actuellement à Paris. Toutes les féministes avec qui j’ai pu m’entretenir sont des femmes que j’ai rencontrées à différents événements féministes en ligne et hors ligne et un lien amical s’est formé avec plusieurs d’entre elles. Elles sont instruites et ont suivi une formation universitaire, proviennent de la classe moyenne et bénéficient d’un capital social et culturel, même si certaines sont encore précaires sur le plan professionnel.Les entretiens libres portaient sur leur Fparcours de féministe et sur leur engagement. La question du cyberactivisme s’est posée de manière récurrente puisqu’elles ont toutes en partage cette pratique depuis la révolution tunisienne. Par ailleurs, mon analyse porte aussi sur les pages publiques de trois groupes féministes que je différencie selon les actions qu’elles mettent en avant même s’il y a une dynamique et une interaction continue entre les trois : Falgatna, Enazada, Chaml. Toutes les données recueillies sur ces pages publiques sont regroupées, dans cet article, sous le nom d’« e-littératie féministe ». Cette littératie n’est pas une écriture littéraire mais un ensemble de pratiques technodiscursives hétérogènes : textes fictionnels, littéraires, témoignages, lettres, soutiens, partages d’informations, demandes de conseils, solidarité. Cette analyse sociolangagière et discursive tend à prendre en compte les spécificités technologiques des productions féministes en ligne.
"
Je regroupe toutes les formes d’écriture dans le cadre de ces groupes / collectifs militants dans le genre que je qualifie d’« e-littératie féministe ». Les autrices s’expriment dans ces espaces numériques de manières multimodales et plurilingues. En effet, dans toutes les pages étudiées, les productions se caractérisent par leur hétérogénéité (des textes accompagnés ou non d’images, des technomots, des liens hypertextes) et se présentent sous différentes formes : des récits de vie, des témoignages de violence subie, des témoignages de parcours de révolte ou de rébellion, des soutiens publics à des victimes, des dénonciations de discrimination, des annonces de postes ou de bourses, des discussions théoriques, des demandes de soutien ou de conseils, des partages de sentiments et d’expériences. Notons la circularité de ces publications entre les différentes pages Facebook et les blogs. L’émancipation langagière se repère alors à différents niveaux dans le cadre de cette e-littératie féministe : le plurilinguisme / la traduction, la construction d’un savoir collaboratif et l’hyperénonciation féministe et intersectionelle.
Dans les entretiens, les féministes affirment que leur premier accès au féminisme dans la période des événements révolutionnaires s’est effectué en ligne. Elles insistent sur l’importance qu’ont jouée les blogs et les textes « classiques » du féminisme en ligne dans leur formation féministe. Plusieurs d’entre elles disent avoir eu accès à ces textes en langue française, mais insistent sur le fait qu’arabiser les concepts a représenté un acte important dans leur parcours féministe. Les deux fondatrices de Chaml, Y. et A.22, m’ont expliqué que tout en étant imprégnées par la langue française, leurs premiers posts et textes féministes en ligne ont été produits en arabe. Y. précise : « J’ai commencé à écrire des posts explicitement en arabe. C’était ma revanche sur la dictature et la langue de bois. » L’analyse des pages révèle cependant l’aspect plurilingue de ces productions. L’écriture numérique permettant de déjouer les normativités scripturales en dépassant les oppositions entre oral et écrit met en œuvre un plurilinguisme politique et émancipateur. Ainsi, la juxtaposition de langues dans un même énoncé libère celle qui écrit en créant des espaces de créativité lexicale et en puisant dans d’autres registres. Les autrices oscillent entre arabe standard, littéraire, dialectal, parfois utilisent le français ou l’anglais pour s’exprimer. En plus du plurilinguisme, une pratique de la traduction vers l’arabe est à analyser comme l’émancipation d’un discours féministe eurocentré.
La complexité qui caractérise ce plurilinguisme numérique réside dans la contradiction de ses effets puisqu’il relève d’une part d’une maîtrise élitiste de plusieurs registres langagiers et d’autre part de la volonté de vulgariser la connaissance en s’adressant à un grand nombre de lectrices, quel que soit leur niveau scolaire23. Cependant, il est important de noter que l’usage de la langue française, dans ces groupes, est secondaire mais important24.
Les rapports entre la pratique du français et le féminisme sont liés à des logiques économiques et coloniales. En effet, l’histoire du féminisme en Tunisie est articulée à un imaginaire du progrès social où la francophonie joue un rôle déterminant en tant que distinction sociale faisant de cette « exception tunisienne » un mythe réservé à une tranche privilégiée de la société.
Ce que nous qualifions comme étant un « francoféminisme »25 relève de ces idéologies langagières qui lient la pratique de la langue française à celle du féminisme et qui relèvent d’un intertexte hérité de la période de la construction de l’État-nation français autour d’une langue universelle, celle du progrès et de la modernité. Le plurilinguisme observé dans les interactions en ligne et l’usage de l’arabe standard ainsi que du tunisien relèvent d’une émancipation langagière qui s’observe dans les traductions, les tentatives de trouver une terminologie féministe arabe, dans les discussions avec des féministes du monde arabe et dans les productions de textes féministes et contestataires en arabe.
à bas l’homophobie, à bas le totem de la )» مطوط ةلوجرلا ايبوفوموهلا، طقسي طقست virilité ») : ce titre d’article révèle par exemple les efforts de traduction, que ce soit par des processus de translittération ou de réinvention langagière. Ces processus témoignent d’une volonté d’affirmer une identité féministe arabe. D’autres articles optent pour le bilinguisme : le sexisme subtil dans la publicité tunisienne ةقرفتلا سنوتلا راهشلإا يف ةيسنجلا
Dans les entretiens, l’écriture en ligne est conçue comme un espace de transmission et de sororité qui allie les femmes et leurs vécus. Plusieurs posts et articles proposent des conseils sur la sexualité et les relations amoureuses. Les stratégies discursives telles que l’humour, la métaphorisation et les hyperboles sont courantes et permettent de donner aux articles une dimension ludique, didactique et non injonctive26. La construction de savoirs collaboratifs ainsi que la mise en place de communautés de pratiques s’observent et font de ces réseaux sociaux numériques un « espace tiers » où se déploie une parole féministe.
Dans la page d’Enazada, la didactique s’observe dans les conseils juridiques aux victimes tels que : « Que faire quand une femme subit une agression ? Que faire dans le cas d’un viol conjugal ? Quels sont nos droits ? Comment porter plainte ? » La page propose aussi des conseils d’éducation sexuelle, comme : « Qu’est-ce que le plaisir sexuel ? Est-ce que la femme perd sa libido après la ménopause ? »D’autres articles vont dans ce sens dans le blog de Chaml : « Un homme tunisien proféministe est-il possible ?/ La bibliothèque virtuelle féministe de Chaml - Chaml's online feminist library/Le sexisme subtil dans la publicité tunisienne Il s’agit de ressources importantes mises à «. راهشلإا سنوتلا يف ةيسنجلا ةقرفتلا disposition gratuitement pour se documenter, se former ou pour proposer des réflexions collectives et didactiques sur le féminisme. Dans l’entretien mené avec H.27 , celle-ci insiste sur le rôle joué par Internet dans son apprentissage du féminisme :
Les textes / posts publiés sur Facebook ainsi que sur le blog de Chaml participent à développer une conscientisation et une formation féministe ainsi qu’à la circulation d’une littératie militante plurilingue et facile d’accès. Ces partages d’informations et de ressources contribuent à la formation d’une sororité politique qui s’observe aussi dans les manifestes officiels de soutien et de solidarité avec les militantes qui sont arrêtées ou harcelées ou qui subissent des formes de discrimination.
Un discours de la sororité se manifeste sous différentes formes dans les corpus analysés : soutien, solidarité, partage d’informations sur la santé, le psychisme, offres d’emploi, bourses, témoignages, demandes de conseils. Les enquêtées interrogées considèrent que les réseaux sociaux numériques ont permis de forger un espace de sororité nationale et internationale. Une dynamique de circularité entre les groupes est observée. En effet, les militantes passent d’un groupe à un autre et j’ai pu retrouver les mêmes féministes dans les trois groupes analysés. Dans ce sens, A. B.28 précise :
Les militantes interrogées insistent sur le rôle joué par Facebook dans la rencontre avec les autres féministes du monde arabe et la constitution de collectifs panarabes mais aussi internationaux avec les féministes sud-américaines. Pour Sh.30, cette sororité qui dépasse les oppositions entre les espaces de l’« en ligne » et de l’« hors ligne » et les frontières nationales s’est observée dans l’apprentissage du chant féministe El violador eres tu 31 qui a été performé dans plusieurs pays grâce aux partages sur les réseaux sociaux numériques. Le collectif Falgatna a traduit les paroles en tunisien et a exécuté le chant sur une place à Tunis32. Les traductions et les répétitions ont oscillé entre les espaces de l’« en ligne » et de l’« hors ligne » et Sh. précise :
Le chant a circulé entre les pays, les espaces numériques, les appareils, les médias et les langues. Il est un exemple concret de la construction d’un savoir collectif et collaboratif qui s’effectue de manière horizontale dans les lieux de sororité. Sa viralité et sa dimension internationale et plurilingue appuient l’effet de sa performativité féministe. A. B., du groupe Falgatna, explique le rôle des réseaux sociaux dans la transmission du chant.Ces témoignages de sororité sont observés aussi dans les récits de vie, tel cet extrait de blog partagé sur Facebook. La répétition de la modalité appréciative qu’on y lit atteste d’une affirmation du sentiment féministe :
Les espaces numériques permettent à une voix de l’intime de s’exprimer au-delà des normativités. Plusieurs textes parlent de sexualité, de rapports intimes avec liberté et sont lus, discutés et réappropriés par d’autres femmes comme des espaces privilégiés d’une parole de « l’extime »34. De plus, cette e-littératie féministe ne se limite pas à la question de la domination masculine.
Les collectifs incluent les problématiques d’homophobie, de transphobie, de conditions de vie des femmes précaires et exploitées, les luttes des femmes ouvrières et rurales. <>La domination raciale est aussi évoquée et de nouveaux collectifs destinés aux luttes des femmes noires en Tunisie ont vu récemment le jour35. Dans ce sens, et même si à ce stade de la recherche, il est difficile d’évoquer une identité politique commune et précise de ces collectifs, il semble qu’une approche intersectionnelle les lie, comme l’affirment les militantes lors des entretiens dans lesquels elles se revendiquent toutes du féminisme intersectionnel tout en ayant des définitions différenciées de ce concept.
Les processus discursifs tels que la citation d’autres féministes, le partage des publications, les discussions entre les militantes et la possibilité d’une circulation à grande échelle des productions numériques détachent les autrices de leur statut de source énonciative et les positionnent en tant qu’e-hyperénonciatrices féministes36 productrices d’une savoir commun formant un thésaurus féministe collaboratif et polyphonique. Malgré la force performative de ces discours, les possibilités d’épuisement des ressources militantes et le manque d’une vision politique commune représentent un risque de dépolitisation de ces actions.
L’interdiscours du féminisme institutionnel, ayant marqué les espaces mémoriels de lutte, s’est déployé dans les espaces publics d’une société civile légitime qui avait accès à un statut privilégié et s’est constituée en tant qu’opinion publique plutôt consensuelle. Sh. insiste sur son parcours de militante marxiste-léniniste où les luttes sociales telles que le féminisme ne pouvaient être considérées comme une lutte en soi au risque d’une réappropriation d’un discours bourgeois et institutionnel.
Elle évoque comment elle a pris conscience, lors de son engagement dans les syndicats étudiants, de l’importance de la problématique féministe :
Newson et Lengel considèrent que ces cyberactivistes sont majoritairement des femmes instruites détenant un statut social plutôt privilégie37. En effet, les premières blogueuses sont des étudiantes ou des militantes ayant déjà une formation politique dans le champ militant hors ligne. L’e-littératie féministe sur Facebook a aussi les traits d’une appartenance de classe spécifique, plutôt francophone et aisée. Lecomte insiste sur le statut privilégié des jeunes cyberactivistes :
L’espace public oppositionnel court aussi le risque de devenir un lieu de reproduction d’une parole légitime et élitiste. Les processus langagiers de résistance tels que l’anonymat, les pseudonymes, les contournements énonciatifs et les échanges privés39 sur les réseaux sociaux deviennent alors des sphères nécessaires et périphériques qui défient les appareils idéologiques et répressifs sans pour autant échapper aux formes de récupération institutionnelle tels les bailleurs de fonds et les ONG.
Les entretiens menés avec les militantes permettent de faire entendre l’idée d’une récupération de la lutte féministe par les mêmes outils qui ont permis sa circulation et sa construction. Ils révèlent aussi que les collectifs en ligne sont par leur caractère horizontal voués à n’être que des espaces
de sororité ne pouvant s’organiser de manière structurelle et politisée.
Pour M.40, la lutte féministe doit intégrer la lutte pour le droit d’accès à l’eau et aux conditions sociales des femmes travailleuses notamment dans le domaine du textile. Elle refuse de porter plainte contre le cyberharcèlement dont elle a été victime, car elle souhaite que le cyberactivisme soit un lieu de transmission populaire qui prend en compte les luttes de classes.Lors de l’entretien, elle insiste sur le danger de logiques capitalistes dans la récupération des luttes féministes.
Le débat sur la pertinence ou non d’envisager une quatrième vague puise ses sources dans la complexité des processus de lutte féministe en ligne. En effet, une féministe de la première, seconde ou troisième vague pourrait s’approprier les outils du Web pour prolonger son discours et ses pratiques. Sh. insiste sur ce point :
Défendre l’existence d’une quatrième vague consiste à adopter le point de vue d’une autonomie et d’une spécificité du féminisme 2.041.
Lors des entretiens, plusieurs militantes précisent que Facebook n’est pas toujours un espace allié et qu’il fait courir le risque d’une dépolitisation, comme l’affirme H. :
Les féministes interrogées souffrent d’une forme d’épuisement moral et parfois physique. Elles insistent sur les déceptions, la fatigue et les formes de violence exacerbées par la lutte en ligne. La question de la dissolution des groupes s’est posée à différents moments du terrain.
Des expressions telles que « je suis esquintée », « je suis épuisée, déçue » sont récurrentes dans les entretiens. Les militantes questionnent le caractère horizontal du groupe et la part inégale de la participation de chacune à la formation d’une intelligence collective. Le cyberféminisme court le risque d’une dépolitisation à cause de ce caractère horizontal, comme l’affirme Sh. Elle insiste sur l’importance des gestes imperceptibles dans le cyberféminisme. Elle défend le geste banal, quotidien comme étant plus performatif que les collectifs de sororité. Pour elle, le cyberféminisme se déploie dans cette e-littératie individuelle qui se traduit par des images, des commentaires, des citations, des exemples partagés sur sa page privée sur Instagram.
La question est de comprendre en quoi la performativité de cette e-littératie lui permet de se constituer en tant que projet politique ou dans la continuité d’autres mouvements sociaux.
À ce sujet, Marzouki pose une question essentielle : « Peut-on considérer le mouvement des femmes comme un mouvement social ? » Cette interrogation met en garde contre le risque de désolidariser la cause des femmes du reste des luttes sociales. Marzouki cite Touraine en guise de première réponse
L’autrice commente sa citation en rappelant qu’il n’est pas possible de nier le rôle des luttes féministes dans les changements sociaux : En se positionnant dans un espace oppositionnel périphérique et en se différenciant des luttes institutionnelles et/ou organisationnelles, les luttes féministes de la jeune génération offrent de nouveaux modèles de lutte horizontaux, inclusifs et collaboratifs tout en assumant leur propre fragilité de pérennisation des actions et d’un désinvestissement militant comme évoqué plus haut ; lors de l’enquête, deux groupes ont posé la question de leur possible dissolution suite à une fatigue militante et un désinvestissement observé chez plusieurs participantes.
Les dynamiques au sein des groupes révèlent une complexité des luttes féministes en ligne qui, tout en affirmant que la sororité est une possible force de contestation politique, courent le risque d’une part de se limiter aux interactions ponctuelles tels les manifestes de soutien et d’autre part de ne pas s’inscrire dans un projet politique commun et fédérateur à long terme.
Les réseaux sociaux numériques se constituent en tant que champ d’expérimentation politique où chacune avec sa langue, ses moyens et ses compétences est autorisée à exprimer sa voix, à la joindre aux autres voix, souvent inaudibles, en constituant un espace polyphonique, ouvert et inclusif que j’ai qualifié d’« e-littératie ». Ils sont en ce sens un espace oppositionnel qui, malgré sa portée émancipatrice, est loin d’échapper aux différentes formes de récupération institutionnelle et de désinvestissement politique.
1. Voir à ce sujet G. Pleyers, « Présentation », Réseaux, no spécial Militantisme en réseaux, 181, 5, 2013, p. 9-21 ; F. Granjon, L’Internet militant. Mouvement social et usages des réseaux télématiques, Paris, Apogée, 2001 ; D. Cardon, La Démocratie Internet : promesses et limites, Paris, Seuil, 2010 et P. Sedda, « L’Internet contestataire comme pratique d’émancipation », Les Cahiers du numérique, 11, 2015/4, p. 25-52.
2. Jardim-Pinto, étudiant les mouvements féministes brésiliens, considère que les avancées féministes « n’ont signifié ni une instauration définitive de la question des sexes dans la politique du pays ni un accroissement de l’identité féministe parmi les femmes. ». C. Jardim-Pinto, « Les féministes : mouvements sociaux et sujet politique », Les Cahiers du CEDREF, 6, 1997, p. 103
3. R. Badouard, « Les mobilisations de clavier. Le lien hypertexte comme ressource des actions collectives en ligne », Réseaux, 181, 5, 2013, p. 87-117.
4. À ce sujet, voir C. Hine, Virtual Ethnography, Londres, Sage, 2000 ; M. Pastinelli, « Pour en finir avec l’ethnographie du virtuel ! Des enjeux méthodologiques de l’enquête de terrain en ligne », Anthropologie et sociétés, 35(1-2), 2011, p. 35-52
5. B. Fraenkel et A. Mbodj-Pouye, « Introduction. Les New Literacy Studies, jalons historiques et perspectives actuelles », Langage et société, 133, 3, 2010, p. 7-24.
6. O. Negt, L’Espace public oppositionnel, Paris, Payot, 2007.
7. J. Habermas, L’Espace public. Archéologie de la publicité comme dimension constitutive de la société bourgeoise, [1962], traduit de l’allemand par Marc B. de Launay, Paris, Payot, 1978.
8. N. Abbas, « La Tunisie, une révolution Internet ? », La Vie des idées, 22 septembre 2015
9. R. Lecomte considère qu’il existe trois grandes périodes du militantisme numérique en Tunisie : « Depuis la fin des années 1990 jusqu’à l’amorce du soulèvement révolutionnaire, nous décomposons l’histoire des usages citoyens et protestataires du Net par les Tunisiens en trois grandes périodes, trois configurations caractérisées par de nouveaux acteurs, de nouveaux dispositifs techniques mobilisés et de nouvelles formes d’expression politique et d’action protestataire : l’âge de la cyberdissidence, l’âge des blogs citoyens et, enfin, l’âge des réseaux sociaux. » R. Lecomte, « Expression politique et activisme en ligne en contexte autoritaire. Une analyse du cas tunisien », Réseaux, 181, 2013/5, p. 51-86.
10. Dès l’indépendance en 1956, un Code du statut personnel est proclamé où les droits des femmes sont inscrits juridiquement, ce qui vaudra à la Tunisie une réputation de précurseur dans le reste du monde arabe. Ce féminisme étatique, même s’il a permis d’inscrire juridiquement et constitutionnellement les droits des femmes, reste attaché à une vision institutionnelle et ne résout pas les rapports sociaux de genre notamment pour les femmes dont le statut social est le plus fragile, comme les femmes rurales. Voir D. Mahfoudh et A. Mahfoudh, « Mobilisations des femmes et mouvement féministe en Tunisie », Nouvelles Questions féministes, 33, 2, 2014, p. 14-33 ; S. Bessis, « Le féminisme institutionnel en Tunisie », Clio. Femmes, genre, histoire, no spécial Femmesdu Maghreb, 1999, S. Ben Achour, « Le Code tunisien du statut personnel, 50 ans après : les dimensions de l’ambivalence », L’Année du Maghreb, no spécial Femmes, famille et droit, 2005-2006/2, p. 55-70.
11. A. Jomier, « Laïcité et féminisme d’État : le trompe-l’œil tunisien », La Vie des idées, 12 avril 2011
12. I. Marzouki, Le Mouvement des femmes en Tunisie au XXe siècle : féminisme et politique, [Tunis], Paris, Maisonneuve et Larose, Cérès Prod, 1993.
13. Nous n’évoquons pas dans cet article les mouvements féministes à référence religieuse qui ont aussi eu un impact important dans les luttes féminines postrévolution, comme le rappelle S. Kébaili : « Au lendemain de la révolution de décembre 2010-janvier 2011, plusieurs voix de femmes se sont élevées pour défendre un militantisme alternatif et critique du mouvement féministe laïc » (S. Kebaïli, « Expérience de la répression et mobilisations de femmes dans la Tunisie post-révolution. Le cas d’une association à référent islamique », Archives de sciences sociales des religions, 181/1, 2018, p. 121-140).
14. L’autrice insiste aussi sur les interactions entre deux générations : « Par ailleurs, il faut souligner que des dialogues existent entre les militantes des deux générations, notamment au sein du groupe Chaml où quelques femmes de la première génération militante s’activent, publient et réagissent » (M. Lakhel, Militer et transmettre : une étude des frictions entre « générations » de féministes, Beyrouth, Conseil arabe pour les sciences sociales, 2021
15. Au sujet du cyberfeminisme arabe, voir B. Andorf, « Female Reverberations Online: An Analysis of Tunisian, Egyptian, and Moroccan Female Cyberactivism During the Arab Spring », International Studies Honors Projects, Paper 20, 2014, A. Abdlgalil, Cyber-feminism and Facebook: A comparative study of Arab Women's Organization activity in Tunisia, Lebanon, and Egypt, thèse de master, Nouveau Caire, American University in Cairo, 2018, H. Atifi et Z. Touati, « Nouvelles revendications féministes et médias numériques. Contournement des interdits sociaux et religieux en Tunisie et Maroc », ESSACHESS. Journal for Communication Studies, 13, 1(25), 2020, p. 179-208
16. S. Paasonen, « Revisiting cyberfeminism », Communications, 36, 2011, p. 335-352
17. V. Newsom et L. Lengel, « Arab Women, Social Media, and the Arab Spring: Applying the framework of digital reflexivity to analyze gender and online activism », Journal of International Women's Studies, 13(5), 2012, p. 31-45
18. M. Sellami, « Représentations des violences faites aux femmes dans l’espace public en Tunisie postrévolutionnaire : un enjeu politique de genre », Cahiers du genre, 72, 1, 2022, p. 175-206.
19. A. Neumann, « Préface », in O. Negt, L’Espace public oppositionnel, Paris, Payot, 2007.
20. Sedda insiste sur cet aspect et explique comment Internet contribue à la création « d’espaces info-communicationnels “oppositionnels‟ » (P. Sedda, op. cit.).
21. A. Kréfa, « Les rapports de genre au cœur de la révolution », Pouvoirs, 156, 1, 2016, p. 119-136.
22. Y. et A. sont les fondatrices du collectif Chaml. Elles sont nées dans le début des années 1980 et elles ont toutes les deux suivi un parcours universitaire. Y. travaille dans le secteur public alors qu’A. est salariée dans le privé.
23. Le français, par son histoire coloniale en Tunisie, s’impose comme la langue de l’émancipation alors même qu’il devient la langue d’une élite bourgeoise, citadine, parfois déconnectée des réalités sociales et politiques du pays.
24. M. Guellouz, « The Construction of “Tunisianity” through Sociolinguistics Practices from the Tunisian Independence to 2016 », Journal of Arabic and Islamic Studies, 16, 2017, p. 290-298.
25. M. Guellouz et S. Kebaili, « Francoféminisme : une histoire postcoloniale », The Markaz Review, 14 février 2021
26. Dans cet article paru en tunisien sur le blog du collectif Chaml, les autrices proposent des conseils aux hommes pour mieux faire l’amour. Le terme utilisé pour l’expression « faire l’amour », « ta’mel wed », est une expression quasi argotique utilisée en dialecte tunisien et considérée comme taboue ou de la catégorie des gros mots.
27. H. est une jeune militante trentenaire très active sur les réseaux sociaux. Elle est aussi chercheuse en sociologie, journaliste et consultante.
28. A. B. est trentenaire, elle a suivi un parcours universitaire. Elle est employée dans une entreprise privée. Elle est parmi les fondatrices de Falgatna et a été activiste dans plusieurs collectifs féministes.
29. Chouf est le nom d’un collectif féministe queer.
30. Sh. est une jeune militante de 29 ans, universitaire, chercheuse, très active sur les réseaux sociaux.
31. « El violador eres tú – letra completa del himno feminista. Un violador en tu camino », La Nacion Costa Rica, 2019
32. Falgatna : flashmob féministe contre les agressions sexuelles, Tunis, Nawaat, 2019
33. Alivesomehow420, « Ruminations dépressives féministes »
34. H. C. de Chanay et L. Rosier, « Faces extimes sur Facebook : un point de vue “personnel” », Cahiers de praxématique, 66, 2016
35. Le collectif « Voix des femmes tunisiennes noires » dont les fondatrices sont Huda Mzioudet et Maha Abdelahamid.
36. D. Maingueneau, « Hyperénonciateur et “particitation” », Langages, no spécial Effacement énonciatif et discours rapportés, A. Rabatel (dir.), 156, 2004, p. 111-116.
37. V. Newsom et L. Lengel, op. cit.
38. R. Lecomte, op. cit.
39. Dans sa critique de Habermas, Fraser propose d’introduire la notion de « contre-public subalterne » afin de penser la sphère publique dans une pluralité qui inclut les sans-voix (N. Fraser, « Repenser la sphère publique : une contribution à la critique de la démocratie telle qu’elle existe réellement. Extrait de Habermas and the Public Sphere, sous la direction de Craig Calhoun, Cambridge, MIT Press, 1992, p. 109-142 », Hermès, la revue, 31, 2001/3, p. 147).
40. M. est militante et actrice de la société civile. Elle est artiste/designer et détient sa marque de vêtement.
41. D. Bertrand, « L’essor du féminisme en ligne. Symptôme de l’émergence d’une quatrième vague féministe ? », Réseaux, 208-209(2-3), 2018, p. 232-257.
42. A. Touraine, « Contre l’anti-sociologie », in Lettres à une étudiante, Paris, Seuil, 1974, cité dans I. Marzouki, op. cit.
La socialisation de la notion d’engagement s’est fortement élargie au fil des ans et le mot « engagement » semble être de plus en plus utilisé, notamment sur le Web.
À l’élargissement des usages répond l’hétérogénéisation
des définitions, la notion revêtant rarement la même signification d’un texte à l’autre, d’un usage à l’autre.
Après s’être encore interrogés, certains d’entre nous (Amato et Boutin 2012) posions une nouvelle fois ce type de question. S’engage-t-on ou est-on engagé, par exemple ?
En Sciences de l’Information et de la Communication (SIC), la communication engageante a acquis valeur de paradigme (Bernard 2018).
En marketing et dans la littérature anglo-saxonne,
le mot engagement a longtemps renvoyé à la conception
de Morgan et Hunt qui s’exprime par le mot commitment.
À ce stade, il convient de préciser que plusieurs mots anglo-saxons renvoient au mot français « engagement » :
bond / binding, commitment, involvment, pledge, engagement. Or l’orientation, et peut-être surtout la force des liens constituée par ces engagements, peuvent varier de manière significative. Il peut même exister des cas où,
au sein d’une communauté donnée, l’acception du même mot renvoie à des orientations différentes. Helme-Guizon
et Amato avaient éprouvé la nécessité de clarifier leur positionnement pour définir leur usage du terme.
Ils développaient aussi un propos s’adressant principalement aux membres de la discipline sciences de gestion mais s’inspirant fortement de travaux développés en psychologie sociale, dans une perspective info-communicationnelle.
Aujourd’hui, la question de l’engagement paraît renouvelée par les réseaux sociaux numériques (RSN), à considérer en tant que dispositifs socio-techniques. Qu’en est-il vraiment ?
Aux définitions académiques s’ajoutent un ensemble d’autres définitions. Certaines d’entre elles sont liées à des grandes institutions et à leurs systèmes de valeurs institutionnelles (l’armée, les organisations religieuses,
le mariage, etc.), d’autres ont émergé dans la sphère
de l’économie et du marketing. Des marques, des produits
et les RSN semblent aujourd’hui créer leur propre définition de l’engagement. Dans le contexte de certains services,
il peut être décrit comme « le niveau d’immersion dans
une expérience » (Amato 2018). Prenons le cas de Twitter.
Ce RSN distingue l’engagement et le taux d’engagement.
Pour définir le taux, il est nécessaire de prendre
en compte le nombre d’impressions. Voici donc les trois définitions de Twitter¹ :
Si les RSN sont différents, le « taux d’engagement »
se rapproche généralement du calcul suivant :
Taux d’engagement = nombre d’interactions / nombre d’impressions x 100
Pour Google Analytics, l’engagement désigne toute interaction des utilisateurs avec un site ou une application.
De façon générale ces définitions trouvent leur origine dans une façon d’envisager le marketing, l’engagement publicitaire désignant le fait d’interagir avec un élément publicitaire.
Dans toutes ces définitions, nous pouvons d’ores et déjà constater deux faits qui nous paraissent importants, concernant l’ « engagement des RSN » :
Ni le sens (informatif, affectif ; positif, négatif) ni le coût que peut revêtir ce mini-acte pour celui qui le produit n’apparaît réellement bien pris en compte.
Le taux d’engagement est une métrique qui semble particulièrement utile pour les community managers afin
– c’est du moins ce qui semble être présupposé – de leur permettre, de façon utilitaire, de chercher à optimiser l’impact de leurs pratiques, de leurs messages (cf. critères intrinsèques de viralité indépendamment de la structure réticulaire des followers), de façon comparative et « scorée », justement dans l’idée d’optimiser le « taux d’engagement », les interactions avec notamment une marque,
un message, un individu. Ainsi, « L’animation de communauté peut quant à elle faire référence,
en termes de métrologie, à la notion «d’engagement» plus que de notoriété, c’est-à-dire de participation des publics
à la communication des organisations dans le cadre sociotechnique offert par les plateformes numériques, par exemple, en posant une question à «sa communauté» afin de la faire réagir. » (Alloing et Pierre 2019 : 90-91).
Ce taux devient de plus en plus important chez ceux qui l’observent pour au moins deux raisons :
La plateforme Twitch, quant à elle, présente de façon directe et explicite son petit traité de « rétention des nouveaux spectateurs »² à l'usage des jeunes gens.
L’implication est à nouveau au centre des préoccupations :
« Twitch propose aussi un certain nombre d’outils pour aider les créateurs à accroître l’implication des spectateurs sur leur chat et augmenter les chances qu’un nouveau spectateur revienne lors d’un prochain stream. » L’URL de la page qui porte cette proposition est intéressante car elle montre bien le lien étroit établi entre deux mots-clés :
« connect and engage ». Aussi, le titre « Impliquer les spectateurs » présent sur la page Web française est
la traduction de « Engaging Viewers », sur la page Web américaine de la plateforme de streaming. Il est alors possible de s’interroger sur le choix opéré : fournir une sorte de précis de « captologie » (Fogg, Cuellar et Danielson) appliquée au streaming plutôt que des conseils plus liés aux contenus (e-sport, talks, etc.).
Ces pratiques sont aujourd’hui intégrées par une large population. La figure de l’individu influenceur semble avoir été institutionnellement légitimée puisque le mot
« influenceur » a été introduit dans l’édition 2021
du Larousse, avec deux définitions :
Par ailleurs, la question posée par l’engagement et les réseaux sociaux numériques a fait l’objet d’une autosaisine du Conseil économique, social et environnemental (Aschieri et Popelin) pour laquelle l’un d’entre nous avait été reçu en entretien privé. La troisième chambre de la République
a donc cherché, elle aussi, à s’emparer d’un sujet de première importance, en adoptant une acception du mot engagement. Déjà, la question des influenceurs est posée.
Elle paraît plus aiguë aujourd’hui avec
le développement des usages liés au Web de flux et à l’essor assez impressionnant de plateformes telles que Twitch que nous avons évoquée. La question du statut des jeunes influenceurs ne fait que depuis peu l’objet d’une réflexion quant à sa réglementation³.
Il paraîtrait souhaitable d’adjoindre une dimension psychologique aux questionnements en cours afin
de déterminer si ce type d’activité pourrait entraîner des
« comportements excessifs et problématiques avec Internet », voire des « troubles addictifs » (Courbet, Fourquet-Courbet et Amato), notamment liés à un « engagement » mal maîtrisé. Effectivement, la « génération 3.0 » (Lardellier) apparaît hyper-connectée, « communique
à outrance », très souvent en solitaire. Sur des plateformes qui voient émerger des pratiques gagnant en puissance, il est possible de constater le cas de streamers débutants désirant accroître leur « commu » (pour communauté) et les gains financiers générés, en s’appuyant sur les chiffres fournis par les dispositifs eux-mêmes. Il s’agit souvent de conquérir
et de fidéliser un nombre important de followers ou
de viewers. Les chiffres fournis deviennent un miroir digital de désirabilité sociale, filtre et philtre, donc, puisqu’il s’agit de susciter un attachement fort. C’est donc beaucoup
à travers eux que les influenceurs, ou ceux qui cherchent
à le devenir, se perçoivent et perçoivent ceux qui les suivent.
Dans un contexte d’économie de l’attention (Citton),
de capitalisme des émotions (Alloing et Pierre 2017), dans lequel émerge un « digital labor » (Cardon et Casilli), le mot engagement pourrait apparaître comme vidé de
sa substance et il ne servirait plus guère qu’à scorer
des intérêts mutuels même si déséquilibrés, entre des plateformes et ses usagers, quitte à encourager des pratiques pas toujours vertueuses.
Une proposition consistante concernant l’engagement
a émergé à partir de « migrations conceptuelles entre SIC
et psychologie sociale » (Bernard 2007).
Auparavant, une distinction capitale entre deux types de raisons de l’engagement est établie (Bernard et Joule). Celui-ci peut être interne ou externe :
La différence est d’importance car dans le premier cas,
« le sujet s’engage » alors que dans le second cas, « le sujet est engagé ». Cette dernière formulation est parfois difficile à faire admettre car, implicitement, cette conception d’un individu engagé par une situation sociale donc en quelque sorte malgré lui (vs. qui s’engage) vient souligner les limites de la rationalité humaine.
Plusieurs définitions viennent éclairer cet engagement : Dans leur recherche, Kiesler et Sakumura énoncent dès
le résumé de l’article (Kiesler et Sakumura 349) :
« Commitment is defined as a binding of the individual to behavioral acts […] » (l’engagement est défini par un lien entre l’individu et ses actes comportementaux). Plus loin dans le texte (p. 350), il est écrit : « […] the model assumes the subject is pledged or bound by the performance of an overt act. » (le modèle suppose que le sujet est engagé ou lié par l’exécution d’un acte manifeste.) Il nous paraît très important de noter que les mots commitment, binding, pledged, bound traduisent des liens forts qui vont au-delà
de ceux qui peuvent être associés à l’idée d’implication.
Par la suite, la définition va être retravaillée :
« L’engagement correspond, dans une situation donnée, aux conditions dans lesquelles la réalisation d’un acte ne peut être imputable qu’à celui qui l’a réalisé » (Joule et Beauvois 60). Ici, le lien devient la conséquence de l’engagement et,
là encore, la nuance est capitale : il y a création de lien parce qu’il y a eu engagement.
Il s’agit donc d’étudier les conditions situationnelles générant de l’engagement. Pour Joule et Beauvois (op. cit.), qui ont établi une solide théorisation à laquelle nous nous référons, il existe deux grandes catégories : la taille de l’acte et les raisons de l’acte. Des situations qui suivent, nous pouvons trouver des exemples concernant des interactions médiées et médiatisées sur Internet.
La visibilité de l’acte :
Un acte réalisé en public est plus engageant qu’un acte réalisé de façon anonyme. Par exemple, afficher
sa photographie, sa véritable identité (vs. pseudonymat) est une façon, sur Internet, d’être engagé par un acte public.
Un acte explicite est plus engageant qu’un acte ambigu.
Par exemple, la participation à une pétition en ligne renvoie normalement de façon univoque à une conviction plutôt qu’à un acte ambigu.
Un même acte répété plusieurs fois produit plus d’engagement qu’un acte réalisé une seule fois. On notera qu’il peut s’agir d’actes différents si ces derniers ont
la même signification du point de vue de celui qui les émet. Par exemple, plusieurs micro-actes répétés (tels des clics de souris) sont plus engageants qu’un seul lors de l’interaction qui motive l’action considérée.
L’importance de l’acte :
Un acte est d’autant plus engageant qu’il est lourd
de conséquences. Par exemple, pour
un étudiant, un questionnaire à choix multiple (QCM) en ligne sera perçu comme ayant plus de conséquences s’il a un impact concernant l’obtention d’une unité d’enseignement (UE).
Plus un acte est coûteux en temps, en énergie ou en argent, plus il est engageant. Par exemple, avoir à rédiger soi-même un texte est plus engageant qu’avoir à valider par un clic
un texte ayant pourtant la même signification globale.
Les raisons d’ordre externe (i.e. récompenses ou punitions, par exemple) désengagent tandis que les raisons d’ordre interne engagent. Par exemple, suivre des propositions gouvernementales5 et adopter certaines « […] pratiques numériques face à l’urgence », sans pour cela avoir été contraint ni indemnisé, renvoie à une forme d’engagement attribué à des sources causales internes.
Un acte est d’autant plus engageant qu’il est réalisé sans pression extérieure. Il s’agit même peut-être
là de la condition la plus importante pour qu’il y ait production d’engagement. En 2003, Jacob, Guéguen et Pascual parvenaient à induire un effet en faisant cliquer
des sujets expérimentaux sur un lien se présentant sous
la forme d’un bouton sur lequel il était écrit « Vous êtes libre de cliquer ici ». Nous faisons quant à nous l’hypothèse qu’en 2020, la « culture 2.0 » ayant infiltré les esprits, le type d’interaction induit le sentiment recherché. Ou alors,
la formulation traditionnelle explicite de l’évocation sémantique d’un sentiment de liberté - peut-être aujourd’hui datée - serait à réviser pour ne pas apparaître étrange.
Cet aspect serait à réévaluer expérimentalement.
Effectivement, un algorithme, aussi sophistiqué soit-il, est-il-capable d’évaluer et donc de pondérer l’intensité que porte un « Like » ou un « clic de souris », l’éventuel « second degré » qu’il contient, sa signification subtile… ?
C’est un peu le sens d’un questionnement ouvert à propos du « sens du clic » (Amato 2014).
Si la conjugaison de toutes ces variables – ici présentées avec des exemples issus d’horizons différents – renforce
le lien entre l’individu et ses actes comportementaux,
la présence d’une seule d’entre elles peut suffire à générer
de l’engagement. Mais si celui qui cherche à optimiser
et assurer la force du lien essaie d’agir sur toutes
les variables en même temps, le chercheur expérimentaliste préférera souvent le principe de parcimonie (cf. lex parsimoniae, ou, autrement, rasoir d’Ockham) afin d’isoler la ou les variables les plus déterminantes.
Nous avons choisi de ne citer que deux façons de présenter l’engagement en SIC qui pourraient apparaître comme présentant certains points de contact. Nous n’abordons pas d’autres modélisations ou théorisations, telle celle d’inspiration goffmanienne (i.e. engagement / pare-engagement).
Dans ce qui précède, nous pouvons extraire des points communs et des points de divergences.
Le plus simple serait de ne considérer que le mot
« engagement » sans prendre en compte ce qu’il recouvre. Nous avons pu constater qu’issu de la littérature anglo-saxonne et ainsi traduit en français, son origine renvoie
à plusieurs mots et surtout significations. L’engagement
des RSN évoque plutôt l’idée d’implication sans que l’on ne puisse en dire beaucoup plus. L’engagement, en SIC, (commitment, binding, pledged, bound), traduit, évoque plutôt l’idée de promesse, d’obligation, de gage ou
de garantie. Nous pourrions dire que nos actes nous obligent et nous définissent, quand il y a engagement (cf. variables contextuelles). Ajoutons que la nature du lien qui unit l’individu à ses actes comportementaux reste floue, contingente et dépendant du dispositif socio-technique, quand il s’agit de tenter de définir l’engagement des RSN. L’engagement tel qu’il est formulé en SIC est quant à lui ciselé, univoque, précisément défini, donc.
L’engagement des RSN relève plutôt du registre
de l’interaction tandis que l’engagement tel qu’il est connu en SIC embrasse l’interaction et le champ beaucoup plus riche et complexe de la communication.
On peut considérer qu’il n’existe pas de théorie des engagements sur les RSN, ce qui présupposerait d’ailleurs que ce type d’engagement ne relèverait pas seulement d’une sous-catégorie de la théorie générale de l’engagement.
Celle-ci, quant à elle, a aujourd’hui valeur de paradigme. Rappelons que Kurt Lewin, s’il ne l’a pas formulée explicitement, en avait saisi et pour ainsi dire appliqué
les principes lorsqu’il a travaillé sur des problématiques
de communication sanitaire, aux États-Unis, durant la Seconde Guerre mondiale. Et c’est à lui que l’on attribue la célèbre formule « Il n’y a rien de plus pratique qu’une bonne théorie » qui prend ici un sens particulier.
S’il est évident que l’engagement des RSN peut être intégré dans des formes de communication d’influence,
les choses sont plus subtiles concernant la théorie
de l’engagement et la communication engageante.
Les théories de l’influence, en communication, s’y intéressent (Bernard 2015). Cela ne manque pas de poser des réflexions d’ordre éthique. Et même si les « applications »
de la communication engageante s’inscrivent très majoritairement dans un programme de recherche ouvert concernant la communication d’action et d’utilité sociétales (Bernard 2006), concernant principalement environnement et santé, des débats ont lieu (Le Cornec Ubertini).
Au-delà de ces débats, notons que deux études (Dillard, Hunter et Burgoon ; Dillard et Hale) montrent qu’une technique trouvant ses soubassements dans la théorie de l’engagement influence effectivement les comportements individuels, que la requête soit pro-sociale ou commerciale, mais que la taille des effets est plus importante dans le cas des requêtes pro-sociales.
Nous avons, à dessein et pour délimiter notre propos, restreint notre article aux SIC et à la psychologie sociale. Voire à certaines façons de concevoir la notion dans ces disciplines ou des disciplines voisines. D’autres mises en relation peuvent être proposées dans le champ des SHS
et tout particulièrement de la sociologie. Par exemple, nous aurions pu aborder la conception de l’engagement (involvment) pour le sociologue américain Howard Becker, inscrit dans la tradition de l’École de Chicago.
Dans son texte, traduction d’un article initialement publié en 1960, le distinguo entre « s’engager » et « être engagé » est déjà présent : « la distinction entre l’engagement comme action (ou engagement en acte) et l’engagement comme état est malaisé à traduire en français, la langue anglaise permettant de distinguer plus clairement ces deux modalités de l’engagement. Nous avons traduit “made a commitment” par “s’engageant” et “being committed” par “étant engagé” » (Becker 182). Nous aurions aussi bien évidemment pu aborder, dans une autre perspective - celle de l’interaction
en face-à-face - les idées d’engagement (involvment)
et de pare-engagement (involvment shield) pour Erving Goffman. Ces mises en regard textuelles et conceptuelles peuvent donc être poursuivies… le chantier reste ouvert.
Notre avenir sera façonné par une double transition, numérique et écologique. Mais ces deux récits sont encore écrits séparément et ne dessinent pas le même futur. L’enjeu pour la social-démocratie dans les décennies qui viennent est de les articuler de manière cohérente.
Nos sociétés sont confrontées à des changements multiples auxquels les acteurs politiques peinent à trouver un sens. Avec l’élection de Donald Trump, le Brexit et la montée des populismes et de l’autoritarisme, on pressent bien qu’il se produit une rupture. Mais laquelle ? D’un côté, on constate la montée de la demande de protection et une remise en question de la globalisation. Mais de l’autre, on voit s’imposer des programmes de dérégulation économique. La social-démocratie, dont les programmes semblaient plus que jamais d’actualité, paraît pour le moins désorientée. Après avoir symbolisé la lutte des classes, puis l’intégration des plus défavorisés aux classes moyennes et la protection sociale pour tous, elle peine à se renouveler. Elle avait réussi à répondre aux enjeux centraux du siècle dernier. Mais quels sont les enjeux centraux d’aujourd’hui ?
L’un des principaux est de combiner les deux grands récits qui vont façonner notre futur : la digitalisation de l’économie (et de la société) et les conséquences du changement climatique. Ces deux récits nous prédisent des modifications radicales. C’est un chantier énorme, car les forces sous-jacentes qui animent ces récits vont en partie dans des directions opposées. Par exemple, on ne peut pas dire que la France doit être le leader global dans le nouveau monde des big data et de la révolution technologique et en même temps prôner un social-écologisme soutenant les circuits courts et la démocratie locale. Ou alors il faut dire clairement comment concilier les deux objectifs. C’est pour répondre à cette nécessité que la social-démocratie devra renouveler son offre politique.
Numérique et lutte contre le changement climatique : c’est en inscrivant ces deux aspects fondamentaux de notre avenir dans un ensemble commun, au lieu de les considérer en parallèle, qu’un nouveau discours peut être fécond. Il devra aussi tenir compte du contexte politique : quelles alliances, quelles coalitions majoritaires possibles dans un temps de rétrécissement de la base électorale et de fragmentation de l’espace politique ?
Les politiques destinées à faire face, d’un côté, au changement climatique. et, de l’autre, à la digitalisation de l’économie auront d’énormes impacts sur l’emploi, la forme des entreprises et les conditions de travail [Degryse, 2015 ; Laurent et Pochet, 2015]. Or elles font très rarement l’objet d’une approche intégrée. Quand on inscrit ensemble les mots « numérique » et « climat » dans un moteur de recherche, on est surpris par le faible nombre de résultats. Sur le site de France stratégie, le think tank du gouvernement français, les deux termes sont bien associés, mais les études sont cloisonnées. Et lorsqu’on trouve un lien, c’est de manière subordonnée, par exemple dans des contributions sur le coût énergétique croissant de la révolution numérique, ou sur la façon dont celle-ci peut favoriser la transition écologique.
Les communautés académiques qui travaillent sur le climat et sur la numérisation ont, les unes et les autres, des visions prospectives dans leurs spécialités. Mais il ne peut y avoir plusieurs futurs. La tentative de conciliation n’est pas simple. Les acteurs et les dynamiques sociales ne sont pas les mêmes. Les futurs possibles restent, dans les deux cas, des questions ouvertes. Certains aspects sont relativement bien documentés (les émissions de CO2 par exemple), mais d’autres demeurent inconnus ou controversés, en particulier les conséquences en matière d’emploi. La digitalisation menacerait 47 % des emplois selon certaines études [Frey et Osborne, 2013] ou moins de 10 % selon les résultats d’un travail récent de l’OCDE [Arntz et al., OCDE, 2016]. Il n’y a pas de déterminisme technologique ou climatique : tout dépendra de la manière dont les conséquences seront gérées. Certes, l’avenir n’est pas écrit, mais pour l’orienter, il faut pouvoir le penser. L’existence de deux narratifs séparés ne nous y aide pas.
Première constatation, chacun de ces deux grands récits a (au moins) deux versions : pour certains, il s’agit d’une évolution certes profonde, mais sans rupture ; pour d’autres, d’une révolution, d’un changement de paradigme.
Dans la première version, le changement est considéré comme largement maîtrisable avec les moyens et les institutions de la société d’aujourd’hui. Il ne s’agit pas de changer de logiciel mais de l’adapter. Par exemple, il faut moderniser la protection sociale en l’adaptant aux nouveaux parcours professionnels. Cette approche se retrouve assez souvent dans les social-démocraties des pays nordiques, qui sont des économies ouvertes devant innover pour rester compétitives et ayant entamé une transition énergétique sans grands débats internes.
Dans la seconde version, il s’agit d’un changement de paradigme qui imposera de repenser des structures fondamentales de nos sociétés. Ceci signifie par exemple, pour un récit radical de la quatrième révolution industrielle (big data, ubérisation, robotisation, etc.), que nos enfants vont vivre dans un monde complètement différent du nôtre et occuper des emplois dont on ne connaît même pas le nom et la nature aujourd’hui. Selon le récit radical de la crise écologique et climatique, nous allons devoir trouver un modèle économique de décroissance et de nouveaux systèmes de redistribution et de protection sociale.
Évolutifs ou révolutionnaires, ces deux grands changements doivent évidemment être d’abord analysés séparément, car ils sont soumis à des forces et façonnés par des acteurs distincts. Mais il faut ensuite combiner différents scénarios et les hiérarchiser, avec une large incertitude sur les futurs plausibles. Par exemple, en matière de transport, va-t-on vers des véhicules électriques individuels (poursuite du modèle actuel) ? Ou bien vers le développement de transports collectifs (train, bus électriques, avec un investissement massif de l’État) et d’une mobilité « douce » (vélo et marche) ? Ou encore vers une sorte de BlaBlaCar électrique généralisé (collaboratif ou capitaliste) ? Les trois options sont possibles. Elles mixent environnement et technologies, mais représentent des enjeux et ont des conséquences très différents, qu’il s’agisse des acteurs (publics ou privés), des investissements ou de la géographie économique.
Une approche des différences entre les transitions numérique et climatique a été proposée par la Fondation Internet nouvelle génération (Fing) dans une publication [2015] synthétisée comme suit sur InternetActu.net : « Si les transitions écologiques ont un but, elles ne connaissent pas le chemin pour y parvenir ; à l’inverse, si la transition numérique transforme le monde, elle ne sait pas toujours dans quel but. Ces deux transitions ont besoin l’une de l’autre pour coordonner leurs objectifs et leurs moyens. Il est nécessaire de rapprocher les acteurs du changement climatique des acteurs de la technologie. [1] (en anglais)"
Ce texte suggère, à juste titre, qu’il existe une hiérarchie entre les deux récits. La transition écologique s’impose de façon impérative, sous peine d’exposer la planète à des phénomènes extrêmes et irréversibles. En revanche, la numérisation n’est que la troisième, quatrième, voire cinquième, selon les auteurs, révolution technologique du capitalisme [Valenduc et Vendramin, 2016].
Notes
[1]"De la transition numérique à la résilience écologique », par Hubert Guillaud, www.internetactu.net, mars 2016.
Si elle est maîtrisée et encadrée, la transition numérique peut donc être pensée, de façon plus traditionnelle, comme un facteur de croissance et d’opportunités de redistribution. Il n’en est pas de même avec la transition écologique, qui remet en question plus profondément le modèle économique dominant, et en particulier la notion de croissance. C’est pourquoi elle pose à la social-démocratie et aux syndicats des problèmes plus difficiles.
Nous sommes donc bien confrontés à des scénarios qui se rattachent à deux visions de l’avenir. Reste à savoir comment les articuler tout en les hiérarchisant. On trouve, sur ce sujet, des points de convergence et des points de tension.
Cependant, il est vrai que certains aspects de la transition numérique émergent brutalement dans la vie quotidienne et requièrent des mesures rapides (tout en permettant des mobilisations, comme dans le cas d’Uber), alors que la transition climatique (hors événements extrêmes) est moins visible et peine davantage à mobiliser les acteurs collectifs.
Le premier point d’accord est qu’il faut s’attendre à une « rupture » en matière technologique (on a atteint un point de basculement, « disruptif », en matière de puissance des ordinateurs et de gestion des données) comme en matière de climat (le seuil d’émissions où le changement devient incontrôlable). Cela signifie qu’on ne retournera pas à l’état antérieur (le rêve des Trente Glorieuses), et aussi que le mouvement actuel de globalisation néolibérale prendra fin. La rupture implique une transition vers un état différent, et sans doute à terme plus stable. Cette transition se fera au cours des vingt ou trente prochaines années et ira en s’accélérant. Il s’agit donc en principe d’un processus dynamique plus que d’un grand basculement (mise à part l’hypothèse d’une catastrophe climatique).
Autre point commun : les deux récits s’ancrent dans une croyance fondamentale en la technologie. C’est évident pour ce qui concerne le « nouveau monde » digital, mais l’idée que le défi climatique sera relevé, au moins en partie, grâce aux technologies (solaires et éoliennes principalement) est tout aussi largement répandue. Toutefois, dans le premier récit, les évolutions technologiques sont plutôt des ruptures (machines apprenantes), tandis que dans le second, elles existent déjà (sauf peut-être la capture et le stockage du carbone) mais doivent être optimisées.
Cet accent mis sur l’importance de la technologie fait apparaître un nouveau point commun : dans les deux récits, l’éducation et la formation tout au long de la vie sont présentées comme le meilleur moyen de se préparer aux changements à venir. Cette conviction est partagée par la Commission européenne [European Political Strategy Centre, 2016] et par la gauche dans son ensemble. Mais quelles sont précisément les compétences nécessaires pour le futur ? La réponse n’est pas évidente : les compétences relationnelles, les capacités de collaboration et de « transversalité » pourraient être les plus utiles dans un monde où les machines apprennent de plus en plus vite et dépassent les compétences humaines dans un nombre toujours plus important de domaines.
Inversement, ces deux récits divergent par d'autres aspects. En particulier à propos de l'espace pertinent à privilégier, de la compétition ou de la coopération, et, enfin, de l'égalité-inégalité jugée nécessaire. Le récit de la digitalisation nous dit : "Le monde est global et interconnecté." Ce renforcement de la globalisation entraîne une concurrence accrue entre les travailleurs de l'ensemble des pays, pour des tâches parcellisées, notamment via les plates-formes numériques. Cela touche aussi des fonctions jusqu'ici relativement protégées, comme la traduction. On voit émerger de nouveaux modèles productifs, notamment à partir des plates-formes capitalistes (comme Uber, Airbnb, Google, Facebook...), qui vont radicalement restructurer le tissu économique.
Le récit environnemental est, quant à lui, beaucoup plus attaché aux territoires. Il suggère un recul de la mondialisation du fait du coût croissant de l'énergie et de la réduction obligatoire des émissions liées au transport. L'échelle devient de plus en plus locale et l'accent est mis sur la nécessité de circuits courts (il faut cependant souligner qu'une partie du récit sur la digitalisation - les "makers", les imprimantes 3D, les nouveaux artisans - s'aligne sur ce nouveau localisme).
Voilà donc le premier point de rupture : local versus global, local globalisé ou encore global localisé. Quelle est l'échelle pertinente ? Les partis populistes ont choisi le national protecteur, mais où se situe la social-démocratie ? L'Europe, longtemps présentée comme un espace intermédiaire entre le national et le global, semble être devenue le lieu de la globalisation néolibérale voulue et subie. Elle n'est plus guère mobilisée comme champ de régulation pour le futur.
Dans le récit digital, les priorités sont mises sur la compétition et l'innovation. L'agenda digital européen se centre sur la compétition avec les Etats-Unis et la Chine pour le leadership mondial des technologies du futur. En même temps, la logique du numérique engendre des inégalités croissantes et accentue la concentration ("the winner takes all" [Thiel, 2016]). Le travail devient parcellaire (effectuer des tâches plutôt qu'avoir un emploi, être autoentrepreneur plutôt que salarié), les limites entre travail et loisir deviennent de plus en plus floues (on reste connecté en permanence). Et la classe moyenne se réduit progressivement.
Au contraire, le récit environnemental met l'accent sur la coopération, la nécessité de trouver des solutions communes. Pour réussir la transition climatique, la question de l'égalité est centrale, tout comme celle de la justice (justice environnementale et transition juste). L'agenda écologique comporte la réduction du temps de travail, s'appuie sur l'économie sociale au sens
large et insiste sur la capacité de retrouver le contrôle de son temps [Méda, 2013].
Pour conclure provisoirement, si les deux récits présentent quelques convergences, ils s'opposent sur des points essentiels : la conception du travail, l'attention portée à l'égalité, la réorganisation de l'espace. Ces divergences ne sont cependant pas toujours irréductibles - il est notable que les deux récits convergent sur l'idée d'un revenu de base qui permettrait à chacun de survivre dans ce nouvel environnement.
Qu'est-ce que cela implique pour la social-démocratie ? Tout d'abord, d'avoir un socle de base de principes à partir desquels aborder les deux récits. Ensuite, de fixer des directions, adaptables en fonction de la rapidité des changements. Enfin, d'articuler les différents niveaux d'action.
Face aux nouveaux enjeux, il nous faut consolider la réflexion sur ce qui constitue notre horizon : une société inclusive, où l'économie est un instrument et non une fin, où le travail et l'emploi visent le développement et l'épanouissement humain, où les inégalités sont réduites, où les risques sociaux et environnementaux sont pris en charge collectivement. Il existe dans la tradition sociale-démocrate au moins trois domaines - protection sociale, emploi, inégalités - qui méritent d'être mis en avant.
1. Alors que notre protection sociale est menacée de régression, la question climatique pourrait fournir l'occasion d'inverser la tendance. Le réchauffement climatique, en effet, ne représente pas seulement un risque environnemental, mais aussi un risque social collectif [Laurent, 2011 ; Laurent et Pochet, 2015]. Or la couverture des risques collectifs est bien une affaire de protection sociale. Ainsi pouvons-nous repenser la transition en considérant que la protection sociale doit pouvoir couvrir le nouveau risque collectif que représente le réchauffement climatique. Mais les enjeux de transition et de protection concernent aussi l'économie numérique. Là, il ne s'agit plus d'assurer un nouveau risque, mais de combler les "trous" dans un système qui n'avait pas été conçu pour couvrir des travailleurs aux statuts et trajectoires multiples.
2. Deuxième axe : fournir des emplois de qualité. Les syndicats expriment la crainte que la transition détruise des emplois, mais des transferts sont possibles : si, là, des emplois sont perdus, ici, de nouveaux sont créés, notamment des emplois "verts". Ces derniers devront être "décents", au sens que donne à ce mot l'Organisation internationale du travail. Ce pourrait être l'occasion de rouvrir les débats sur la qualité du travail. Enfin, les tâches parcellaires que fournissent les plates-formes de type Uber ouvriront un champ de forte mobilisation, car les excès et abus sont toujours porteurs d'indignation, et, ainsi, de possible régulation.
3. Dernier point essentiel : les inégalités et la justice sociale. De nombreuses études ont montré que les handicaps se cumulent : les plus défavorisés en matière de revenus sont aussi ceux qui subissent les conditions écologiques les plus dégradées (bruit, pollution, etc.). Justice sociale et justice environnementale peuvent être envisagées de façon complémentaire [Laurent, 2011]. Du côté des travailleurs dépendant des plates-formes capitalistes "extractives" (c'est-à-dire où le centre monopolise les bénéfices), l'objectif pourrait être d'évoluer progressivement vers un modèle plus collaboratif, où les bénéfices seraient distribués entre les acteurs de coopératives numériques [Bauwens, 2015].
Comme le souligne Robert Boyer [2015], "aucune grande crise ne s'est traduite par un amendement à la marge du modèle antérieur [...]. Les révolutions technologiques ne portent leurs fruits qu'après la synchronisation d'un ensemble d'organisations, d'institutions, de compétences et d'interventions publiques [...]. La multiplicité des acteurs, des intérêts, des visions et des stratégies implique un long processus de tâtonnement, puis d'apprentissage, avant que s'affirme un régime viable à l'échelle d'une génération".
Un tel changement est, par essence, long, complexe, avec des avancées et des reculs, avec des conflits, parce que d'importants intérêts sont en jeu, notamment ceux des gagnants du régime précédent. Il faut donc prendre en considération la variable temporelle : tout ne va pas changer d'un jour à l'autre. D'où l'importance d'une direction claire mais flexible, adaptable aux différents scénarios.
Cela dit, les deux récits (révolution numérique, transition écologique) impliquent des contextes politiques différents. Dans le cas du numérique, on a affaire à des plates-formes capitalistes extractives (qui captent la valeur ajoutée) face à une fragmentation de la force de travail, parcellisée et globalisée (le plus souvent). Rien de neuf pour la gauche dans ce grand retour en arrière à la fin du XIXe siècle. D'une certaine façon, les recettes sont bien connues et la partie localisée des plates-formes (transport urbain, location touristique, livraison, services de proximité tels que le jardinage ou le baby-sitting...) est relativement facile à réglementer. Les luttes sociales et syndicales ressortent de répertoires d'action connus, y compris l'utilisation des ressources du droit pour requalifier les emplois.
En revanche, la question du changement climatique est bien plus complexe. Il s'agit de convaincre une large partie de la population, sur un temps très long, de se plier à des choix radicaux, qui touchent tant la production que la consommation. Une telle mutation devrait faire l'objet d'un consensus large et durable, au-delà des cycles électoraux [Stern, 2015]. Elle implique un changement fondamental des règles du jeu politique, qui consiste trop souvent à s'opposer (comme l'élection de Trump nous le rappelle) aux politiques menées par le gouvernement précédent.
Pour le moment, ce n'est pas à cette dynamique consensuelle qu'on assiste. L'émergence, à la gauche de la social-démocratie, de mouvements qui ont souvent un discours écologique structuré a fragmenté encore davantage le champ politique, au lieu de l'unifier autour d'objectifs communs.
C'est pourquoi il faudrait sans doute distinguer les stratégies à mener en fonction de l'horizon temporel. Pour les court et moyen termes, l'enjeu principal est de constituer une force de plus en plus puissante réunissant des syndicats, des mouvements sociaux, des ONG, et peut-être aussi des organisations de consommateurs sensibilisées aux questions de développement et de consommation durables, des entrepreneurs de PME, des indépendants ayant une vision "soutenable" - et souvent plus "juste" - de l'économie (économie circulaire, recyclage, nouveaux modes de gestion plus responsables et plus économes des ressources, etc.). Pourraient aussi s'y joindre les sous-traitants de grandes entreprises, les agriculteurs qui travaillent pour l'agro-industrie ou la grande distribution, souvent écrasés par les logiques financières de leurs donneurs d'ordres.
Pour rassembler le plus largement possible, les forces sociales-démocrates ne devraient sans doute pas présenter un programme revendicatif très long et détaillé. Il leur faudrait au contraire mettre en avant quelques points stratégiques susceptibles d'emporter l'adhésion la plus large possible. L'enjeu principal est de sortir d'un capitalisme prédateur. En termes d'espace pertinent, les lieux les plus favorables pour mener l'action sont certainement les grandes villes : malgré les déroutes électorales au niveau national, de nombreuses grandes agglomérations sont gouvernées par des équipes sociales-démocrates, le plus souvent en alliance avec d'autres partis de gauche, écologistes ou centristes. Elles sont des lieux d'innovation et d'expérimentation, y compris dans les nouvelles formes de gouvernance et de participation (voir, par exemple, les villes rassemblées dans le Cities Climate Leadership Group [C40]). Elles sont aussi les lieux d'un vécu partagé, au-delà des inégalités, qu'il s'agisse d'embouteillages ou de pollution de l'air. Ce sont, enfin, des espaces où les progrès peuvent être réalisés et constatés assez rapidement.
Mais il s'agit, à terme, de bâtir un véritable récit novateur, partagé non pas par une petite élite, mais par une large majorité des acteurs. Ceci est une tâche bien plus complexe, car les oppositions au changement seront frontales. Y parvenir passera par l'organisation de "tables de consensus" et de "tables de conflits". Les tables de consensus servent à examiner les points d'accord. Ainsi, entre les forces de gauche et du centre, les ONG et les syndicats, certains courants parmi les chefs d'entreprise, ou même certains opérateurs sur les marchés financiers, il existe déjà une série d'accords et de coopérations. Un exemple intéressant dans le domaine du changement climatique est celui de l'accord entre les syndicats britanniques (TUC) et Greenpeace. Les deux parties ont aussi formulé, dans ce même document, toutes leurs divergences, notamment à propos de la capture du carbone : les syndicats britanniques affirment qu'elle est possible, invoquant notamment l'utilisation des puits de pétrole, dont l'expérimentation est envisagée en Ecosse ; l'ONG, quant à elle, pense que la capture du carbone est une technologie sans issue. On peut noter que des désaccords sur bien des points n'empêchent pas de bâtir progressivement sur le socle commun. On n'élude ni les conflits, ni les difficultés, mais le dialogue permet au moins une conversation sur les désaccords, et donc la possibilité de progresser. C'est aussi ce qui s'est passé aux Etats-Unis avec l'alliance "blue-green" entre certains grands syndicats et des ONG environnementales. C'est une méthode difficile à pratiquer, mais en existe-t-il une autre quand l'objectif est de rassembler à long terme ?
Rassembler ses forces et les articuler de manière cohérente, constante mais flexible dans une perspective de long terme : tel pourrait être le nouveau mot d'ordre de la social-démocratie pour faire face aux défis des deux ou trois prochaines décennies.
Transition numérique et intelligence artificielle : d’importants enjeux éthiques à surveiller
Alors que l’intelligence artificielle se fait de plus en plus présente et que la transition vers le numérique permet aux orga-nisations de gagner en efficacité, des voix s’élèvent pour appeler à un questi-onnement éthique sur ces avancées tech-nologiques. Voici un aperçu des prin-cipaux enjeux à surveiller dans ce domaine. Les technologies occupent une place grandissante, tant dans la vie des individus qu’au sein des organisations. Au cours des dernières années, elles ont fait des pas de géant et sont aujourd’hui capables de réaliser des tâches variées et de plus en plus complexes. Certaines d’entre elles, en particulier l’intelligence artificielle (IA), ont progressé à une vitesse stu-péfiante et ouvrent des perspectives qu’on peinait à imaginer il y a deux décennies à peine. Source de progrès, l’introduction massive de ces technologies soulève aussi bon nombre de questions. C’est ici que l’éthique entre en scène…
Utilisation, explicabilité, responsabilité et sens moral
Grâce à l’exploitation des données mas-sives et au recours à l’apprentissage profond (deep learning), l’IA connaît un essor sans précédent. Le secteur de la santé en a largement bénéficié – la radiologie diagnostique, par exemple –, mais ce n’est pas le seul domaine où l’IA permet d’améliorer les pratiques. L’IA est aussi à l’œuvre dans les services professionnels, le commerce de détail et une foule d’autres domaines où l’analyse de données, l’auto-matisation et l’amélioration de la prise de décision peuvent générer de la valeur. Pour les organisations, ces avancées techno-logiques visent l’amélioration des processus, de la performance et, éventuellement, de la rentabilité, d’où le vif intérêt qu’elles leur portent. Or, il y a encore peu d’encadrement réglementaire de l’IA, et même si certaines lois sont proposées, les progrès dans ce domaine sont si rapides que de futures régle-mentations pourraient devenir rapidement obsolètes. D’importants enjeux éthiques liés au développement de l’IA ont trait à la gouvernance des données. En effet, les technologies d’intelligence artificielle mobi-lisant l’apprentissage automatique s’ap-puient sur une énorme quantité de données pour entraîner leurs algorithmes. Par conséquent, les données sont devenues des ressources précieuses et convoitées par différents acteurs publics et privés. De nombreux enjeux éthiques sont donc liés à la nature même de ces données, à la façon dont elles sont collectées, entreposées, utilisées et partagées. Par exemple, peut-on dire qu’une personne a réellement consenti de façon volontaire et éclairée à l’utilisation et au partage de ses données personnelles parce qu’elle a coché rapidement une case afin d’avoir accès à une application mobile ? D’autres enjeux concernent directement les systèmes d’IA développés ou déployés dans les organisations. On peut se questionner d’emblée sur les objectifs poursuivis par ceux-ci. En effet, tout développement technologique n’est pas nécessairement souhaitable dans tout con-texte, et ce n’est pas parce qu’une avancée ouvre de nouvelles portes que nous devrions nécessairement les franchir. Pensons au clonage des embryons humains : nous savons que c’est possible scientifiquement, mais en tant que société, en prenant en compte diverses consi-dérations éthiques, nous avons décidé que ce développement n’était pas souhaitable. C’est un peu la même logique avec certaines applications d’IA qui ne cor-respondraient pas nécessairement à notre vision du bien commun ou du progrès social. De plus, même si plusieurs technologies ont été développées en toute intégrité, certaines d’entre elles peuvent présenter un potentiel d’utilisation mal-veillante ou non éthique. Par exemple, les robots tueurs et la militarisation de l’IA constituent une menace pour la vie humaine. Le double usage des technologies de l’IA dans le domaine de la santé peut également poser problème. Par exemple, dans le contexte de la pandémie de COVID-19, les applications de traçage pour pister les contacts des individus par le biais de la géolocalisation de leur téléphone portable ont fait l’objet de débats dans de nombreux pays, les législateurs se questionnant non seulement sur leurs avantages réels, mais aussi sur les risques de dérives. Se pose également l’enjeu de l’imputabilité. Par exemple, si une erreur venait à survenir à la suite d’une décision d’un professionnel de la santé soutenue par un système d’IA, notamment sur le choix d’un traitement ou d’un médicament à prescrire, à qui faudrait-il attribuer la responsabilité de cette erreur ? Au professionnel de la santé, au système d’IA, aux individus impliqués dans son développement,à l’entreprise qui l’a mis en marché ? Le fait de déléguer l’entière responsabilité décisionnelle et morale à des machines représente un autre enjeu éthique. Sommes-nous prêts à accepter que ces dernières en viennent, dans certains contextes, à remplacer complètement le jugement des individus ? De quelle façon les véhicules autonomes prendront-ils des décisions concernant la vie et la mort de piétons, de cyclistes ou de conducteurs d’autres véhicules ? Les robots - compa-gnons seront-ils à même de juger de situations qui ont une dimension éthique ? Autant de problématiques qui sont loin d’être résolues. Autre préoccupation ma-jeure : la confiance envers ces techno-logies et leur acceptabilité sociale. Ainsi, la confiance envers les technologies d’IA est indispensable à leur acceptation par les différents acteurs dans nos sociétés, qu’ils soient des professionnels, des ges-tionnaires, des décideurs ou des utilisateurs. Si le public est méfiant ou ne comprend pas le fonctionnement d’une technologie, il pourrait la rejeter, ce qui nuira nécessairement à son utilisation et à son adoption. De plus, pour certaines de ces technologies, notamment celles qui mobilisent l’apprentissage profond, il existe ce qu’on appelle un phénomène de « boîte noire » : il est parfois difficile de comp-rendre et d’expliquer comment le système est arrivé à une suggestion ou à une décision. Or, ce manque d’explicabilité est problématique, car moins un système est transparent, moins les utilisateurs lui feront confiance et voudront l’adopter. Au bout du compte, les entreprises pourraient avoir investi dans des technologies coû-teuses et sophistiquées qu’elles devront mettre au rancart, faute d’acceptabilité sociale. Par ailleurs, puisque leur app-rentissage repose sur des données et des décisions humaines parfois imparfaites, ces systèmes peuvent reproduire et amplifier les biais et les performances au détriment de certains groupes margin-alisés. C’est ce qu’on appelle la « discrimination algorithmique ».
Perturbation du marché du travail et fracture numérique
Mais, au-delà des enjeux liés à l’utilisation, à l’explicabilité, à la responsabilité ou au sens moral de ces technologies, il y a aussi la perturbation potentielle du marché du travail engendrée par l’intégration de l’IA, l’automatisation et la robotisation. Ces percées pourraient en effet se solder par la disparition ou la transformation de millions d’emplois dans tous les secteurs d’activité. Une véritable révolution qui entraînera la transformation profonde des tâches, des rôles et de l’identité pro-fessionnelle, et qui nécessitera une réflexion sur l’évolution du travail. Qui plus est, l’IA n’est jamais fatiguée : elle peut être à l’œuvre 24 heures sur 24, sept jours sur sept, et elle n’a pas d’attentes en matière de salaire, de conditions de travail ou d’avantages divers. Dans ce contexte, les entreprises peuvent être tentées de remplacer l’humain par la machine, surtout en période de pénurie de main-d’œuvre. Mais, au-delà de cette pénurie, la façon dont ces technologies viendront bouleverser le marché de l’emploi et les moyens que nous utiliserons pour nous adapter à ces transformations soulèvent des questions auxquelles il est encore difficile de répondre. Le risque de fracture numérique doit aussi être soigneusement soupesé. On sait que l’accès aux technologies d’IA est souvent limité aux personnes et aux organisations issues de pays riches ou de milieux socio-économiques favorisés. Ces inégalités renforcent les disparités sociales existantes et affectent considérablement la qualité et la représentativité des données disponibles pour créer, développer et déployer des systèmes d’intelligence artificielle qui respectent les principes d’équité, de di-versité et d’inclusion qui devraient se trouver au cœur de l’IA responsable. Mentionnons aussi les impacts envi-ronnementaux du développement de l’IA, compte tenu de l’énorme quantité d’énergie utilisée pour former les algorithmes d’apprentissage automatique, ainsi que l’infrastructure nécessaire pour soutenir leur développement et l’entre-posage des données. Ces facteurs gonflent la dette énergétique des tech-nologies d’intelligence artificielle.
Une nécessaire réflexion
l’IA responsable. Certaines organisations, comme
Accenture ou Microsoft, ont également mis sur pied des cadres normatifs en matière d’éthique de l’IA.
Mais le défi consiste à arriver à traduire ces principes de haut niveau en pratiques de gestion
concrètes. Pour réussir à intégrer ces principes dans la pratique, il sera essentiel de travailler en
interdisciplinarité. Les ingénieurs, les développeurs, de nombreuses catégories de professionnels et les experts
en éthique devront œuvrer main dans la main.Pour les organisations, les besoins en sensibilisation et en formation
sont grands. L’éthique est un sérieux enjeu susceptible d’avoir de lourdes répercussions qui peuvent aller
jusqu’à compromettre à la fois l’utilisation et l’adoption de ces technologies. Les organisations devraient donc
se montrer proactives et éviter d’effectuer une profonde transformation numérique sans se questionner sur les
enjeux éthiques que ce changement soulève.Il leur faudra aussi s’assurer que les technologies envisagées
auront effectivement un apport positif et seront une source
d’amélioration et non l’inverse. Là encore, l’expertise
des spécialistes en éthique
aidera à réaliser
un bilan des
enjeux propres à l’organisation et établira les bonnes
pratiques à intégrer ainsi que les précautions à prendre. La vigilance
est de mise, car la pression est forte pour adopter l’IA en
raison de ses avantages sur le plan de l’efficacité et
de la productivité.
Alors, comment s’assurer
que ces technologies soient utilisées à bon escient et éviter les dérives potentielles ? De
quelle façon réduire les risques sans compromettre le développement et la
croissance des entreprises ? Comment renforcer la confiance
des citoyens envers l’IA et son utilisation
par les entreprises ? Dans un tel contexte,
l’éthique
est devenue un incontournable. Rappelons
que celle-ci est une réflexion sur nos préférences,
nos choix et nos comportements qui vise le bien
commun. Elle doit aussi englober tous les acteurs de la société,
n’oublier personne et s’assurer de ne pas créer d’iniquité.D’ores et
déjà, de nombreux acteurs se sont mobilisés pour tenter d’établir des principes directeurs
en matière d’éthique des données et d’IA. Mentionnons, le groupe de l’OCDE sur l’IA, le Groupe d’experts
de haut niveau de la Commission européenne sur l’IA, la Feuille de route américaine sur l’IA, l’Observatoire
international sur les impacts sociétaux de l’IA et des technologies numériques
ainsi que l’Institut d’éthique de l’IA de Montréal, pour ne nommer
que ceux-là. En 2018, la Déclaration de Montréal pour un développement responsable de l’IA a aussi énoncé dix
grands principes à suivre. L’adhésion à ceux-ci demeure
toutefois volontaire. D’ailleurs, à travers le monde, il existe plus de 80 chartes de cet ordre qui visent à encadrer le
développement de
Enseignante-chercheuse à l’École Nationale Supérieure des Arts Décoratifs, Université PSL, EnsadLab Paris,France
Dans notre monde contemporain acculé par les enjeux environnementaux, la communication visuelle occupe
une place telle que ces défis rejaillissent fortement
sur elle : ils l’interrogent en profondeur, de façon toujours plus pressante. Percevoir ou admettre ces répercussions implique de nouveaux regards, focalisés sur la soutenabilité. Pour les pratiques graphiques, dans toute leur diversité,
cela suppose des approches renouvelées par l’intégration
de données et de priorités issues du monde extérieur
– à même de déplacer bon nombre de critères et de codes professionnels, tels qu’ils se sont progressivement constitués au fil du temps (en particulier depuis la massification
de la production et le déploiement des supports, à l’œuvre depuis le XIX e siècle). Pour l’essentiel, cette croissance graphique s’est opérée sans préoccupation environnementale, ce qui s’en ressent toujours largement 01, et ce malgré les réels efforts et les implications de différents acteurs de la communication et de l’industrie graphiques. En soi, cet état de fait persistant constitue aussi un sujet d’étude fondamental, propice à expliciter notre monde
et à mieux le comprendre-
qu’il s’agisse, d’une part, de ses incessantes sollicitations visuelles, des modes de production et de consommation, des comportements, des stéréotypes ou des excès,
et, d’autre part, des espérances, des possibles, des propositions constructives ou des actions bienfaisantes.
Penser et concevoir le graphisme en accordant une place centrale aux questions écologiques
(qu’il s’agisse du milieu, de l’environnement, des ressources, de la soutenabilité, de la durabilité, etc.)
– indissociables des enjeux sociaux et économiques – obligent à un déplacement important, sur différents plans. En effet, une nette distanciation s’impose face
à ce qui constitue notre époque : le déferlement
des messages, l’omniprésence des images graphiques
et typographiques, l’état de saturation qui en découle (phénoménal, démesuré, et parfois étourdissant)
– le tout sur fond de vitesse, de court-termisme 02, d’impératif de visibilité et de rentabilité.
De fait, l’une des réorientations majeures consisterait
à accepter et à adopter une vision globale, raisonnée
et volontariste, selon laquelle il ne peut plus s’agir
de produire toujours davantage – par défaut
ou par conditionnement, par plaisir ou par intérêt –,
mais de produire autrement, de se comporter autrement. Ceci suppose une forte considération pour ce qui relève
du contexte, des soubassements et des implications,
non seulement écologiques, sociaux et économiques,
mais aussi psychologiques, perceptifs, relationnels, etc.
La complexité de la situation, des phénomènes
et des mécanismes à l’œuvre nécessite tout à la fois
des clés de lecture, des analyses multidisciplinaires,
des investigations, des études d’impact,
des enquêtes, des données statistiques, des décryptages, etc. Nombreux sont les auteurs, à travers le monde,
qui apportent des éclairages fructueux sur la diversité
de ces sujets et enjeux (mis en relief depuis un demi-siècle)
– tels Lester Brown, Katherine Hayles, Naomi Klein
ou Amartya Sen. Pour prendre un exemple très significatif concernant la France, les publications de l’association Ars Industrialis, autour de Bernard Stiegler, apportent
de nombreux éléments féconds pour le cadre général
de ces réflexions. À la fin de l’ouvrage Réenchanter
le monde, les fondateurs de cette association décrivent
« un nouveau modèle industriel reposant sur le constat qu’après la matière, l’esprit est devenu la première ressource industrielle, en même temps que la seule chance
pour que la planète sache faire face aux énormes défis
qui l’attendent » 03 (Stiegler et al., 2006, p. 169).
Dans le livre Pour en finir avec la mécroissance, paru
il y a dix ans, Bernard Stiegler affirmait déjà
que « la nouvelle perspective économique est celle
de la contribution, qui ne s’inscrit plus dans le modèle production/consommation. Le modèle industriel consumériste est […] révolu […]. La question
est alors d’identifier les possibilités de constitution
d’un nouveau système » (Stiegler et al., 2009, p. 17 et 21).
Désormais, l’on ne compte plus les auteurs dont les alertes convergent vers un appel à une mutation profonde,
et exhortent à interroger chaque secteur d’activité. Le monde graphique n’échappe pas à de telles visées – dignes du plus vif intérêt, salutaires et vitales au point de devoir s’instituer parmi les fondamentaux de demain.
Nombre d’analyses et perspectives entrent
en résonance avec différents écrits consacrés au design
et à la communication soutenables, de Victor Papanek
à nos contemporains, sans compter les avant-courriers
tels William Morris. Dans son ouvrage fondateur Design
for the real world : human ecology and social change,
un manifeste célèbre et éminemment critique (publié initialement en 1970 en suédois), Papanek s’insurge contre « l’industrie, main dans la main avec la publicité
et le marketing » (Papanek, 1973, p. 282). Déjà, il situe
et interroge le design du point de vue des « conditions optimales pour la société humaine sur la Terre […,]
du système écologique et éthologique dans sa globalité […, des] limites de nos ressources […, des] règles de gestion fondamentales de la vie humaine sur la planète Terre » (p. 335 et 336).
Ce qui le conduit, en conclusion, à exiger que « les designers s’engagent à n’accepter aucun travail destructeur
sur un plan biologique ou social » (p. 337). Bien que ce livre ne traite pas de design graphique, Papanek y dénonce avec véhémence le système publicitaire. Il pointe
là un phénomène de masse, qui ira croissant,
en contradiction avec la quête d’un design intégrant l’écologie. En effet, les estimations récentes du nombre d’impacts publicitaires reçus au quotidien varient beaucoup 04, mais affichent des chiffres pouvant aller d’environ 1 500 ou 2 500 à 15 000 (ce qui, en tous les cas, apparait exorbitant – et constitue un axe essentiel de réflexion en vue d’une communication visuelle soutenable et non intrusive) 05. Cela se double d’une autre expansion majeure,
que rapporte d’entrée de jeu l’ouvrage Infobésité : « l’humanité a produit au cours des 30 dernières années plus d’informations qu’en 2 000 ans d’histoire, et ce volume d’informations double tous les 4 ans » (Aron et Petit [1997], cités dans SauvajolRialland, 2013, p. 11). Il faudra attendre un certain temps pour voir publiés un ensemble de livres spécifiquement consacrés au graphisme soutenable.
Ces publications deviennent tangibles à partir de la fin des années 2000. Principalement étasuniennes, elles restent
peu nombreuses. Se succèdent ainsi les titres
Green graphic design (Dou - gherty, 2008),
Sustainable graphic design (Jedlicka, 2010),
Sustainable graphic design : principles and practices (Fine, 2016),
Design to renourish : sustainable graphic design in practice (Benson et Perullo, 2017).
En France, la réception de cette littérature n’a pas encore
eu lieu. Pour preuve, le gigantesque Catalogue Collectif
de France n’indique en tout et pour tout qu’un seul exemplaire de chacun de ces titres, tous à la bibliothèque
de l’École Nationale Supérieure des Arts Décoratifs 06.
Dans Green graphic design, Brian Dougherty présente
la méthode inspiratrice du designing backwards
[concevoir ou designer à rebours], qui consiste
à considérer d’abord la fin du cycle de vie d’un projet
, pour remonter progressivement jusqu’au studio
de design – complété d’un processus décrit en six phases :
déchet, utilisateur, livraison, entrepôt, reliure, impression (p. 48-49).
L’ouvrage Design to renourish, paru récemment, contient
un entretien avec le studio de graphisme barcelonais
La Page Original, lequel explique avoir « développé
un système pour mesurer l’impact environnemental
de [ses] projets, basé sur une analyse du cycle de vie »
(p. 82). De tels ouvrages restent sans équivalent en langue
française. Tout porte néanmoins à croire ou à espérer
que cet état de fait évoluera à moyen terme. Aujourd’hui,
il est possible de considérer que les pratiques graphiques
et tout ce qui les constitue sont reliés à deux hémisphères vitaux :
d’un côté, leur histoire (dans le temps long),
et de l’autre les problématiques écologiques, voire écosophiques
– qui font sens et interpellent de façon complémentaire.
Pour ce qui est de l’histoire du graphisme, il a fallu attendre,
en France, le tournant des années 2000 pour qu’elle trouve
vraiment sa place, bien après la parution de l’ouvrage
fondateur de Philip B. Meggs A history of graphic design,
en 1983 07. De tout cela ressort la question des enjeux relatifs
à une véritable connexion entre la pratique, son histoire
et l’environnement ou l’écologie – considérés dans différente articulations possibles. En comparaison du design
d’objet, de l’architecture et du textile, voire de l’art (Ardenne, 2018), la communication visuelle tarde à s’ouvrir
largement à de nouvelles perspectives fondées sur l’impératif de soutenabilité, pourtant retentissant,
et désormais incontournable. Dans différents champs
de la création et de la pensée, une nouvelle vision du monde
s’affirme et agit sur des plans aussi divers que la matérialité,
la limitation ou l’épuisement des ressources, l’obsolescence,
la consommation énergétique – et tout ce qui peut se révéler
délétère et à impact négatif du point de vue environnemental, social et sanitaire.
Dans le champ de la communication visuelle et du design graphique, la perspective d’intégrer la dimension écologique pourrait se révéler exceptionnellement stimulante. Elle questionne tout
à la fois les supports les messages, les signes, « l’économie de l’expression 08 », la lecture, les médiums, les technologies (hautes et basses), le numérique, le papier, les encres, les certifications, les labels, les normes, la production, la perception, la cognition, la réception, le psychisme, etc.
Reste à espérer que tout cela se développe et s’étoffe
de manière à atteindre un stade comparable à des secteurs
voisins, qui voient fleurir les termes « écodesign »,
« écoconception », « design durable » ou « design
écologique ». Pour pouvoir s’inscrire dans ce changement
de paradigme et y contribuer, la communication visuelle
et graphique doit aller au-delà de la reproduction
ou de la déclinaison des codes établis et des formes
instituées, de la focalisation sur la personne
du designer 09 et sur la visibilité de sa production.
Elle doit composer aussi bien avec son milieu
qu’avec l’état du monde. Elle se trouve concernée
par des sujets aussi divers que la saturation du champ
visuel, la surcharge informationnelle, la captation
et la fragmentation de l’attention, la surproduction,
l’emprise de l’obsolescence 10, la gestion des forêts,
les flux mondiaux de papier et de pâte à papier,
la toxicité matérielle, le rejet de nos déchets,
y compris technologiques.
Hors des questions directement relatives à l’équilibre
ou au déséquilibre planétaire, divers arguments
plaident en faveur d’un positionnement actif du graphisme
(considéré au sens large) sur ce plan. Ici résonnent
encore les idées de Papanek, formulées il y a plus
d’un demi-siècle : « le designer doit être conscient
de sa responsabilité sociale et morale » (rééd. 1973,
p. 107). D’un tout autre point de vue, Étienne Robial
estimait, il y a peu et sans détour, que la France
est « un pays sinistré graphiquement » 11 (il s’agit
bien sûr d’un point de vue global, et non sur le détail).
Aussi divers soient-ils, de tels avis incitent
à une reconsidération des pratiques, à une évolution
inspirée par les approches vertueuses (ou tendant
à le devenir). Si beaucoup reste à faire en matière
d’environnement, un certain nombre de directions
positives sont amorcées concernant la communication
visuelle et la production graphique (ainsi que tout
ce qui peut leur être associé) – qu’elles soient à l’étude
ou déjà en application. En France même, il est possible
d’identifier plusieurs lignes actives, auxquelles contribuent
à divers degrés industriels,
décideurs, chercheurs, ingénieurs, experts, laboratoires d’idées, concepteurs, organisations professionnelles, organisations non gouvernementales, associations, collectifs activistes, désobéissants, etc.
Sur un plan plus large, il faut compter avec le rôle
des élèves et des étudiants (pour les actualités, voir
l’adhésion massive au Manifeste étudiant pour un réveil
écologique 12, qui sonne comme un appel lucide
et une alerte), et avec des travaux comme ceux du think
tank The Shift Project 13– tout ceci devant aussi exhorter
à de nouvelles approches dans l’enseignement du design
graphique en France, que les problématiques
environnementales concernent au même titre que bien
d’autres pratiques. Dans ce paysage ambivalent, sinon
clivé, plusieurs axes de travail concernant,
d’une part, la création et la production graphiques,
et de l’autre la communication, bénéficient d’avancées notables en France.
Ils peuvent relever aussi bien de la mise en œuvre concrète ou de l’action que de la recherche et de la connaissance. Une bonne partie concerne la matérialité, la production, les supports et les techniques du point de vue de leur impact environnemental.
Le secteur de l’imprimerie et des industries graphiques fournit des efforts certains, au moins depuis la fin des années 1990,
pour ce qui est du parc matériel, du papier, de l’encre, des labels, des certifications, des normes, de la pénibilité, du gaspillage 14.
La question du livre et de l’environnement se trouve
mise en lumière ces derniers temps : en attestent
les rapports Un livre français : évolutions et impacts
de l’édition en France (BAS IC, 2017) et Les livres
de la jungle : l’édition Jeunesse abîme-t-elle les forêts ?
(WWF France, 2018), ainsi que les journées Livre,
lecture et environnement, une histoire à poursuivre 15,
organisées par le ministère de la Culture,
la Bibliothèque nationale de France et le Centre national
du livre (2018 et 2019). Consacrés aux enjeux
environnementaux du livre et de l’édition, ces deux
rapports proposent chacun une série de recommandations
concrètes 16. L’étude du BAS IC, qui rapporte qu’« environ
20 à 25 % de la production annuelle de livres serait
pilonnée » (p. 15), décrit les impacts concernant
l’emploi, le gaspillage, les déchets, la santé, les émissions de polluants, la consommation d’eau et d’énergie, les terres agricoles, la déforestation indirecte, la dégradation des sols, etc.
En conséquence, les options en faveur du livre écoconçu
consisteraient à « lever les freins liés au “papier grisé” […,]
favoriser les papiers de grammage plus faible […,] préférer
les encres végétales […,] plus généralement, concevoir
un livre plus facilement recyclable en fin de vie » (p. 51).
Par ailleurs, la place prépondérante prise par les techniques
et les supports numériques suscite de plus en plus d’études
sur leurs conséquences environnementales, écologiques,
sanitaires et sociales – aboutissant à une mise en garde,
lisible dès ces titres et sous-titres : Impacts écologiques
des technologies de l’information et de la communication :
les faces cachées de l’immatérialité (2012), Peut-on croire
aux TIC vertes ? Technologies numériques et crise
environnementale (2012), La face cachée du numérique :
l’impact environnemental des nouvelles technologies (2013),
L’âge des low tech : vers une civilisation techniquement
soutenable (2014), La guerre des métaux rares : la face
cachée de la transition énergétique et numérique (2018).
Citons aussi le rapport Pour une sobriété numérique (The
Shift Project, 2018). De quoi réfléchir très sérieusement,
et de quoi infléchir nos pratiques. La plupart
de ces publications comportent une multitude
d’informations sous forme d’analyses, de tableaux
et de données chiffrées – statistiques, environnementales,
économiques, géographiques 17. S’ajoutent encore
les titres qui relèvent de la communication, dont Le guide
de l’éco-com - munication : pour une communication plus
responsable (2007) ou De la publicité à la communication
responsable (2014) – et, par ailleurs, différents textes
émanant des mouvements antipublicitaires, ainsi
que des manifestes. Si l’on en juge par les publications,
bon nombre de ces thématiques se sont déployées
dans le courant des années 2010.
En 2008, après plusieurs alertes données par d’autres
auteurs et créa - teurs, l’ouvrage Green graphic design
considérait que « les idées qui relèvent de l'ère
de la soutenabilité” transformeront notre industrie
[du design graphique] » (Dougherty, p. 26). L’auteur
affirmait en conclusion que « les designers graphiques
ont un rôle essentiel à jouer dans la transformation plus
vaste vers des économies soutenables » (p. 183) 18.
Cette perspective est indissociable du fait que le cadre
de vie et l’espace urbain ont des impacts tant sur le milieu
et l’environnement que sur la santé, la perception,
le psychisme, les comportements. Tout ce qui relève
de la communication visuelle y prend une large part
(graphisme, publicité, logotypes, presse et édition,
panneaux, écrans, ephemera, affichage dit dynamique,
bannières, bâches géantes sur des monuments, etc.).
Cela a sans doute des incidences bien plus importantes
que ce qu’il est possible d’imaginer – d’autant qu’il s’agit
souvent de visuels s’imposant à nous en une surabondance
telle qu’ils ne peuvent que submerger nos seuils
d’assimilation,et mutiplier ou déformer nos processus
perceptifs non conscients.Tenant compte de cet excès
de sollicitations et de stimuli,le psychiatre Christophe
André estime que « nous évoluonsde plus en plus
dans des environnements “psychotoxiques”,
qui fragmentent notre attention » (2011, p. 96) ; il y voit
une source de « pollutions psychiques, qui contaminent
notre esprit » (p. 135). En réaction à notre environnement
quotidien, nous devrions soutenir l’idée de bien-être visuel,
et même de bien commun visuel 19, comme constitutifs
du bien-être et du bien-vivre. Face à une écosphère
en déséquilibre, transitions ou mutations s’imposent
et plaident pour un rôle actif de la communication
visuelle et de la production graphique – qui doivent répondre à des défis écologiques
et environnementaux, et qui, en retour, peuvent apporter
leur contribution et leur réflexion à l’avenir du monde.
01. Cet état de fait est manifeste, par exemple, dans l’enseignement du graphisme en France, où les étudiantes et étudiants conscients et concernés par les problématiques écologiques peuvent se trouver livrés à eux-mêmes lorsqu’ils poursuivent des projets ou recherches sur ces sujets.
02. Certains auteurs, tel Thierry Libaert, allant jusqu’à employer le terme « ultra-courttermisme ».
03. Extrait du texte « Motion adoptée par Ars Industrialis à la veille du sommet de Tunis », reproduit à la fin de l’ouvrage.
04. La quantification de notre exposition aux messages, impacts, signes et autres stimuli publicitaires et commerciaux fait l’objet d’estimations très variables. Voir à ce sujet : Ignacio Ramonet, « La fabrique des désirs », Le Monde diplomatique, mai 2001, 566, p. 9, ainsi que l’article « Mesure de la pression publicitaire : un état des lieux » (2018) sur https://antipub.org/ pression-publici - taire-etat-des-lieux/.
05. Au sujet des signes, du marketing et de la société de consommation, voir le chapitre « Design, crime et marketing » dans le Court traité du design de Stéphane Vial (rééd. 2014, p. 17-26).
06. Catalogue Collectif de France, consulté en ligne le 15 juin 2019. Ce catalogue permet d’interroger les collections de plus de 5 000 bibliothèques et centres de documenta - tion (comptant un très grand nombre d’établissements français d’enseignement supérieur), dont plus d’une centaine sont implantés sur d’autres continents.
07. Et ce malgré l’existence, dans les publications françaises, d’histoires du livre, de l’écriture, de l’affiche, de l’imprimerie, des caractères, etc. – de telles contributions ayant été ou étant, pour certaines, très avancées du point de vue de la recherche ou de la connaissance, et, pour d’autres, représentées par des titres anciens, parfois très instructifs.
08. Une formule [Oeconomie des Ausdrucks] empruntée ici au court texte de El Lissitzky, « Topographie de la typo - graphie », publié en 1923 dans la revue Merz (repris dans Blistène et Legrand, 1993, p. 504).
09. Voir Papanek, rééd. 1973, p. 52 et passim .
10. Qu’il s’agisse d’obsolescence planifiée, technique, logicielle, psycholo - gique, esthétique, etc.
11. Étienne Robial, émission radiophonique À voix nue : « Manipulateur visuel (5/5) : on n’est pas là pour faire joli », France Culture, 2 novembre 2018.
12. Publié en ligne en septembre 2018 (https://pour-unreveil-ecologique.fr), le Manifeste étudiant pour un réveil écologique est également accessible en langue anglaise, sous le titre Wake up call on the environment : a student Manifesto (https://pour-un-re - veil-ecologique.fr/index. php ?lang=en).
13. Notamment le rapport « Mobiliser l’enseigne - ment supérieur pour le climat ».
14. Ce qui n’empêche nullement les problèmes ou risques globaux liés à la délocalisation, à la traçabilité des matières premières, au transport, à la pollution, à l’impact écologique des arbres transgéniques, etc.
15. Journées consacrées à la « filière durable du livre et de la lecture », ayant eu lieu à la Bibliothèque nationale de France en 2018 et au Centre national du livre en 2019.
16. Le rapport du WW F formule les quinze recommandations suivantes : « aux éditeurs et groupes d’édition / 1 Développez une fibre verte […] 2 Publiez une politique papier […] 3 Analysez précisément les risques […] 4 Donnez la priorité à des papiers responsables […] 5 Vérifiez la qualité du papetier ou du papier […] 6 Faites tester vos livres […] 7 Engagez un audit indépendant […] 8 Jouez la transparence […] 9 Faites œuvre de pédagogie » ; « aux auteurs et donneurs d’ordres / 10 Exigez des pratiques environnemen - tales responsables » ; « aux acheteurs et lecteurs / 11 Évitez les livres imprimés en Asie sans mention crédible […] 12 Exigez de la transparence […] 13 Offrez plusieurs vies à vos livres » ; « aux autorités publiques / 14 Demandez l’inclusion des livres dans le RB UE [Règlement sur le bois de l’ Union européenne] […] 15 Faites la promotion de l’écoconception et du made in France » (p. 122-123).
17. Voir par exemple les rapports Un livre français : évolutions et impacts de l’édition en France et Les livres de la jungle : l’édition Jeunesse abîme-t-elle les forêts ?
18. Sur ce point, voir aussi le texte « Manifes - tons-nous », de la Société des designers graphiques du Québec (accessible en ligne).
19. Une requête en ligne (15 juin 2019) n’indique aucune occurrence de ces trois termes accolés : bien commun visuel.
20. Texte accessible en ligne à https://www.ensad.fr/ sites/default/files/ ecoconception_ etapes_243.pdf
Le 11 novembre 2021, dans le cadre de l'Open Publishing Fest, une session intitulée « Un voyage web2print » a réunit quatre designers graphiques et artistes – Kiara Jouhanneau, Raphaël Bastide, Julien Bidoret et Amélie Dumont – qui ont présenté des projets utilisant les technologies du web pour la conception d'objets imprimés. Sept jours plus tard, dans le même cadre, les designers Nicolas Taffin et Julien Taquet ont à leur tour discuté de la manière dont ces technologies aident les « book developers » à publier leur contenu dans une session nommée « Paged design around the corners ».
Ces sessions offrent un aperçu de ce qui anime aujourd'hui une petite communauté de designers graphiques qui s'emploient à utiliser les technologies du Web et la programmation pour la composition de publications imprimées. Les feuilles de style en cascade, appelées CSS (de l'anglais Cascading Style Sheets) sont au cœur de ces pratiques. Elles représentent un langage informatique descriptif permettant de coder la mise en forme de documents structurés sur le web. Pensées pour établir des constantes de mise en forme documentaire basées sur la structure sémantique, on trouve les feuilles de styles dans les traitements de texte et dans les logiciels de PAO (Publication Assistée par Ordinateur). La notion de cascade apparaît quand à elle avec le Web.
Dès son invention, CSS permet d’adapter la mise en forme des documents à une multitude de périphériques de sorties (écran comme imprimé), mais ses possibilités de mise en page pour les sorties imprimées ont longtemps été ignorées. Elles font aujourd'hui un retour en force auprès de communautés open-source de designers graphiques1, auprès de l'industrie éditoriale2 et dans des initiatives proposant de nouvelles plateformes de publications3.
Aujourd'hui en France et notamment dans les écoles d'art et de design, l'utilisation de CSS pour l'impression trouve un écho dans des pratiques graphiques et artistiques pour ses possibilités d'expérimentations graphiques multimédias. Les présentations de Kiara Jouhanneau et Julien Bidoret illustrent cette idée. Pour son projet de diplôme Rêve Party4, Kiara Jouhanneau a ainsi utilisé les technologies du Web pour mélanger interactions à l'écran, fonts variables animées et jeux d'impression. Pour un workshop consacré à Élisée Reclus5, Julien Bidoret a proposé d’intervenir de manière interactive dans des fanzines ensuite imprimés. Un système de webcam connecté en direct permettait de prendre des photos disposées en fond de page. De manière plus générale, les améliorations récentes de CSS (grilles, boîtes flexibles, dégradés, rotations, transformations et animations, SVG, fontes variables, modes de fusion, etc.) rendent le langage de plus en plus attrayant pour les expérimentations graphiques. Les préoccupations éminemment politiques concernant les dimensions libres et open-source de ces technologies en renforcent l'engouement.
Figure 1. Rêve Party, projet de diplôme de Kiara Jouhanneau.
✧ Figure 2 ✧ Capture d'écran de la présentation de Julien Bidoret à propos du worshop L'idéal Anarchique
Les présentations de Nicolas Taffin – designer graphique et éditeur – et Raphaël Bastide – artiste multi-facettes – montrent un autre aspect de l'utilisation des technologies du web pour l'impression, davantage tourné vers l'édition structurée6 et la transformation des aspects collaboratifs de la chaîne éditoriale7. Ces technologies permettent en effet de concevoir des chaînes unifiées et délinéarisée grâce aux outils et aux méthodes issus de la programmation et auxquelles les technologies du web sont adaptées8. De plus, cette organisation technique permet de proposer des publications reposant sur le principe single source publishing9, une méthode de gestion de contenu qui permet de produire plusieurs sorties (site web, livre numérique, livre imprimé, etc.) à partir d'un même contenu.
✧ Figure 3 ✧ Mise en page affichée dans un navigateur web (à gauche) et son code source CSS (à droite). Projet en cours de Benjamin Gremillon.
Malgré ce que ces présentations donnent à voir, peu de designers graphiques utilisent réellement les technologies du Web pour la mise en page imprimée. Elles représentent un champ très spécialisé qui implique des connaissances complémentaires provenant de milieu souvent cloisonnés tant au niveau des formations qu'au niveau des métiers. Les compétences nécessaires concernent en effet autant l'édition structurée, le design graphique que le développement web. Et même au sein de ces champs, une bonne compréhension de d'HTML et de CSS est souvent rare.
De plus, ces pratiques souffrent d'une image négative de la programmation web et sa supposée incompatibilité avec une activité graphique sensible, précise et en maîtrise. Le vieil adage de la mise en relation du fond et de la forme est souvent présenté comme un des aspects primordiaux du design graphique (l’idée que chaque texte appelle une mise en page qui lui soit propre) et paraît illusoirement incompatible avec le principe technique de séparation du fond et de la forme que propose les technologies du Web.
Un des objectifs de cette publication est de rappeler que CSS est un langage tout à fait adapté à la conception graphique, puisqu'il a été créé pour décrire la présentation de document. Nous défendons même l'idée que son utilisation s'inscrit dans une suite logique de l'histoire de la composition et de la mise en page, si chère au célèbre typographe Jan Tschichold.
La notion de feuille de style à l'origine de l'appellation de CSS est définie comme « a set of rules that associate stylistic properties and values with structural elements in a document, thereby expressing how to present the document10 ». C'est une définition tout à fait compatible avec la production de livres imprimés. Elle nous rappelle qu'avant l'apparition de la PAO, le travail des designers et typographes consistait à fournir à l'imprimeur (composition au plomb) ou l'opérateur (photocomposition) un ensemble de règles stylistiques et de contraintes définissant le gabarit d'un livre et les caractéristiques des blocs typographiques. Coder en CSS, consiste à fournir ces mêmes informations au navigateur web.
En contextualisant les origines de la création du Web, nous expliquerons comment HTML et CSS ont été imaginés pour décrire, structurer, lier, rendre lisible et styliser les documents, servant ainsi tout à fait le rôle des designers graphiques, des maquettistes et des typographes. Puis, à travers trois exposés qui sont autant d'exemples, nous décrirons comment les technologies du Web traduisent des notions fondamentales de mise en page et de composition – structuration typographique, relations entre les éléments, grilles, gabarits, etc. En creux, nous montrerons comment certaines de ces notions sont rejouée par des logiques de programmation et s'ouvrent à de nouveaux possibles esthétiques.
✦1✦Un Web de documents entre structure et présentation
La composition de livres imprimés est une activité vieille de plusieurs siècles avec un ensemble de règles et de traditions transmises par des générations de typographes, compositeurs et imprimeurs. De nouveaux possibles apparaissent avec chaque évolution technique, que cela soit dans les ateliers de composition mécanique (Monotype et Linotype) ou avec la lumière (photocomposition), puis avec la micro-informatique et ses logiciels de PAO. Puis, l'apparition du Web et de la demande accrue de publications multimédias font entrer dans la composition et la typographique des principes de flexibilité et fluidité des éléments pour les adapter à des pagessans dimensions fixes. Le développement web explose à la fin des années 2000 et devient peu à peu une spécialité cloisonnée de la composition des objets imprimée. Pour autant, si nous regardons attentivement l'histoire de l'apparition du Web, ce cloisonnement peut être remis en question.
En effet, si aujourd'hui, le Web semble plus à voir avec des sites marchands, des applications closes et des réseaux sociaux, nous avons tendance à oublier qu'il a principalement été créé pour la publication de documents. En 1991, lorsque Tim Berners-Lee, informaticien britannique au CERN, publie le premier site web présentant les caractéristiques de son invention, il déclare: « The WorldWideWeb (W3) is a wide-area hypermedia information retrieval initiative aiming to give universal access to a large universe of documents 11 ». Le scientifique tente ainsi de construire une toile de documents connectés, en particulier d'articles scientifiques, qu'il souhaite rendre accessibles aux scientifiques du monde entier gratuitement 12. Ajoutons qu'en 1993, le Web a été placé dans le domaine public, signalant la volonté d’ouverture et d’universalisme du projet. 13
✧ Figure 4 ✧ Premier site web publié le 6 août 1991, affiché dans le navigateur web original de NeXT (reconstruit en 2009 par le CERN: https://worldwideweb.cern.ch/browser/). Crédits: CERN.
Dans cette idée, le Web requiert un langage simple, lisible et accessible sur toute plateforme. C'est ainsi que Tim Berners-Lee, secondé par Robert Cailliau, ingénieur et informaticien belge, propose l'HyperText Markup Language (HTML), un langage de balisage permettant de représenter la structure d'un document web à l'aide de balises ajoutées entre des phrases ou des mots pour indiquer le rôle du texte. Afin de l'afficher sur n'importe quel terminal quelle que soit sa capacité graphique d'affichage14, HTML est volontairement un langage très simple, et, surtout, sans aucune indication de mise en forme ou possibilité de contrôle de sa présentation, excluant toute modification des polices de caractères, des couleurs ou de la taille du texte15.
Très vite, les auteurs des sites web, ainsi que les utilisateurs demanderont de plus en plus un moyen d'avoir la main sur ce rendu. Des efforts sont menés aussitôt pour proposer des concepts de feuilles de styles pouvant s'appliquer à cet HTML et répondre à des besoins de présentation. En 1994, Håkon Wium Lie, informaticien norvégien, rejoint par Bert Bos, informaticien néerlandais, formule une proposition de Cascading HTML Style Sheets, vite abrégé en CSS. La proposition repose sur l'ambition de séparer complètement la structure HTML de son rendu visuel grâce à des principes de sélecteurs des éléments HTML spécifiés en CSS. Le principe de cascade, c'est-à-dire la possibilité pour le style d'un document d'être hérité à partir de plusieurs « feuilles de style » séduit la communauté du web qui cherchaient un moyen d'arbitrer entre plusieurs sources de mise en forme des éléments (issues des préférences stylistiques des auteurs, des navigateurs et des utilisateurs). Il faudra cependant attendre le début des années 2000 pour que CSS commence à être correctement implémenté dans les navigateurs web. 16
La création de CSS repose donc sur l'ambition de séparer le contenu et la structure sémantique d'un document de son rendu visuel. Ce principe de séparation du fond et de la forme est un principe informatique connu mais le Web est le seul environnement à avoir poussé cette idée aussi loin et à si grande échelle.17 L'affichage doit être proposé pour une multitude de médias afin que n'importe qui puisse y avoir accès. 18 Dès sa première proposition, envoyée le 10 octobre 1994 sur la liste de diffusion www-talk@cern.ch, Håkon Wium Lie indique que CSS est, lui aussi, pensé pour tous les médias, y incluant le papier: « Current browsers consider the computer screen to be the primary presentation target, but [CSS] has the potential of supporting many output media, e.g. paper, speech and braille.19 »
Les requêtes médias, proposée dès 2002 20, consolideront cette idée et la rendront techniquement possible. Elles consistent en des expressions CSS permettant de définir si les styles s'appliquent à tel ou tel type de média. Par exemple, tous les styles contenus dans la requête @media print { ... } ne s'appliqueront qu'à la sortie imprimée de la page web. (Tous les navigateurs possèdent aujourd'hui des fonctionnalités d'impression, souvent disponible dans le menu Fichier > Imprimer).
CSS est encore aujourd'hui le seul langage entièrement dédié à la présentation visuelle de documents et au rendu graphique des pages web. C’est une invention unique dans le domaine informatique pour répondre à un enjeu jusqu'alors jamais imaginée dans l'histoire des médias: pouvoir, techniquement, exprimer à quel type de périphérique et quelle taille d'écran une règle stylistique particulière doit s'appliquer. Il est de ce fait, un langage profondément graphique, parfaitement adapté à la mise en page de tous types documents, en y incluant la composition imprimée.
Pendant longtemps, les contraintes techniques lié aux technologies du Web ne permettaient pas de produire des mises en pages élaborées. Il n'était donc pas intéressant pour les designers graphiques de pratiquer ces technologies. Les choses se sont vites améliorées, les navigateurs web implémentant peu à peu des spécifications CSS permettant des rendus typographiques et graphiques de plus en plus poussés. Ces six dernières années ont notamment été marquées par des évolutions fulgurantes, depuis l'implémentation des grilles et des boîtes flexibles en CSS jusqu'au développement d'un nouveau format de polices de caractère permettant de rendre les fontes variables – le format OpenType variable fonts (OTVF).
Aujourd'hui, il est possible de concevoir des mises en page uniques (à l'écran comme pour l’imprimé) dans lesquelles la relation spatiale entre les éléments typographiques et les images est essentielle pour des raisons esthétiques et pour la compréhension du texte. Des fonctionnalités nécessaires à l'impression (sauts de pages, numéros de pages, titres courants, gabarits de pages, notes en bas de page, marges en miroir, etc.) peuvent aussi être utilisées directement en CSS21. En complément, l'utilisation de scripts permet de contourner les limitations des d'algorithmes de césures des navigateurs ou d'améliorer la prise en charge de certaines spécificités de mises en pages complexes (notes en marges, image pleine page, etc.). La composition pour l'imprimé avec les technologies du Web ne possède ainsi plus beaucoup de limites.
Nous allons à présent nous attarder sur la manière dont les technologies du Web traduisent des notions fondamentales de mise en page et de composition dans leur fonctionnement. Nous avons choisi d’explorer cette question à travers trois exposés liés à la structure du code, l’agencement des éléments par des grilles et des exemples d’hybridations entre logique du Web (flux, ancrage et flexibilité) et logique de l’imprimé.
✦✦✦
✦2✦ Premier exposé: Structurer le livre,structurer le code
Si l'on considère un livre avec l'œil d'un auteur, d'un lecteur ou du designer graphique qui le compose, une édition est toujours structurée. Les éditions sont organisés en entités telles que les sections, les chapitres, les titres, les paragraphes, les notes, les citations, etc. Cette structure intellectuelle, logique, permet au lecteur de se repérer dans l'organisation du livre. Elle se reflète dans la structure visuelle de l'édition: les chapitres débutent sur une nouvelle page pour marquer une rupture forte, un titre sera mis en avant par une stylisation différente que le texte courant, les paragraphes sont indiqués par un retour à la ligne et un alinéa, etc.
Dans les logiciels actuellement les plus utilisés dans l'édition, InDesign pour la mise en page et Microsoft Word et Google Docs pour le traitement de texte, cette division entre structure logique et structure visuelle se retrouve la plupart du temps confondue. Les panneaux et galeries de « style » proposées permettent d'appliquer aux éléments des mises en forme prédéfinies par l'utilisateur qui peuvent ensuite être modifiées sur l'ensemble des éléments de même type. Un indice de ce manque d'approche de structuration logique est ainsi l'impossibilité de baliser des ensembles d'éléments afin de les regrouper en chapitres, en sections ou en encarts. Ces regroupements ne peuvent s'exprimer que visuellement – par des sauts de pages, des encarts visuels, des espacements dans la page, etc.
Les logiciels de traitement de texte et de PAO, en privilégiant la composition visuelle de la mise en forme des textes, marquent donc pour les designers graphiques une perte technique dans la structuration logique des mises en page22. À l'inverse, l'utilisation des technologies du web impose ce type de structuration puisque HTML propose un balisage sémantique des documents. Cette structuration est de plus beaucoup plus précise grâce aux principes d'arborescence et d'attributs complémentaires.
La caractéristique la plus importante des documents HTML, se situe en effet dans leur fonctionnement en arborescence. HTML définit la structure de la page web afin que le navigateur puisse créer un DOM (Document Object Model), une représentation de la page web et de ses éléments sous forme d’arbre où chaque embranchement est appelé « nœud ». Ainsi, les éléments peuvent être imbriqués les uns dans les autres et font références les uns aux autres en tant que parents ou enfants, ou éléments frères – tout comme dans un arbre arborescent23.
✧ Figure 5 ✧ Code HTML d'un élément tableau et sa représentation sous forme de DOM.
Les balises actuellement disponibles en HTML sont suffisantes pour couvrir les principaux éléments utilisés en édition, comme le montre la structuration HTML de cet article-même. Les possibilités d'ajouts d'identifiants uniques ou de classes spécifiques pour définir des ensembles d'éléments permettent une structuration plus fine. Ainsi, le bout de code ci-dessous rend évidente la structuration d'un texte et attribue à chaque section des informations complémentaires:
<section id="introduction">
...
</section>
<section class="chapitre" id="chapitre-1">
...
</section>
<section class="chapitre" id="chapitre-2">
...
</section>
Les styles CSS sont associés aux éléments HTML grâce à des sélecteurs ce qui permet une approche très fine de l'organisation du document. Ces sélecteurs peuvent être simple – .chapitre sélectionne tous les éléments avec une classe « chapitre » – ou se combiner – h1 + p sélectionnera le premier paragraphe qui suit immédiatement un titre de premier niveau. Certaines combinaisons de sélecteurs CSS sont aussi très complexes afin de cibler des éléments de manière contextuelle sur la base de leurs ancêtre et leur place dans le DOM. La déclaration .chapitre + aside > h2:nth-of-type(2) permet par exemple de sélection le deuxième titre (h2:nth-of-type(2) d’un élément d’aparté (aside) qui suit immédiatement un élément défini comme un chapitre (.chapitre).
Les mécanismes de propagation des valeurs de CSS – comme la cascade, l'héritage ou les valeurs initiales – permettent d'agir sur plusieurs éléments en même temps. Une même propriété peut se répercuter sur plusieurs éléments et inversement, un même élément peut hériter de plusieurs propriétés stylistiques. C'est l'organisation du code CSS et le choix des sélecteurs qui indique au navigateur quelles styles doivent s'appliquer, sans avoir besoin de spécifier explicitement les valeurs de toutes les propriétés pour chacun des éléments.
Le principal avantage est que les feuilles de styles peuvent être courtes et peu verbeuses. Il est facilement possible de monter en généralité par l'interaction des déclarations et des sélecteurs entre eux. De nombreuses informations stylistiques peuvent être déduites du contexte de l'arborescence et s'additionner entre elles. Un même type d'élément, par exemple un titre, pourra ainsi être stylisé de manière complètement différente en fonction de sa position dans la structure du livre (est-ce un titre de chapitre ou le titre de l'introduction?) tout en gardant certaines propriétés communes qui n'auront été déclarées qu'une seule fois pour tous les éléments de même type.
Ces mécanismes de feuilles de style ne s'appliquent pas seulement aux éléments textuels mais aussi aux éléments graphiques et iconographiques, et même à la structure globale du livre24. Cela astreint les designers graphique à penser la forme du livre comme un ensemble de règles contextuelles et hiérarchisées qui interagissent les unes des autres en s'appuyant sur la structure logique de l'édition. Ainsi, la construction d'une feuille de style engage l'idée d'une construction de relations significatives entre les éléments de la structure du texte et un aller-retour entre plusieurs granularités – règles s'appliquant au niveau du livre, au niveau d'un chapitres ou sur plusieurs éléments. Les exceptions restent toujours possibles grâce aux mécanismes d'identification unique qui permettent de les spécifier. Notons que cette structuration du livre sous forme de règles graphiques et typographiques est le travail du designer graphique de manière générale25 mais cette idée est ici encodée dans le fonctionnement du langage CSS.
Cet exposé nous montre que le principe de séparation du fond et de la forme à travers HTML et CSS implique pour les designers graphiques une préoccupation importante de la hiérarchie des documents et leur compréhension sémantique. À travers les lignes de code, c’est une systématisation entre structure intellectuelle, structure techniques et structure visuelle qui est proposée. Les mécanismes des les feuilles de style CSS offre par ailleurs des logiques beaucoup plus puissantes que leurs équivalences dans des logiciels plus classiques de traitement de textes et de PAO.
✦3✦ Deuxième exposé: agencer les relations entre éléments
Une partie de l'activité de composition des designers graphiques consiste à agencer les éléments du livre dans l'espace de la page. Selon Jan Tschichold, une mise en page parfaite « repose sur une parfaite harmonie de toutes les parties » et cette harmonie « dépend du choix des bons rapports ou proportions » entre tous les éléments du livre (marges, bloc d'empagement, interlignages, interlettrages, etc.) 26. Pour déterminer ces rapports et ces proportions, les designers graphiques ont conçu un ensemble de dispositifs structurants reposant sur différents repères visuels et un ensemble de règles destinés à guider et faciliter la création.
Parmi ces dispositifs à leur disposition, les deux plus connus sont la grille modulaire et la grille de ligne de base27. Elles permettent de faciliter l'alignement et la répartition du contenu et d’obtenir des espacements cohérents pour une meilleure cohésion de la composition globale malgré la diversité du contenu et des forces de corps typographiques différentes.
Ces grilles sont souvent conçues à l'aide de tracés géométriques et de calculs mathématiques calculés en amont puis traduits sous forme de valeurs fixes et de repères visuels dans les logiciels de PAO. Des fonctionnalités de magnétisme permettent de faciliter le placement des éléments sur ces repères, mais globalement, un changement dans la grille implique à minima quelques corrections manuelles et parfois un long travail de remise en page dans le logiciel.
Les grilles peuvent être travaillées de façon très différentes avec les technologies du Web et tirer parti des avantages de la programmation. Pour illustrer cette idée, nous prendrons en exemple deux extraits de code produits pour un catalogue du Musée Saint-Raymond de Toulouse28.
✦3✦1 Aligner les éléments sur la ligne de base
Le premier extrait concerne l'alignement des éléments textuels selon l'idée d'une ligne de base imaginaire qui aurait une hauteur de 14 pixels:
body { --baseline: 14px; font-size: 12px; } h1 { font-size: 2.2em; line-height: calc(var(--baseline)*3); margin-bottom: calc(var(--baseline)*8); } p { font-size: 1em; line-height: var(--baseline); } figure { height: calc(var(--baseline)*12); }
Ce code utilise les possibles des fonctions de calculs et de variables en CSS. Les variables CSS sont des propriétés personnalisées permettant de définir des valeurs utilisables et répétable à travers le document. Le premier bloc de l'extrait indique que la variable nommée baseline a pour valeur 14 pixels. Le reste du code utilise cette variable dans des fonctions calc(), qui permettent de réaliser des opérations mathématiques en CSS (addition, soustraction, division et multiplication) pour calculer la valeur d'une propriété de type numérique.
L'association de ces deux fonctions permet d'insérer une logique mathématique dans la définition des espaces de la mise en page afin de garder les alignements des éléments textuels. Ainsi, dans le deuxième bloc qui s'applique à tous les titre de premier niveau (h1), la deuxième ligne indique que l'interlignage (line-height) a pour valeur trois fois la hauteur de la ligne de base. Notons que ce système de calcul et de variable a aussi été utilisé pour définir la hauteur des figures du texte, afin qu'elles restent alignées sur la ligne de base comme nous le montre le dernier bloc.
✦3✦2 Construire une grille modulaire
Le deuxième extrait (simplifié pour les besoins de la démonstration) montre comment a été encodé une grille modulaire utilisée pour les pages des cahiers d'images du catalogue :
.grid-img { --columns-nbr: 12; --rows-nbr: 10; --height-rows: var(--baseline)*5; width: 100%; height: calc(var(--height-rows)*var(--rows-nbr) + var(-- baseline)*(var(--rows-nbr)-1)); display: grid; grid-template-columns: repeat(var(--columns-nbr), 1fr); grid-template-rows: repeat(var(--rows-nbr), 1fr); grid-gap: var(--baseline); } #grid-3 img { grid-column: 7/end; grid-row: 1/6; }
Nous voyons à nouveau qu'un ensemble de variables et de calculs ont été utilisés pour la construction de la grille. Certaines de ces variables servent à stocker le nombre de colonnes et de rangées de la grille (respectivement, --columns-nbr:12 et --rows-nbr: 10) ainsi que la hauteur d'une rangée de la grille qui correspond à un multiple de la ligne de base (--height-rows: var(-- baseline)*5). Ces variables ont été réutilisées dans la suite du code. Ainsi, la hauteur de la grille (height: calc(...) additionne et multiplie différentes variables qui correspondent au nombre de rangées de la grille, à la hauteur de ces rangées (elle-même dépendante de la ligne de base) et à la hauteur des gouttières (correspondant à la hauteur d'une ligne de base). Le reste du code sont des propriétés spécifiques aux grilles CSS permettant de définir le nombre de colonnes (gridtemplate-columns), le nombre de rangées (grid-template-rows), la hauteur et la largeurs des gouttières (grid-gap) et le placement de l'image dans la grille (le dernière bloc de code).
Ce code fait ainsi correspondre les tracés de la ligne de base aux tracés de la grille modulaire pour que les images soient parfaitement alignées sur les deux types de grilles. Cela est visible sur la figure suivante où ont été affichés les tracés régulateurs des deux grilles à l'aide de l'outil d'inspection du navigateur.
✧ Figure 6 ✧ Tracés régulateurs de la ligne de base et de la ligne modulaire sur une double page du catalogue, affichés à l'aide des outils d'inspection du navigateur web.
Dans ce code, les différents éléments de la mise en page – les interlignages, la taille et les marges des éléments textuels, la hauteur des figure ou encore les grilles – sont dépendants d'une seule valeur (ici, la hauteur de la ligne de base) et relatifs les uns aux autres. Ces relations sont encodées en CSS grâce au jeu des variables et des calculs (et grâce aux unités relatives pour la taille des polices de caractères). La force de ce système est qu'il est possible, à tout moment, de changer la ligne de base du document en changeant la variable baseline. Tous les éléments de la mise en page se seraient alors adaptés automatiquement en gardant les rapports de proportions encodés et en restant alignés sur les différentes grilles29.
Cet exposé nous montre que les concepts programmatiques de variables et calculs s’allient au principe graphique des grilles (modulaire et de ligne de base) en systématisant certaines de leurs notions par un encodage technique fort. Ce code reste toutefois visible et lisible pour les designers graphiques, notamment parce que CSS est un langage descriptif.
✦4✦ Troisième exposé: hybrider logique du Web et logique de l'imprimé (flux, ancrage et flexibilité)
L'arrivée du Web a complètement transformé les manières de penser la mise en forme. La diversité des possibilités d'affichage des sites web – et particulièrement la variabilité des tailles d'écrans et des fenêtres de navigation – implique l'impossibilité de penser la mise en page selon un format fixe. Il en résulte que les documents web répondent à un certain nombre de caractéristiques – tels que le flux, l'ancrage ou l'adaptation dynamique – sur lesquels les designers graphiques s'appuient pour mettre en forme des sites web.
Les propriétés CSS offrent un panel de mécanismes permettant d'agir avec ces caractéristiques pour répondre aux besoins de mises en page variables (responsive): grilles, boîtes flexibles, flotteurs, positionnements relatifs et absolus, etc. Ces techniques, souvent réunies sous l'appellation de css layout, permettent de changer le positionnement des éléments les uns par rapport aux autres sans toucher à la structure HTML et en conservant leur place dans l'arborescence.
Bien que la conception d'un livre imprimé impose un retour à une logique de format fixe – celui des pages imprimées – l'utilisation des technologies du Web implique que le document HTML et les feuilles de styles CSS gardent leurs caractéristiques. Nous montrons dans ce troisième exposé, deux mises en page de livres imprimés qui mettent à profit les particularité du flux et les avantages de propriétés CSS censées répondre à des mises en pages flexibles de l'écran.
✦4✦1 Flux et ancrage des éléments
Par défaut, le code HTML d'une page web est interprétée de manière séquentielle par les navigateurs qui affichent les différentes éléments balisés dans l'ordre où ils apparaissent dans la structure du code. Les éléments sont disposés par défaut les uns en dessous des autres et s'étirent horizontalement selon la place disponible. Cette affichage séquentiel se nomme le flux. Mettre en page un livre imprimé consiste à fragmenter ce flux qui sera distribué dans des pages au format fixe30.
Toutefois, les éléments qui se suivent logiquement dans le HTML peuvent aussi avoir besoin d’être déplacés sur la page indépendamment de la logique du flux afin de rendre la mise en page plus équilibrée, plus lisible ou améliorer la compréhension du discours. Par exemple, des publications imprimées à la mise en page riche nécessitent un déplacement des éléments en haut ou en bas de la page, des images en pleine page, des éléments mis en exergues ou encore des notes de page.
Pour répondre à ces exigence de présentation, les propriétés de css layout conviennent tout à fait et certaines ont même étaient imaginées spécialement pour la mise en page imprimée31. Mais leur utilisation implique que les designers graphiques comprennent cette logique de flux et l'adapte à la page. Un avantage important est que, même si les éléments sont déplacés visuellement et « retirés » du flux grâce aux propriétés CSS, ils restent liés à leur emplacement d'origine dans le fichier HTML. Si on veut utiliser un vocabulaire plus proche de celui des designers graphiques habitués aux logiciels de PAO, nous pourrions dire que tout élément est « ancré » dans le flux – c’est-à-dire qu’un élément reste toujours lié aux éléments qui le précèdent et le suivent. L'ancrage au flux peut parfois être vu comme une contrainte mais il peut aussi être utilisé pour ses avantages.
Nous en trouvons un exemple dans la mise en page du livre Controverses mode d'emploi32 conçu avec HTML et CSS par Sarah Garcin. Les notes du texte sont disposées dans l'espace disponible des marges extérieures du livre, tout en restant à hauteur de l'appel de note correspondant. Pour arriver à ce résultat, Sarah a utilisé des propriétés de positionnements CSS fixes et relatives en appliquant quelques lignes de code à l'ensemble des notes. Notons, qu'elle a dû coupler son CSS à un script calculant la hauteur des notes et les repositionnant, permettant d'éviter que les notes se chevauchent ou dépassent de la page33. Ce mécanisme de mise en page est beaucoup plus laborieux sur un logiciel de PAO classique, où les designers graphiques sont plus habitués à disposer ce type d'élément « à la main ». Pour le travail de Sarah Garcin, les notes étant liées à leur emplacement d'origine dans le document HTML, elles restaient correctement positionnées dans la page à hauteur de l'appel de note malgré tout changement dans la mise en page.
Figure 7. Double page du livre Controverses mode d'emploi présentant de notes en marge. Crédit: Sarah Garcin
✦4✦2 Flexibilité, laisser de la marge à la machine
Afin de répondre aux caractéristiques du design de site web dans des navigateurs aux dimensions variables, une grande partie des propriétés CSS de mises en page permettent de définir le comportement d'éléments les uns par rapport aux autres dans un espace donné sans en définir leurs dimensions ou leur positionnement de manière fixe.
Pour cela, les propriétés de boîte flexible – « flexbox » – sont particulièrement intéressantes. Elles dictent la distribution d'éléments dans un espace donné selon des règles d'alignements et de proportions. Cette méthode permet de rendre les éléments fluides car ils s'adaptent à l'espace disponible selon une direction choisie: ils s'étirent pour remplir de l'espace supplémentaire et se rétractent pour s'insérer dans des espaces plus petits34. Leur taille peut aussi être variable selon le contenu: par exemple, plus un titre a de mot, plus il prendra de l'espace. Particulièrement efficace pour le design de sites web s'adaptant à la taille de l'écran, ces méthodes de boîtes flexibles peuvent être tout aussi pertinentes pour le design de livres imprimés.
✧ Figure 8 ✧ Exemples de comportement des éléments avec les propriétés flexbox. Crédit: freecodecamp.org
Nous en retrouvons un usage particulièrement créatif dans le livre CityFab2.docs mis en page par Amélie Dumont. Les pages de titres des tutoriels du livre sont constituées d'une série de cinq éléments constants: un titre, une image d’illustration, le logo du logiciel utilisé, un paragraphe introductif et une numérotation. Certaines propriétés des éléments sont définies de manière fixe (c'est par exemple le cas de la largeur des éléments du bas de la page) mais pour le reste, Amélie a utilisé les propriétés des boîtes flexibles pour « laisser le contenu prendre la place dont il avait besoin et donc obtenir des pages qui avaient une grille à peu près similaire mais en même temps qui n'étaient jamais tout à fait la même35 ».
L'utilisation de filets autour des éléments souligne l'idée des boîtes et laisse trace dans la page de la manière dont la composition a été programmée. Les figures ci-dessus montre la mise en page finale de différentes pages de titres. Nous voyons bien que la composition est différente à chaque page – notamment la dimension des espaces – pourtant c'est la même syntaxe CSS qu'Amélie a appliquée à toutes les pages. En choisissant des propriétés flexibles, Amélie laisse « un petit peu de marge à la machine [...] et à la manière dont elle est programmée, pour finir la mise en page36 ».
✧ Figure 9 ✧ Pages de titres du livre CityFab2.docs mis en page par Amélie Dumont.
✧ Figure 10 ✧ Scan d'une double page du livre CityFab2.docs. Crédit: Amélie Dumont.
Cet exposé et ses deux exemples nous montre donc un certain jeu entre des logiques de mise en page propres à l’affichage sur des écrans aux dimensions indéterminées et des logiques de mise en page pour un format fixe tel que celui des pages imprimées. Cette hybridation n’est possible que parce que CSS offre les mécanismes nécessaires aux deux médias dans une continuité technique assez unique.
✦5✦ Conclusion: la mise en page comme programme, penser avec le code
Dans son Manuel de typographie et de mise en page, François Richaudeau définit la typographique, entendue au sens large de la composition, comme des « règles de construction des systèmes [de pages] 37 ». En nous invitant à penser la mise en page de manière systémique à l'aide d'une série d'instructions et de règles dépendantes les unes aux autres, les mécanismes des feuilles de style CSS permettent de faciliter certaines décisions de mise en page rationalisables et paramétrables se prêtant particulièrement bien à la programmation (grille, hiérarchie typographique relative, ancrage des notes en marges, etc.).
Faisant cela, les technologies du Web rejouent techniquement des notions fondamentales de mise en page déjà présentes dans l'histoire du design graphique. Toutefois, elles redistribuent certaines de ces notions dans une série de concepts programmatiques basés sur des logiques d'arborescence, d'hérédité, de variables, de calculs mathématiques, de flux, d'ancrage. En cela elles montrent aussi certaines ruptures et autorisent un renouvellement des pratiques et des logiques créatives des designers graphique.
Notre troisième exposé met ainsi en évidence que les feuilles de style peuvent être utilisées de façon créative dans les mises en pages imprimées en montrant quelque chose de ce qui fait la caractéristique de CSS: un langage créé pour répondre à la variabilité des supports et des dimensions d'affichage d'un document. De la même manière, l’imbrication des éléments dans une arborescence contextuelle invite à penser des jeux graphiques pouvant potentiellement s’appuyer sur cette arborescence ou la refléter.
L’utilisation de scripts augmente encore les possibles; notamment parce que la mise en page pour l’imprimé et pour l’écran depuis un environnement unifié invite à des hybridations avec des processus et des technologies utilisées par ailleurs dans les mouvements artistiques de creative coding de manière plus générale (appel à des bases de données, utilisation d’API, dessins vectoriels génératifs, etc.)38
Ainsi, l’utilisation du code invite à concevoir des mises en page qui n'auraient pas pu être pensées si elle n'avait pas directement travaillées dans les navigateurs web et avec HTML et CSS, embarquant avec elles quelque chose qui touche aux caractéristiques de ces langages. Les technologies du Web invitent donc les designers graphiques à penser le code comme un appareil réflexif intégré au processus de création.
Il ne s'agit pas pour autant de réduire le design graphique aux seuls outils qui permettent de le produire. Ni de déléguer à un programme le savoir-faire des typographes-maquettistes et designers graphiques, en réduisant la mise en page à une approche objective et une méthode rationalisante.39 Ainsi, une systématisation de certains principes de composition et de mise en page à travers le code ne signifie pas une optimisation des méthodes et principes de conception. Les procédures « automatisées » dans l'édition ne remplaceront jamais une bonne maquette, dédiée à la lecture, faite par un ou une designer graphique compétente et guidée par le jugement humain.
L'art de la composition et de la mise en page appartient aux designers graphiques et typographes, ils en connaissent les règles. Les technologies du Web leur permettent d'exprimer cet art en dialogue avec le code en les confrontant à certaines logiques de description, de systématisation et de programmation.
These
design p r i n c i p l e s
have been modeled after those of permaculture.
These are primarily design/practice principles and not philosophical ones, so feel free to disagree with them, refactor them, and (re-)interpret them freely. Permacomputing is not prescriptive, but favours instead situatedness and awareness of the diversity of context. Said differently, its design principles can be as much helpful as a way to guide practice in a specific situation, as it can be used as a device to help surface systemic issues in the relationship between computer technology and ecology.
CareforlifeCareforlifeCareforlifeCareforlifeCareforlife
CareforlifeCareforlifeCareforlifeCareforlifeCareforlife
CareforlifeCareforlifeCareforlifeCareforlifeCareforlife
CareforlifeCareforlifeCareforlifeCareforlifeCareforlife
CareforlifeCareforlifeCareforlifeCareforlifeCareforlife
CareforlifeCareforlifeCareforlifeCareforlifeCareforlife
CareforlifeCareforlifeCareforlifeCareforlifeCareforlife
CareforlifeCareforlifeCareforlifeCareforlifeCareforlife
CareforchipsCareforchipsCareforchipsCareforchipsCareforchips
CareforchipsCareforchipsCareforchipsCareforchipsCareforchips
CareforchipsCareforchipsCareforchipsCareforchipsCareforchips
CareforchipsCareforchipsCareforchipsCareforchipsCareforchips
CareforchipsCareforchipsCareforchipsCareforchipsCareforchips
CareforchipsCareforchipsCareforchipsCareforchipsCareforchips
CareforchipsCareforchipsCareforchipsCareforchipsCareforchips
CareforchipsCareforchipsCareforchipsCareforchipsCareforchips
This is the ethical basis that permacomputing builds on. It refers to the permacultural principles of "care for the earth" and "care for people", but can be thought of as the basic axiom for all choices.
Create low-power systems that strengthens the biosphere and use the wide-area network sparingly. Minimize the use of artificial energy, fossil fuels and mineral resources. Don't create systems that obfuscate waste.
Production of new computing hardware consumes a lot of energy and resources. Therefore, we need toi maximize the lifespans of hardware components – especially microchips, because of their low material recyclability. Respect the quirks and peculiarities of what already exists and repair what can be repaired. Create new devices from salvaged components. Support local time-sharing within your community in order to avoid buying redundant stuff. Push the industry towards Planned longevity. Design for disassembly.
Keep it small
Keep it small
Keep it small
Keep it small
Keep it small
Keep it small
Keep it small
Keep it small
Keep it small
Keep it small
Keep it small
Keep it small
Small systems are more likely to have small hardware and energy requirements, as well as high understandability. They are easier to understand, manage, refactor and repurpose.
Dependencies (including hardware requirements and whatever external software/libraries the program requires) should also be kept low. Avoid pseudosimplicity such as user interfaces that hide their operation from the user. Accumulate wisdom and experience rather than codebase. Low complexity is beautiful. This is also relevant to e.g. visual media where "high quality" is often thought to stem from high resolutions and large bitrates. Human-scale: a reasonable level of complexity for a computing system is that it can be entirely understood by a single person (from the low-level hardware details to the application-level quirks). Scalability (upwards) is essential only if there is an actual and justifiable need to scale up; down-scalability may often be more relevant. Abundance thinking. If the computing capacity feels too limited for anything, you can rethink it from the point of view of abundance (e.g. by taking yourself fifty years back in time): tens of kilobytes of memory, thousands of operations per second – think about all the possibilities!
Hope for the best, prepare for the worst.
It is a good practice to keep everything as resilient and collapse-tolerant as possible even if you don't believe in these scenarios. While being resilient and building on a solid ground, be open to positive and utopian possibilities. Experiment with new ideas and have grand visions. Design for descent.
Keep it f l e x i b l e
Flexibility means that a system can be used in a vast array of purposes, including ones it was not primarily designed for. Flexibility complements smallness and simplicity. In an ideal and elegant system, the three factors (smallness, simplicity and flexibility) support each other.
If it is possible to imagine all the possible use cases when designing a system, the design may very well be too simple and/or too inflexible. Smallness, simplicity and flexibility are also part of the "small, sharp tools" ideal of the Unix command line. Here the key to flexibility is the ability to creatively combine small tools that do small, individual things. Computing technology in general is very flexible because of its programmability. Programming and programmability should be supported and encouraged everywhere, and artificial lock-ins that prevent (re)programming should be broken. Design systems you can gradually modify and improve while running them.
Build on a solid
ground
ground
ground
ground
ground
ground
ground
ground
ground
ground
ground
ground
ground
ground
ground
ground
ground
ground
ground
It is good to experiment with new ideas, concepts and languages, but depending on them is usually a bad idea. Appreciate mature technologies, clear ideas and well-understood theories when building something that is intended to last. Avoid unreliable dependencies, especially as hard (non-optional) dependencies. If you can't avoid them (in case of software), put them available in the same place where you have your program available. It is possible to support several target platforms. In case of lasting programs, one of these should be a bedrock platform that does not change and therefore does not cause software rot. Don't take anything for granted. Especially don't expect the infrastructure such as the power grid and global networking to continue working indefinitely. You may also read this as "grow roots to a solid ground". Learn things that last, enrich your local tradition, know the history of everything.
Amplify awareness
Computers were invented to assist people in their cognitive processes. "Intelligence amplification" was a good goal, but intelligence may also be used narrowly and blindly. It may therefore be a better idea to
amplify
awareness.
Awareness
means
awareness
of whatever is concretely going on in the world/environment but also
awareness
of how things work and how they situate in their contexts (cultural, historical, biological etc).
You don't need to twiddle with everything in order to understand it. Yin hacking emphasizes observation.
It may also often be a good idea to amplify the computer's
awareness
of its physical surroundings with things like sensors.
Expose everything
everything
everything
everything
everything
everything
everything
everything
everything
everything
everything
everything
everything
everything
As an extension of "amplify awareness": Don't hide information!
Keep everything open, modifiable and flexible.
Share your source code and design philosophies.
State visualization: Make the computer visualize/auralize its internal state as well as whatever it knows about the state of its physical environment. Regard this visualization/auralization as a background landscape: facilitate observation but don't steal the attention. Also, don't use too much computing resources for this (updating a full-screen background landscape tens of times per second is a total overkill).
Respond to c
h a
n g
e
s
Computing systems should adapt to the changes in their operating environments (especially in relation to energy and heat). 24/7 availability of all parts of the system should not be required, and neither should a constant operating performance (e.g. networking speed).
In a long term, software and hardware systems should not get obsoleted by changing needs and conditions. New software can be written even for old computers, old software can be modifed to respond to new needs, and new devices can be built from old components. Avoid both software rot and retrocomputing.
Every-
thing has a place
Be part of your local energy/matter circulations, ecosystems and cultures. Cherish locality, avoid centralization. Strengthen the local roots of the technology you use and create.
While operating locally and at present, be aware of the entire world-wide context your work takes place in. This includes the historical context several decades to the past and the future. Understanding the past(s) is the key for envisioning the possible futures.
Nothing is "universal". Even computers, "universal calculators" that can be readapted to any task, are full of quirks that stem from the cultures that created them. Don't take them as the only way things can be, or as the most "rational" or "advanced" way.
Every system, no matter how ubiquitous or "universal" it is, is only a tiny speckle in a huge ocean of possibilities. Try to understand the entire possibility space in addition to the individual speckles you have concrete experience about.
Appreciate diversity, avoid monoculture. But remember that ?standards also have an important place.
Strict utilitarianism impoverishes. Uselessness also has an important place, so appreciate it.
You may also read this principle as: There is a place of everything. Nothing is obsolete or irrelevant. Even if they lose their original meaning, programmable systems may be readapted to new purposes they were not originally designed for. Think about technology as a rhizome rather than a "highway of progress and constant obsolescence".
There is a place for both slow and fast, both gradual and one-shot processes. Don't look at all things through the same glasses.
Dans cette partie, nous aborderons la relation entre les humains et la technologie en traitant notamment les thèmes du code et des logiciels libres. ————— Dans « Code is Law », Laurence Lessig présente l’irrégularité et le caractère changeant du cyberespace ainsi que les tenants et aboutissants qui tournent autour de sa régulation par le code. ————— Dans le « Manifeste pour une guérilla en faveur du libre-accès », Aaron Swartz nous propose de s'approprier le libre-accès en contestation aux entreprises créant des logiciels propriétaires, afin de lutter contre la privatisation du savoir. ————— Harry Halpin nous explique l'importance des logiciels libres dans son texte « Logiciel Libre ». Il traite les questions de liberté des humains dans un monde régit par la technologie. ————— Dans l'essai introductif Learn to Code vs. Code to Learn, Silvio Lorusso met en confrontation d'une part sur ce que nous apporte et nous apprend la pratique du codage qui serait, selon lui, plus avantageux et émancipateur.
Est-il possible de faire du graphisme avec un logiciel sous licence libre ?
Nous (Raphaël Bastide, Sarah Garcin et Bachir Soussi Chiadmi) portons tous deux casquettes : nous sommes designers et développeurs, soit au gui Studio, soit en freelance.
Nos activités quotidiennes impliquent beaucoup de programmation, nous nous sommes donc inévitablement impliqués dans la culture du logiciel libre qui fait tant partie de la scène.
L'utilisation d'outils « alternatifs » nous est apparu comme un domaine d'exploration particulièrement riche, avec ses méthodologies favorisant le travail collaboratif et le partage d'expériences.
Afin de sensibiliser un plus grand public à ces enjeux, nous avons fondé l'Association OLA en 2014. , octobre 2015.
L’hypothèse de recherche de CulturIA s’appuie sur la
Directeur de recherche CNRS au sein de l’unité Théorie et
alexandre.gefen@cnrs.fr
Cette réflexion s’insère dans le cadre du projet le projet « CulturIA », financé par l’Agence Nationale de la Recherche qui étudie l’histoire culturelle de l’intelligence artificielle (IA) de sa « préhistoire » aux développements contemporains.
L’IA peut se définir comme l’ensemble de méthodes
Nous en sommes à une étape intermédiaire de ce
L’IA a montré sa capacité également à simuler
Les derniers développements de l’IA voient les progrès de
Ces développements récents et l’émergence
Car l’IA est en réalité un phénomène scientifique
Cette archéologie de l’IA n’est pas réductible à un modèle
Or cette histoire de l’IA n’a été que très partiellement tracée :
Si certains créateurs de l’IA ont accédé au statut de célébrités 16,
La dimension culturelle de l’IA est présente dans le très
La question des représentations fictionnelles de l’IA reste
La fiction a été utilisée pour anticiper les multiples
L’histoire à retracer de l’IA ne saurait donc être abstraite et
On y rencontre nos vieilles inquiétudes sur le remplacement
La tradition des automates alimente les rêveries sur le potentiel
Pour les nazis, la colonne 22, case 3 désignait les juifs.
Cette histoire qui reste à écrire est d’autant plus importante
Or, l’IA produit du futur à partir de données passées.
Son histoire est non seulement « histoire tumultueuse » comme
L’héritage pédagogique de Jacques Bertin
Stéphane Buellet, Roberto Gimeno & Anne-Lyse Renon
Le Laboratoire de Cartographie, fondé par Jacques Bertin en 1954, devenu le Laboratoire de Graphique en 1974 (fermé en 2000), articulait de manière inédite production d’images scientifiques, représentation de données et recherches en sciences sociales. Le caractère précurseur des travaux du Laboratoire, manifeste au travers des ouvrages de Bertin, est désormais internationalement reconnu.
La « sémiologie graphique » de Jacques Bertin est une source clef dont se revendiquent aujourd’hui non seulement des cartographes, mais aussi des spécialistes de l’analyse visuelle des données et du design graphique . Sur le plan pédagogique, des recherches sur les usages possibles de la Graphique dans l’enseignement ont été menées au Laboratoire de Graphique de l’EHESS dès 1976 par Roberto Gimeno, alors collaborateur de Jacques Bertin. Ces expériences ont été réalisées avec des classes de différents niveaux en école primaire et au collège. Les élèves ont été amenés à construire des matrices et des cartes informatiques pour découvrir des typologies, inventer des concepts et accéder ainsi à de nouvelles connaissances.
La chercheuse Anne-Lyse Renon et le designer graphique Stéphane Buellet se sont entretenus avec Roberto Gimeno pour mesurer, à plus de trente ans d’écart, l’héritage pédagogique du Laboratoire de Graphique.
Anne-Lyse Renon : Roberto, vous avez été amené à travailler avec Jacques Bertin dans les années 1980. Comment en êtes-vous venu à cela ?
Roberto Gimeno : J’ai enseigné comme instituteur en Uruguay pendant plus de dix ans. J’ai toujours été intéressé par l’image et j’ai pu accéder par concours à un poste de producteur et réalisateur à la télévision scolaire de l’Éducation nationale française. Deux ans plus tard, j’ai obtenu une bourse du gouvernement français pour me spécialiser en techniques et méthodes audiovisuelles dans le cadre de l’Institut national de la recherche pédagogique (INRP) à Paris. C’est là que j’ai rencontré le sociologue et linguiste Louis Porcher qui m’a fait connaître les travaux de Jacques Bertin, qui dirigeait alors le Laboratoire de Graphique à l’EHESS, fondé en 1954.
Jacques Bertin m’a accepté comme étudiant en 1974 et m’a proposé, comme sujet de thèse, de mettre en relation mes formations pédagogique et de graphicien. C’est ainsi que le projet de recherche de l’utilisation de la Graphique dans l’enseignement est né et que j’ai eu accès à des écoles à Neuilly, Levallois, en Seine-Saint-Denis, etc.
Par la suite, le réseau s’est étendu. J’ai été invité à animer des stages sur l’utilisation de la Graphique dans l’enseignement, sur le traitement matriciel et la représentation de l’histoire, sur la cartographie, etc. De nouveaux enseignants s’intéressaient à ce sujet, les expériences se multipliaient.
Quand nous avons commencé ces travaux, l’ordinateur personnel n’était pas abordable. La question des outils infographiques s’est posée très vite pour remplacer les opérations manuelles de découpage et de collage afin d’effectuer les traitements matriciels directement à l’écran ;c’est-à-dire de visualiser des tableaux à double entrée permettant les permutations des lignes et des colonnes pour effectuer des classements.
L’héritage pédagogique de Jacques Bertin
L’héritage pédagogique de Jacques Bertin
L’héritage pédagogique de Jacques Bertin
L’héritage pédagogique de Jacques Bertin
L’héritage pédagogique de Jacques Bertin
L’héritage pédagogique de Jacques Bertin
Le premier ordinateur était un Micral 80-22G (1978) de l’entreprise française R2E, pour lequel Jean-Michel Fras et Pierre-Yves Vicens, de l’École Normale de Livry-Gargan, avaient créé un premier outil infographique qui permettait le classement des lignes et des colonnes d’une matrice et la réalisation de cartes. Ce premier outil a été amélioré et redéveloppé pour les TO7, TO7-70 et le nanoréseau de Thomson, qui faisaient partie, dès 1984-1985, du plan « Informatique pour tous » (plan IPT). Malheureusement, le choix des terminaux 8 bits de Thomson a été une catastrophe. Cela devait développer la filière française de l’informatique avec le Minitel, mais le crayon optique n’a pas résisté longtemps à la souris du Apple Macintosh (1984).
Dans ce cadre, nous avions répondu à un appel d’offres du ministère de l’Éducation nationale avec deux enseignants de l’École Normale d’Instituteurs d’Antony, dans les Hauts-de-Seine. Nous avions présenté un projet de logiciel de traitement matriciel et de cartographie qui a ensuite donné naissance à Cartax et Cartax PC , deux logiciels développés par Nathan Logiciels et achetés sous licence par le Ministère. Ces programmes fonctionnaient sur des postes MO5 avec une extension de RAM 64 Ko. C’est ainsi que le premier outil informatique consacré à l’enseignement a été réalisé à l’École Normale de Livry-Gargan, au début des années 1980.
Voir ou Lire Voir ou Lire Voir ou Lire
Anne-Lyse Renon : La cartographie s’est-elle imposée d’elle-même comme objet d’étude lors de vos ateliers, de par sa présence au sein des espaces scolaires, ou son choix est-il lié aux activités spécifiques du Laboratoire de Graphique ?
Roberto Gimeno : La cartographie a toujours fait partie des programmes scolaires, bien qu’elle se limite souvent à copier des cartes. L’informatique induisait une nouvelle approche permettant de spatialiser des donnéesn qualitatives ou quantitatives, de produire des images et des séries d’images comparables qui allaient mettre l’élève en situation dynamique de réflexion et de recherche et cela dans des domaines divers : non seulement en géographie, mais aussi en histoire, en sciences sociales en général, etc. Cette démarche pédagogique était parallèle à celle du Laboratoire de Graphique dirigé par Bertin, qui avait pour but de créer un outil infographique orienté vers la recherche et permettant des traitements matriciels. Au niveau scolaire, nos travaux ne nous ont pas permis d’atteindre ce but, c’est-à-dire de passer automatiquement de la matrice ordonnée à la carte géographique. Cette recherche est toujours d’actualité, notamment au sein du logiciel Khartis développé par l’atelier cartographique de Sciences Po. Ce projet est l’héritier direct des travaux de Bertin, mais est malheureusement trop complexe pour être utilisé dans les écoles élémentaires.
Stéphane Buellet : Il y a encore aujourd’hui un fossé entre la présence quasi généralisée des moyens technologiques dans les écoles, et les difficultés rencontrées par le corps pédagogique à connaître ce qu’est un ordinateur, à le maîtriser et à savoir l’utiliser au sein d’un enseignement. J’ai l’impression que le c’est même problème depuis trente ans.
Roberto Gimeno : La méthode proposée par Bertin était d’ordre scientifique : on se posait des questions, on formulait des hypothèses, on délimitait un domaine de recherche et des objets d’étude. On disposait d’un outil visuel et manuel, la matrice permutable, qui permettait d’effectuer un traitement, de découvrir des classes d’objets, d’obtenir des typologies et donc de construire des concepts. Et l’outil même constituait un support excellent pour interpréter les résultats et construire un discours ou un texte. Cet apprentissage de la rigueur fonctionnait depuis le CP et à tous les niveaux. Pour répondre à votre remarque, avec l’appui de chercheurs, les enseignants n’avaient aucune difficulté à s’approprier la méthode. Mais, laissés seuls, des problèmes se présentaient pour amener les enfants à construire eux-mêmes les connaissances.
Stéphane Buellet : Aujourd’hui, les enfants sont très tôt confrontés à un monde d’écrans où tout est plat et semble « immatériel ». Dans le travail que vous faisiez avec les petits bouts de papier, les ciseaux, l’espace et la manipulation, n’y avait-il pas quelque chose aulequel on revient actuellement ? Passer par la matérialité, surtout pour les tout petits, pour aller vers l’abstraction… Vous aviez développé cette approche avant la présence des ordinateurs en classe et finalement on y revient : les questions qui sont posées dans votre article de 1985 sur « la cartographie et l’informatique dans l’enseignement » sont toujours d’actualité.
Roberto Gimeno : Oui, nous partions toujours d’un travail manuel, cela permettait de passer sans aucun problème de la manipulation des matrices à l’abstraction de l’écran. Ces périodes d’oubli sont curieuses : on redécouvre comme si c’était nouveau, dix ans, vingt ans ou un siècle plus tard, quelque chose qui a déjà été développé et qui semblait acquis.
Stéphane Buellet : Dans un autre article de 1985 sur la « transmission des connaissances assistées par ordinateur », vous abordez l’ordinateur, la machine, comme une sorte de « dieu » tout puissant, dont on ne saurait pas ce qu’il contient. Vous dites ainsi : « Le mythe du savoir total détenu par la machine augmente encore les possibilités de transformer l’informatique en un ‹ ghetto › où seuls peuvent entrer ceux qui ‹ savent ›, et l’informatique fait le reste (est-ce l’intention des informaticiens ?). […] Si on n’y prend pas garde, les enfants n’auront comme seule référence que le ‹ grand › ordinateur (dans le sens ‹ théologique › évoqué, mais évacué par Jacques Perret dans sa création du mot ‹ ordinateur › en 1955). » Il faut, selon vous, déconstruire cette idée, notamment en travaillant « avec » la machine. Cela permet à l’enfant de comprendre que l’ordinateur réalise des choses de façon très puissante, mais qu’il peut en comprendre les règles et qu’il y a donc une limite à ces règles, un périmètre à ce que l’ordinateur peut comprendre.
L’héritage pédagogique de Jacques Bertin
Roberto Gimeno : À l’époque de l’article que vous citez, on imaginait que l’enfant devait apprendre à programmer, puis on a pris conscience que tout le monde ne pouvait pas devenir informaticien. En revanche, nous sommes tous des utilisateurs.
Il est donc primordial d’avoir conscience de ce qu’est un ordinateur, de comment il fonctionne, de ses limites et de ce qu’il peut nous apporter. Je ne suis pas sûr qu’on le fasse à l’école actuellement, alors que les enfants utilisent quotidiennement des terminaux numériques de toutes sortes. Déjà, à l’époque, j’étais surpris d’observer des enfants de très bas âge considérer l’ordinateur comme un objet commun, facile à maîtriser, au contraire des adultes.
Stéphane Buellet : Ces dernières années, la « tactilité » (le devenir « digital » du numérique) resserre encore davantage la relation entre l’enfant et l’ordinateur, notamment via les tablettes. Les enfants nous surprennent à deux-trois ans à les utiliser très facilement. Le rapport au toucher développe très vite un attachement, voire une addiction à l’objet. Le périphérique d’entrée classique clavier/souris est comme « effacé », et transforme le rapport que l’enfant entretenait dans le passé avec l’ordinateur (objet de bureau) en une source d’excitation captivante et complaisante.
V V VOI VOIR o ou L Li Lire
Vo Li R Loir Vi Ire
Roberto Gimeno : Oui, alors qu’avec le langage de programmation pour enfants LOGO (1967), il était difficile de se déplacer, non pas directement sur l’écran, mais à l’aide des touches haut/bas/droite/gauche du clavier, qui demandaient un effort considérable d’abstraction pour passer du dessin manuel à la création d’une carte sur l’écran .
Anne-Lyse Renon : Stéphane, à la lecture des articles de Roberto Gimeno datant des années 1980/1990, aurais-tu des exemples de projets de design prolongeant ces recherches ?
Stéphane Buellet : Pour rester dans le domaine de la cartographie, je pense notamment au projet Earth Wind Map de Cameron Beccario (2013), qui permet de visualiser en ligne les conditions météorologiques mondiales. Ces cartes sont animées via des données qui sont récoltées toutes les trois heures : on peut percevoir les vents, les courants marins et l’on peut quasiment « entrer dans la carte » en zoomant. Il y a de multiples projections et une grande variété de réglages d’affichage.
Roberto Gimeno : À mon époque, l’animation était encore inconnue alors qu’elle est très présente dans l’exemple que vous montrez. Ces transformations dynamiques sont très intéressantes, mais elles ne remplacent pas les possibilités d’analyse de séries de cartes. Les buts sont différents et les résultats complémentaires. Il faut signaler que, dans les écoles élémentaires, on travaillait en priorité à l’échelle du département, de la France et éventuellement de l’Europe. On ne passait que rarement à l’échelle mondiale.
Stéphane Buellet : Les projections, les orientations, sont souvent liées à des visions et à des contextes politiques mettant, par exemple, en avant les pays du Nord, comme dans la projection de Mercator (1569). C’est révélateur de la façon dont on s’approprie un territoire ou une connaissance d’un territoire. Dans ce type d’image statique, il y a la question du choix du cadrage et de ce que l’on décide de montrer. À l’inverse, dans les nouveaux dispositifs techniques comme les « 360 degrés » des caméras, ou comme dans le fond de carte dynamique de Earth Wind Map dans lequel on peut zoomer, la question du « choix de cadrage » disparaît : le lecteur/spectateur semble être omniscient et décide lui-même de ce qu’il souhaite voir.
Roberto Gimeno : Tout à fait, ces réflexions politiques faisaient partie des cours de cartographie ; il s’agit toujours de choix idéologiques. Dans votre exemple, on a l’illusion de pouvoir naviguer librement dans un dispositif, et pourtant il s’agit toujours de choix idéologiques, inévitables, même s’ils sont inconscients.
L’héritage pédagogique de Jacques Bertin
L’héritage pédagogique de Jacques Bertin
Anne-Lyse Renon : Ce qui est frappant dans ce genre d’objet dynamique, c’est la juxtaposition de plans qui montrent, ne serait-ce que par les bords du navigateur Web, que la carte reste toujours un cadrage. Un outil comme Google Earth (2001) donne la sensation d’un grand réalisme tridimensionnel, alors que cela reste une simulation très poussée de la réalité. Il s’agit en fait de photos associées proposant une scénarisation particulière, qui donne également l’illusion d’une toute-puissance.
Stéphane Buellet : Au-delà de cette recherche de réalisme, il y a eu ces dernières années une explosion de ce que l’on appelle la « data visualization » dans toutes les formes de médias. La redécouverte des travaux de Bertin via (entre autres) l’exposition rétrospective que tu as organisée, Anne-Lyse, à l’EHESS, met en évidence que de nombreux designers graphiques utilisent des registres formels dont ils méconnaissent souvent les fondements historiques. En lisant l’article de 1985 de Roberto Gimeno sur la cartographie et l’informatique dans l’enseignement, c’est vraiment quelque chose qui m’a frappé.J’ai découvert Bertin par hasard pour la première fois dans la thèse de Ben Fry (2004), un étudiant du MIT, et je me suis dit : « Ah ben tiens, c’est un Français ! » Je pense que bon nombre d’entre nous, designers graphiques, sommes passés par l’angle américain pour redécouvrir des travaux en fait réalisés en France ; ce qui est assez déroutant, car il n’y est pas directement question de cartographie, mais de processus logiques. Dans mes projets, j’utilise d’ailleurs beaucoup les relations entre design graphique et programmation, en tentant de jouer avec des règles et des lois.
Roberto Gimeno : Bertin avait été très critiqué quand il affirmait que les variables visuelles qui transcrivent selon lui « la ressemblance, l’ordre et la proportionnalité, les trois signifiés de la graphique » — sont universelles. Il semblerait pourtant que l’histoire et l’héritage l’aient démontré. Pour exprimer les informations de manière efficace, on ne peut utiliser que certains signes et certains types de relations qui existent entre ces signes : ce sont les variables visuelles et leurs propriétés. Il y avait, dans les années de Bertin, une tendance à « mathématiser » le réel pour résoudre des questions perceptives.
Voir ou Lire
Stéphane Buellet : Bertin semblait vouloir assigner du sens à des formes : c’est le projet de la sémiologie graphique. Dans cette logique de systématisation, voire d’automatisation, j’aimerais avoir votre avis sur le site Web Datavizproject.com, qui propose un index visuel, à vocation exhaustive, de types de représentations de données (camembert, tableau à double entrée, barre de progression, etc.). Une des fonctionnalités de ce site permet d’associer des typologies d’entrées (input), c’est-à-dire matricielles, à des types de visualisations (output) adaptées à ces structures de données. De plus, pour chaque cas, il y a des exemples concrets d’utilisation.
Roberto Gimeno : Quand je regarde toutes ces productions, il y en a de très jolies, mais j’ai de gros doutes sur leurs capacités en tant que représentations précises d’une information. Il y a manifestement une utilisation des variables visuelles non adaptée, esthétisante. Bertin considérait que l’information devait être perçue d’un seul coup d’œil. Autrement, le lecteur se retrouve non pas devant une image « à voir », mais devant une image « à lire », et le plus souvent devant une image incompréhensible. C’est le risque quand on donne la priorité à la forme. Il faut, comme le disait Bertin, choisir entre « voir ou lire ».
Ouvrage collectif pirate réalisé entre le 5 octobre 2023
et le 1er décembre 2023 par les étudiant·es de troisième
année la Licence Design de l'Université de Nîmes,
dans le contexte pédagogique du projet thématique
de l'option Design et cultures numériques.
Édité et composé en css avec BOOKOLAB, un outil col-
laboratif permettant d'éditer et de mettre en forme des
publications pour lecture à l'écran et sur support imprimé
(conception : Lucile Haute ; développement et réalisation :
Arman Mohtadji & Benjamin Dumond ; réalisé avec le
soutien du Laboratoire Projekt).
Imprimé et relié à l'Université de Nîmes en 35 exemplaires non commerciaux.
La direction éditoriale a été assurée par Lucile Haute et la
direction artistique et technique par Benjamin Dumond.
« Empowerment des femmes
par les techno-
logies numériques : pouvoir avec, pouvoir pour
et pouvoir intérieur »
« Dans la revue nouvelle : pour une écologie
de l’attention
et de ses appareils », Jean-François Perrat
« La com-
munication visuelle
et graphique
à l’aune des défis environnementaux : des priorités
à redéfinir »
« Numérique
et écologie : comment concilier ces deux récits
de l'avenir ? »
« Fake news
et deepfakes :
une approche cyberpsychologique »
« Le cyber-
feminisme comme espace oppositionnel »
« Une brève histoire
des templates, entre autonomisa-
tion et contrôle
des graphistes amateurs »
« Transition numérique
et intelligence artificielle : d’importants enjeux éthiques
à surveiller. »
«IA : Pour une histoire culturelle»
« Les réseaux sociaux numériques redéfinissent-ils l’engagement ? »
« Pour une écologie
de l’attention
et de ses appareils »
« Si Jan Tschichold avait connu les feuilles de style
en cascade : plaidoyer pour une mise en page comme programme »
« Permacomputing/ Principles »
« Entretien avec Raphaël Bastide, Sarah Garcin, Bachir Soussi Chiadmi »
Ausrine dessiné par Studio Cryo distribuée
par Berzulis sous licence OFL.
Adelphe dessiné par Eugénie Bidaut distribué par Typothèque sous licence OFL.
Roberte dessiné par Eugénie Bidaut distribué par Typothèque sous licence OFL.
Ausrine
Adelphe
Roberte