-- RETOUR AU SOMMAIRE
Les traductions sont principalement réalisées à l'aide de mes connaissances et de Deepl.
--> Betti Marenko, David Benqué
Résumé : L'idée que l'avenir a une « forme » est une construction profondément enracinée, pierre angulaire de la manière dont le hasard est appréhendé, par exemple à travers les « distributions » de la théorie des probabilités. La prédiction algorithmique, via l'apprentissage automatique, s'appuie sur ces formes et amplifie leur complexité et leur autorité. Alors que les effets problématiques de ce régime prédictif et la politique préventive qu'il soutient sont des sujets de préoccupation pour les chercheurs et les praticiens dans les domaines des sciences humaines, des sciences sociales, des arts et de la philosophie, le design est étonnamment absent de ce débat. Au contraire, il s'intéresse soit à la visualisation des données, souvent sans remettre en question son ontologie positiviste, soit aux « interfaces transparentes » qui cherchent efficacement à supprimer le choix. Dans ce contexte, notre proposition réunit la théorie et la pratique du design afin d'interroger les modes actuels de prédiction algorithmique et la construction de la subjectivité rendue possible par le « choix du design ». Nos artefacts conçus sont des diagrammes permettant de réfléchir à travers la pratique à la ou aux formes du possible. Plutôt que de concevoir des futurs prévisibles, nous visons à utiliser la création de diagrammes pour exposer et recadrer la conception du choix. Ces artefacts de conception - expériences initiales et continues de cartographie des recommandations YouTube - sont une série de diagrammes computationnels qui tissent ensemble les outils de prédiction computationnelle, la pratique critique du design et la théorie.
Notre collaboration entre théorie et pratique du design (Marenko et Benque, 2018) examine/complique/critique la pratique et la politique de la prédiction algorithmique : la construction du futur via l'apprentissage automatique. Elle vise à positionner la création de diagrammes comme une contre-pratique computationnelle, afin de récupérer le possible à partir de la capture algorithmique. Nous utilisons des diagrammes - visualisations spéculatives cartographiant l'informe et l'instable à mesure qu'ils alimentent des situations changeantes (O'Sullivan, 2016) - pour réfléchir, manipuler et théoriser la prédiction d'un point de vue conceptuel. Nous utilisons la création de diagrammes comme une pratique qui permet d'explorer le possible tel qu'il émerge à travers les modes de prédiction et de spéculer sur un avenir considéré comme fluide plutôt que comme une matière solide. Dans cet article, nous partons de ce point de départ pour passer à notre première étude de cas pratique : une cartographie des recommandations sur la plateforme Youtube.
__
Toute interface vers un catalogue de médias est, explicitement ou non, un classement de choix. Bien que cela soit inévitable (il n'y a aucun moyen de présenter une liste sans un certain classement), cela pose également problème. Si les interfaces conviviales semblent offrir des choix, leur objectif sous-jacent est d'orienter les utilisateurs « vers des contenus plus susceptibles de les fidéliser et de les inciter à s'abonner » (Arnold, 2016, 99). Les systèmes qui visent à maximiser l'« engagement » des utilisateurs (captation de l'attention pour la publicité) encouragent la mise en avant continue de contenus « nouveaux » (Covington et al, 2016) et de contenu « viral » (Jiang et al, 2014) — ce qui s'est avéré avoir des effets extrêmement néfastes, allant du traumatisme des enfants (Bridle, 2017) à la propagation de l'idéologie nationaliste blanche (Lewis, 2018) . Comme le montre le « design anticipatoire » (Shapiro, 2015), l'idée de conception du choix peut conduire à la suppression d'options sous prétexte de prendre des décisions au nom des utilisateurs pour, soi-disant, leur propre bien. Derrière une rhétorique de commodité, la notion de soulager les utilisateurs de la « fatigue décisionnelle » masque un projet politique. Notre préoccupation n'est pas de remettre en cause la nécessité d'un système de classement : avec plus de 400 heures de vidéos mises en ligne chaque minute et 1,8 milliard d'utilisateurs connectés chaque mois sur YouTube, il est difficile de nier la nécessité d'une interface pour analyser ce contenu. Nous voulons plutôt examiner de manière critique la politique inhérente à la conception des systèmes qui prédisent « quoi regarder ensuite » et utiliser cette critique pour étayer nos interventions en matière de conception.
__
Les artefacts conçus proposés ici – des expériences de cartographie des recommandations YouTube, intitulées Architectures of Choice Vol.1 Youtube – constituent un programme de travail visant à une compréhension visuelle de la « conception du choix ». Leur objectif est double : montrer comment les architectures du choix sont conçues dans notre quotidien, influençant la construction d'identités algorithmiques (Cheney-Lippold, 2011) ; et attirer l'attention sur la complexité (et les négociations nécessaires) de leur étude à travers une pratique critique. Ces expériences s'inscrivent dans trois perspectives théoriques : l'idée de gouvernementalité algorithmique pour mettre en avant la politique implicite dans la conception du choix (Rouvroy, 2016) ; les idées concernant les cartes et les diagrammes comme moyen d'extraire les frictions méthodologiques des systèmes de cartographie existants (Deleuze et Guattari, 1988) ; une critique du manque d'engagement du design sur ces questions à travers une évaluation de l'ontologie positiviste de la visualisation des données (Drucker, 2011).
Chaque fois qu'un utilisateur se voit proposer une série de recommandations générées par une plateforme numérique (Google, Facebook, Amazon ou YouTube), celles-ci sont élaborées par une technologie (algorithmes de classement) qui analyse les données relatives aux comportements passés afin de prévoir les comportements futurs (Covington et al, 2016). Cependant, l'analyse prédictive ne se limite pas à cela. Elle oriente les tendances potentielles. Ce que le théoricien des médias Mark Hansen décrit comme « l'ontologie calculatrice de la prédiction » (Hansen, 2014, 38) – l'impact des technomédias sur la texture de l'expérience humaine et sur tout comportement ultérieur – est une manière systémique de concevoir des tendances et des propensions à un niveau précognitif, d'une manière qui n'est pas entièrement accessible à la cognition consciente et à la conscience perceptive. Nos comportements futurs sont prédits non seulement avant qu'ils ne se produisent, mais avant même que nous n'envisagions de les mettre en œuvre. Ainsi, l'évaluation de la conception des systèmes de choix concerne également leur rôle dans la construction des identités – ce que la philosophe Antoinette Rouvroy appelle les régimes de gouvernance algorithmique (Rouvroy, 2016). Voici comment fonctionnent les recommandations : lorsque YouTube ou Netflix suggèrent quoi regarder ensuite, ils ne se contentent pas de créer des profils d'utilisateurs, mais génèrent également des identités sociales à partir d'une multitude de points fragmentés. En d'autres termes, la prédiction se transforme en prescription. Les classificateurs n'extraient pas les catégories d'un point de vue neutre et objectif, mais les créent activement (Cheney-Lippold, 2011). La granularité des données utilisateur capturées est utilisée pour construire de manière récursive (et obscurcir) un flux en direct de chacune de nos positions subjectives. En reflétant et en construisant simultanément, ce processus est une modulation continue du sujet en ensembles de données discrets récursifs, distribués à l'infini sur une multitude de points d'accès - ce que Gilles Deleuze, dans son Post-scriptum sur les sociétés de contrôle, appelle le « dividuel » (Deleuze, 1995, 180).
L’architecture complexe des recommandations de YouTube, ainsi que les défis posés par l’immense quantité de contenu disponible, sont influencés par des décisions d’ingénierie concernant les types de contenus mis en avant sur la plateforme (Covington et al., 2016). Il s’agit d’un processus notoirement opaque, en partie à cause des accords de confidentialité, même pour les ingénieurs eux-mêmes qui n’ont qu’une compréhension limitée du mode de prédiction du système – sans parler du public (Burrell, 2016). Le secret entourant le système de recommandations de YouTube et son absence de responsabilité ont incité plusieurs initiatives visant à le « cartographier » de l’extérieur : des stratégies de rétro-ingénierie (Albright, 2017), des techniques « manuelles » (Lewis, 2018) et, surtout, le projet AlgoTransparency, conçu pour révéler les biais des recommandations après l’élection présidentielle américaine de 2016 (Chaslot et al., 2016; Lewis et McCormick, 2018).
__
Ces exemples cherchent à rassembler des données et des preuves afin de formuler des hypothèses sur la façon dont le système pourrait produire des effets néfastes. Les trois utilisent des graphes de réseau, qui modélisent les données sous forme de nœuds (par exemple, des chaînes ou des vidéos individuelles) et de relations (par exemple, des recommandations). Bien que les réseaux soient adaptés pour cartographier la complexité d’un système de recommandation aussi vaste – probablement le seul moyen disponible pour modéliser de telles données –, leur prétention à offrir une quelconque « transparence » ne tient pas à grande échelle. Le graphe artisanal d’un petit nombre d’acteurs utilisé par Lewis (2018) montre un enchevêtrement complexe de co-apparitions dans les vidéos et reste relativement lisible. En revanche, lorsqu’on tente de cartographier YouTube dans sa totalité, la carte de YouTube d’AlgoTransparency ne devient rien d’autre qu’un « écheveau » ou un « bol de spaghettis », à peine révélateur des processus sous-jacents (Bounegru et al., 2017), produisant même une forme d’opacité riche en visibilité. Voir, dans ce cas, ne signifie pas nécessairement comprendre (Ananny et Crawford, 2016).
Nous abordons l’espace de la cartographie de YouTube en nous appuyant sur ces observations et en restant attentifs à leurs implications. Les prototypes que nous présentons et discutons ici utilisent des techniques automatisées pour collecter, stocker et visualiser les recommandations sous forme de données en réseau. Il convient de les comprendre comme des diagrammes exploratoires, destinés à révéler les logiques de la capture algorithmique. L’objectif de nos interventions n’est pas de proposer des solutions définitives aux limites identifiées, mais d’ouvrir des voies d’enquête face à l’appareil prédictif et de continuer à mettre en évidence les défis inhérents aux outils de cette confrontation.
__
Collecte
Les données sont collectées à l’aide d’un navigateur sans interface (Selenium) afin de simuler l’interaction d’un utilisateur avec les pages web et de « cliquer » à travers les recommandations. Cela permet un prototypage rapide grâce aux outils de développement du navigateur pour identifier les parties de la page qui nous intéressent. À partir de la page d’accueil YouTube, avec sa liste de nouvelles vidéos et de sujets, nous suivons les liens vers les pages vidéo et listons de manière récursive les recommandations. Trois « sondes » différentes équilibrent largeur et profondeur de la cartographie de façons variées : ripple.py [fig. 2.a.] suit toutes les recommandations pendant un nombre donné de récursions. Cette approche exhaustive s’est révélée très chronophage, et les visualisations obtenues devenaient illisibles dès la première récursion. simple_digger.py [fig. 2.b.] adopte une approche plus simple : il sélectionne seulement une vidéo au hasard dans la liste des recommandations et répète le processus un certain nombre de fois. Cette approche est également insatisfaisante, car elle ne montre que des parcours linéaires qui ne reflètent pas la nature interconnectée des recommandations, mise en évidence par les expériences précédentes. digger.py [fig. 2.c.] représente un compromis : il capture toutes les recommandations à chaque étape, puis en choisit une au hasard pour continuer.
__
Les données collectées sont stockées dans une base de données en graphe (Neo4j) où chaque vidéo est représentée par un nœud et chaque recommandation par une arête qui les relie. Chaque session est enregistrée avec un horodatage et indique le type de sonde utilisée. La base de données peut ensuite être interrogée pour extraire des sessions ou des sous-graphes spécifiques à visualiser.
__
Visualisation
Nous avons ensuite interrogé la base de données graphique afin de récupérer les données provenant des sessions de sondes et de les visualiser. Python a été utilisé pour expérimenter avec les bibliothèques de visualisation de réseaux populaires, telles que NetworkX et Matplotlib [fig. 5]. Nous avons également utilisé le navigateur intégré de Neo4j lors des phases de test, qui s’est avéré être l’un des moyens les plus flexibles pour explorer les données, offrant un mélange de dispositions automatiques et de manipulations manuelles [fig. 3]. Nous avons testé la génération de diagrammes de flux avec Mermaid.js [fig. 4], mais ceux-ci ont rapidement atteint les limites de la bibliothèque, entraînant des plantages et des résultats illisibles. Enfin, nous avons évalué Gephi, un logiciel open source d’analyse et de visualisation de graphes populaire parmi les chercheurs en humanités numériques [fig. 6].
__
Aucune de ces solutions ne s’est révélée satisfaisante. Outre l’aspect purement structurel lié à la présence d’un trop grand nombre de points de données, des problèmes plus simples, comme l’absence de retour à la ligne du texte pour afficher les titres des vidéos sur plusieurs lignes, ont rendu nos visualisations rapidement illisibles. Nous avons contourné cette difficulté en nous concentrant sur la granularité des chemins et traces individuels, et en concevant notre propre visualisation avec D3.js [fig. 7 & 8]. Ces contraintes de lisibilité ont mis en évidence la dimension performative des données en tant que matériau et les défis propres à la visualisation des données, qui seront abordés dans la section suivante.
Ce projet se trouve au cœur d’un paradoxe, central également dans les humanités numériques (Kitchin, 2014) : comment critiquer les épistémologies des données et des algorithmes, tout en s’appuyant sur eux pour la recherche ? La distinction théorique entre cartes et tracés éclaire ici les spécificités de la visualisation des données.
__
Cartographier concerne l’imagination et l’expérimentation de formes de construction du monde partiellement incarnées et exprimées par leur représentation visuelle. Outil de déploiement du potentiel (Corner, 1999), elle met en avant une capacité productive et tournée vers l’avenir, permettant de visualiser simultanément ce qui est et ce qui n’est pas encore. Le tracé, à l’inverse, relève d’une logique de reproduction. Il copie un modèle, demeure identique à lui-même et n’offre pas d’ouverture réelle au changement. Cette distinction permet de préciser les écueils liés à l’usage de la visualisation des données pour exposer ou critiquer les systèmes algorithmiques, la plupart des visualisations se présentant comme des tracés – des représentations neutres et objectives de la réalité.
__
La visualisation des données a été critiquée comme un processus impliquant des décisions reflétant « des présupposés, des perspectives idéologiques implicites (souvent non reconnues) et des jugements subjectifs » (Boehnert, 2016). Les choix de visualisation portent non seulement sur ce qui est inclus ou omis, mais aussi sur les prétentions d’objectivité et de neutralité, alors qu’il s’agit de sélections idéologiques. Drucker (2014) rappelle que « la plupart des visualisations sont des actes d’interprétation se faisant passer pour des présentations » : elles prétendent montrer « ce qui est », mais sont en réalité des arguments graphiques. Boehhnert introduit les notions de positivisme numérique (vision simpliste de la médiation des savoirs par les données), de datawash (visualisation qui brouille les enjeux controversés) et de dark data (ce qui n’est pas mesuré ou numérisé peut être plus pertinent que ce qui l’est), afin de souligner la dimension politique de ces pratiques. Les visualisations de connaissance, à l’inverse, déclarent leur situation et leur partialité, et transforment ces caractéristiques en levier critique. La distinction opérée par Drucker entre données, supposées données, et capta, activement prélevées (2011), constitue ici un repère central. Si la transparence algorithmique — conçue pour montrer les choix de programmation et leurs conséquences (Ananny & Crawford, 2016) — peut sembler un objectif, elle présente aussi des limites. Ce qui importe, ce sont plutôt « les significations produites par les relations, non par les révélations ».
__
Notre dernière expérimentation [nouvelle figure] illustre comment mettre en avant les relations entre un ensemble de trajectoires à travers le système de recommandations peut générer une compréhension nouvelle. En reconnaissant l’impossibilité d’une carte complète (problèmes d’échelle), cette approche suggère que la connaissance du système ne peut être saisie qu’à une micro-échelle, et surtout qu’elle repose sur des traces pour construire un savoir situé, incomplet et spéculatif.
Les expériences de cartographie présentées ci-dessus sont des diagrammes illustrant comment la conception des choix dans les recommandations YouTube construit des sujets algorithmiques. Comme le soutient la théoricienne des médias numériques Luciana Parisi, ce sujet n’est « ni uniquement un composant asservi des machines, ni son utilisateur interactif délirant. Au contraire, le sujet est en train d’être reconfiguré du point de vue de la machine apprenante » (Parisi, 2019). En d’autres termes, le sujet émerge de formes de modélisation prédictive qui adaptent le choix (et la pensée elle-même) à une recherche tournée vers l’inconnu. Ainsi, toute tentative de cartographier le choix doit reconnaître ces mécanismes.
__
C’est pour cette raison que nous réutilisons consciemment les outils computationnels comme des « prothèses cognitives » (Srnicek, 2012) afin d’obtenir une prise sur des systèmes autrement insaisissables. Ces actes de construction de médiateurs entre le bruit impénétrable des big data et leur intelligibilité cognitive constituent « l’un des domaines les plus importants où l’art politique pourrait se situer aujourd’hui » (Srnicek, 2012, 4), et – ajoutons-nous – un domaine clé pour l’intervention en design. De plus, face à des systèmes vastes et inintelligibles conçus pour capter l’attention et orienter les choix à des fins lucratives, « l’incapacité à cartographier cognitivement les rouages et contours du système-monde est aussi handicapante pour l’action politique que le serait, pour un citadin, l’incapacité à se représenter mentalement sa ville » (Toscano et Kinkle, 2015). Comment envisager une quelconque reprise si le terrain demeure inconnu ? Quelles contre-stratégies pratiques sont envisageables ?
__
La notion d’« appareil » de Giorgio Agamben est éclairante ici : « tout ce qui est en mesure de capter, orienter, déterminer, intercepter, modeler, contrôler ou assurer les gestes, comportements, opinions ou discours des êtres vivants » (Agamben, 2009, 14), avec pour conséquence une dispersion et une granularisation du soi (le « dividuel » de Deleuze, encore une fois). Seule la restitution à l’usage commun de ce qui a été capturé peut réussir comme intervention contre-appareil.
__
C’est ce à quoi nos propositions s’attachent. Elles utilisent des diagrammes pour cartographier les contours de l’appareil de capture et, surtout, pour offrir quelques aperçus bruts de son intérieur. Elles mobilisent les diagrammes comme des outils qui, en exposant comment le choix est conçu comme un motif prévisible, se veulent à la fois pratiques et spéculatifs. Pratiques, car ils visualisent la conception des choix pilotée par les données en la cadrant à travers les défis du positivisme des données. Spéculatifs, car ils produisent des traces à partir desquelles peut se construire un savoir partiel et situé, en évitant l’interprétation et la représentation.
Face aux prétentions positivistes à l’objectivité totale véhiculées par la visualisation de données et dissimulées dans bon nombre de ses outils, et à l’inverse des tracés (toujours des reproductions fidèles à leur sujet), les traces offrent des opportunités pour ce que l’historien Carlo Ginzburg appelle la « connaissance conjecturale » (Ginzburg, 1980) – un mode de connaissance qualitatif, contingent et incomplet, proche de la divination (enquête guidée par le hasard vers l’inconnu) ou des conjectures du pisteur (percevoir un animal/événement qui ne peut être directement expérimenté).
Nous considérons que notre programme de travail est essentiel pour la recherche en design pour plusieurs raisons clés. Les diagrammes précèdent l’installation d’une technologie. Autrement dit, pour qu’une technologie soit possible, sa matérialité, sa machinerie et son ensemble d’outils doivent être « sélectionnés » par un diagramme. En extrayant le diagramme exprimé par les technologies actuelles de conception des choix, nous pourrions développer des contre-diagrammes qui situent et déplacent leurs mécanismes de préférences et de recommandations. Pour ce faire, une compréhension approfondie du diagramme est nécessaire, en particulier pour les designers qui n’élaborent pas eux-mêmes les technologies qu’ils utilisent.
__
Ces expériences initiales et continues restent des tentatives de construction de relations, plutôt que des révélations. En démontrant la faisabilité du projet, elles permettent de comprendre les outils largement employés dans l’état de l’art du cartographie de réseaux. Elles soulignent également que des outils comme Gephi comportent de nombreuses limites pour nos objectifs, à commencer par des hypothèses intégrées qui en font par défaut des instruments de traçage plutôt que de cartographie. Surtout, elles mettent en évidence le défi d’utiliser les données pour critiquer les systèmes de données, offrant ainsi, nous l’espérons, une réflexion constructive sur une question centrale du design comme recherche. Cette question peut être abordée de manière productive à travers le cadre théorique du régime prédictif de la gouvernementalité algorithmique et de la politique préemptive qu’il impose.
__
Sur cette base, certaines interrogations demeurent : comment reconnaître visuellement les limites de notre système, en rendant perceptibles sa partialité et son incomplétude ? Comment communiquer les indéterminations et incertitudes à travers des pratiques et productions de connaissance significatives ? Quelles autres « architectures du choix » pourraient être diagrammées par cette approche ?