Twitter, Human Technology FoundationLinkedIn, Human Technology Foundation
Travail des données, nudge et réductionnisme

Par Pierre GUEYDIER

Big data, open data, raw data, data driven… Le terme de “données” est omniprésent dans les débats sur les technologies numériques. Nous souhaiterions questionner ici la fausse évidence que ce terme neutre semble recouvrir. Probablement, une des principales difficultés pour prendre la mesure des effets des technologies numériques réside dans l’extrême difficulté de définir ce concept de “donnée" qui induit une sorte de dimension naturelle au détriment des processus et des acteurs, souvent cachés et effacés, qui lui ont donné naissance.

Science, technique et inscriptions

Au quotidien, il existe une relation extrêmement forte entre la production scientifique et technique et le travail de l’écrit sous des formes très variées. L’intérêt pour le travail de l’écrit au sein des lieux de production scientifique et technique a renouvelé son approche dans les années 80. Une véritable ethnographie du travail lié à la production de la science et de la technique nous semble être utile pour éclairer le mystère qui entoure le concept de “donnée”.

Dans le sillage de Derrida, ces travaux ont permis de déplacer l’attention au seul contenu sémantique pour éclairer aussi la dimension active et matérielle de leur production. Ainsi, les textes issus de la démarche scientifique et technique ne sont pas à concevoir comme de simple canaux neutres et transparents mais comme participant par leur composition, leur organisation, et leur forme à l’élaboration de la connaissance.

La question essentielle, parfaitement centrale concernant aussi le concept de donnée dans le monde numérique, consiste à savoir par quelles modalités d’inscriptions les scientifiques travaillent à représenter le réel. Pour résumer : on ne peut séparer aucune connaissance, même réduite à la dimension unitaire de la “donnée”, sans s'intéresser symétriquement à la dimension matérielle qui a permis son inscription.Notamment en ce qui concerne les processus de visualisation des données censés rendre visible des phénomènes partant d’un terrain “naturel”, dont la réalité est progressivement traduite en inscriptions interprétables et visualisables, soit par un texte écrit et/ou une représentation graphique (carte, schéma, tableau…). Les données dans le champ scientifique ont des propriétés “scripturales” qui les font tenir ensemble et assurent leur circulation.

Si on étend la notion de texte vers celle plus large“d’inscription” graphique (traces, graphes, nombres enregistrés, points…), on doit aussi s’intéresser non plus seulement aux auteurs humains de textes scientifiques, chercheurs ou techniciens, mais aussi à l’ensemble des instruments “inscripteurs” qui participent à l’épaisseur de la description du réel. Au sein d’un laboratoire, du capteur qui enregistrera une variable jusqu’à la publication d’un article dans une revue scientifique ou le résultat d’un algorithme, il s’agit toujours d’une vaste chaîne de lecture et d'inscription. Tout comme aujourd’hui avec la donnée du monde numérique, il faut pouvoir suivre “à la trace”la longue construction scripturale pour comprendre l’importance du rôle de l’écrit, son processus et les savoir-faire nécessaires à son apparition.

A l’instar des enseignements des Science and Technology Studies, depuis les années 80, il faut absolument prendre conscience que le monde numérique est avant tout, et peut être davantage même que le contexte du laboratoire, un environnement scriptural peuplé d’instruments inscripteurs (sensors et devices omniprésents) coordonnées par d’immenses champs scripturaux (scripts, code et protocoles). Aujourd’hui, l’invisibilité de ces dynamiques, et le gigantesque effetde “boîte noire” qu’elles produisent, contamine l’ensemble de la société et commence à produire à grande échelle des effets nocifs sur la confiance des publics envers ces dispositifs envahissants.

Les travailleurs de la donnée

L’observation de l’activité de laboratoire par les ethnologues a mis en évidence une autre dimension essentielle pour notre propos : celle du travail et des savoir-faire invisibles et effacés nécessaires aux vastes entreprises d'inscription, de mise en ordre et de traduction du réel. Pour passer d’une inscription à une autre, il est essentiel d’explorer toutes ces tâches “quine comptent pas” et qui produisent tout un peuple de travailleurs de la donnée dans le but de “faire remonter à la surface”4 l’action de ces “petites mains” sur la“paperasse”.

Les racines positivistes et réductionnistes de l’ère numérique plongent dans la généralisation dès 1840de la communication écrite omniprésente, normalisée et mécanisée des bureaucraties naissantes. À la charnière des XIXème et XXème siècle, institutions publiques et entreprises se dotent de vastes technologies et d’infrastructures scripturales. Puis, comme l’ont été les administrations publiques avec l’élaboration de systèmes de statistiques publiques sur les populations, les entreprises ont accompli leur révolution managériale en repensant le marché, à son tour doté d’un arsenal de technologies scripturales censé le mesurer, le calculer et l’ordonner. Avant même l’ère numérique, la donnée est devenue une commodité pour le secteur public et les entreprises comme matière centrale de la coordination des échanges.

À ce stade de notre propos, il faut évoquer la dimension politique de ces processus scripturaux en s’intéressant à la valeur conférée aux différentes étapes de la production de données. La normalisation mécaniste de la production des écrits et des données au sein des organisations bureaucratiques est ordonnée au principe politique d’efficacité. Cette valeur oriente, souvent de manière imperceptible, à déconsidérer le travail et les travailleurs des données au profit des dispositifs et des machines. Tel est magistralement le cas des discours et représentations du secteur de l’Intelligence artificielle qui obèrent presque totalement l’énorme travail réalisé par les “dresseurs” d’intelligence artificielle et les tâches de micro-travail exécutées par des travailleurs de l’ombre5. En effet, au coeur des dispositifs qui peuvent apparaître comme les plus autonomes, il existe toujours dans les marges et les interstices des réseaux une part de travail humain indispensable à la maintenance des machines de la production et de la circulation des données.

De nombreux cas montrent en effet que si produire une masse de données paraît simple, automatique et“sans pensée” ni valeur, dès qu’on s’en approche, “il révèle une épaisseur et une complexité qui méritent toute notre attention”6. Ces travailleurs des données, dont chacun fait peu ou prou partie dès lors qu’il alimente ne serait-ce qu’un moteur de recherche en requêtes, participent à une vaste “back offisation” du monde. Ces micro-tâches coordonnées par des plateformes à tendance monopolistique esquissent un post capitalisme envers lequel même la souveraineté étatique aura - a déjà (?) - toutes les peines à contrebalancer les violentes externalités sociales négatives.

Un nouveau type de donnée : la “donnée brute”

Parmi les nombreuses déclinaisons du concept de donnée, celle de “donnée brute” doit retenir ici toute notre attention en raison du fait que le statut historique des données a changé à la mesure de leur omniprésence dans le discours sur les technologies numériques. La libération massive et l'accélération de la circulation des données deviennent le synonyme évident de transparence, d’innovation, de démocratie ou encore d’efficacité au point de constituer la pointe du vaste mouvement de solutionnisme, caractéristique des discours et des agendas de l’ère numérique.Dans ce mouvement technophile global, un terme retient notamment l’attention car il se situe aux confins des aspirations positivistes des chantres des systèmes dits ouverts et de la vertu bureaucratique de la transparence, de l’accès à l’information et de “l’accountability” anglo-saxonne : il s’agit de celui “d’open data" et son corollaire la donnée dite brute ou “non modifiée”.

Ce type inédit d’entité informationnelle, apparue en2007 lors de la rencontre de Sébastopol qui a forgéles principes fondateurs de l’open data et reprise depuis par les ténors de la transformation numérique, contribuera à forger les “données brutes” comme une nouvelle catégorie informationnelle. Il ne s’agit pas de dossiers constitués par la bureaucratie administrative, ni de statistiques, mais d’une information que se situe en-deçà et avant les catégories usuelles, sans plus de définition. Il s’agirait d’un matériau “déjà là” et préexistant à un traitement scriptural qu’il serait évidente taisé de “libérer”. Cette véritable théorie de l’information heurte bien sûr ce que nous avons précédemment souligné, à savoir la portée réelle et matérielle de la production, du traitement et de la circulation des données.

La “donnée brute” vise à dé matérialiser le concept de donnée, voire à le naturaliser en lui conférant le statut d’une matière première et d’une commodité. Or, cette idéologie néo-positiviste ne résiste pas à la mise à l’épreuve en situation et contribue selon nous à essentialiser la donnée numérique en particulier sans mesurer la dimension politique de sa “fabrication”sociale au sens positif et collectif du terme. Ce faisant, cette conception, selon nous erronée du concept de donnée, entraîne des conséquences importantes quand elle laisse entendre au public que les lacunes constatées à l’usage dans les données administratives soit disantes “brutes” sont suspectées d’alimenter une opposition binaire entre secret et transparence.En effet, la donnée parfaite, immanente et naturelle recherchées par les programmes de “plateformisation” de l’action publique n’existe pas et se heurte à la réalité des mécanismes discrets et complexes de sa fabrication. Il faut ainsi abandonner “toute position réaliste et admettre que les données ne sont pas des entités informationnelles déjà disponibles qu’il suffirait de faire circuler (ou de “libérer”), mais le résultat provisoire d’un délicat processus de génération. Admettre que les données, comme l’écrit Latour[...] sont toujours des “obtenues”.

Le Nudge et les architectes du choix

Inciter les individus à modifier leur comportement individuel ou collectif tout en optimisant le rapport coût (financier ou politique), l'efficacité est l’objectif ultime de tout gouvernement des hommes. Qu’il s’agisse de la puissance publique, qui dans le cadre d’une vision bio-politique, se mobilise pour protéger et développer sa population (politique de santé, sécurité au sens large, écologie…) ou d’une entreprise dont la quête d’efficacité managériale, productive ou commerciale est la raison d’être, les organisations humaines cherchent toutes le fameux “changement” progressiste.

Cette quête consistait jusqu’à récemment à concevoir diverses méthodes d’incitation descendante toujours limitées par le risque d’un excès de répression ou d’autoritarisme coûteux et contre-productif, un cycle d’effet allongé (entre décision, mise en oeuvre et mesure des effets) ou encore une efficacité limitée dans le temps et l’espace.

Or, depuis une dizaine d’années, le croisement du travail des données évoqué précédemment, la psychologie sociale, le management et la plateformisation numérique des relations sociales ont accouché d’une théorie générale de l’influence douce connue désormais sous le terme de nudge. Encore peu popularisée, nous pensons qu’elle deviendra centrale dans les mois et années à venir. Comme les ressorts anciens du marketing et de la publicité, une démocratisation de ces techniques comportementales est essentielle.

Inciter ou discipliner avec douceur ?

L’ouvrage fondateur de ce courant, écrit par RichardThaler et Cass Sunstein, a été publié en 200811.L’étymologie du terme anglais de nudge est utile à souligner. Il désigne le fait de pousser du coude pour attirer l’attention d’un voisin ou d’encourager à la manière de l’expression française du “coup de pouce”.Dans l’introduction de leur livre, les auteurs expliquent que l’économisme et sa représentation rationaliste du consommateur est pure fiction. L’observation de nombreuses réalités sociales dysfonctionnelles (obésité, endettement, absence de couverture sociale, exemples cités par les auteurs sur lesquels nous reviendrons) soulignent au contraire l’échec d’une représentation idéale du comportement humain agissant avec raison. L’homo economicus - une “écone” selon l'astucieux néologisme de Thaler et Sunstein - commet au quotidien des erreurs de jugement, révèle des raisonnements erronés et multiplie les biais. Deux ressorts comportementaux vont définir la puissance du nudge : celui de l’inertie et de la possibilité de s’y appuyer pour designer une architecture du choix. Par exemple, dans une cantine en “self service”, il est très facile d’orienter le choix dans un sens ou un autre par une simple disposition spatiale des aliments.

Cette simple méthode d’incitation par l’architecture des choix, comme l'achalandage pratiqué depuis l’aube des échanges commerciaux, peut changer brutalement d’échelle avec la plateformisation englobante des échanges à l’ère numérique. Très rapidement, la théorie du nudge a été explorée à des fins de politique publique dès la fin des années 201012. Dans le monde politique américain et britannique fortement dépolitisé et libéral, la théorie du nudge laissait entrevoir surle plan théorique une sorte de troisième voie entre interventionnisme étatique et ultralibéralisme. Sur des sujets de santé publique et de surendettement, les chantres du nudging pensaient avoir trouvé une solution pour agir sur des comportements jugés anti-sociaux tout en préservant le non-interventionnisme étatique. La politique du “laisser choisir” a toujours prévalu dans les politiques publiques anglo-saxonnes.L’hypothèse de cette politique libérale consiste à postuler que chacun, comme entrepreneur de lui-même, est capable de prendre toujours la bonne décision, mue par la défense et le calcul de son intérêt individuel. L’autre présupposé du “laisser choisir” consistait à rejeter toute forme de coercition conformément à la doctrine libérale dont l’objectif est de limiter autant que possible le pouvoir de l’Etat dans les existences individuelles.

Thaler et Sunstein vont s’élever contre ces deux présupposés mais dans une direction originale : pour eux, il faut prendre acte de la faillibilité des individus et considérer au contraire que face à la complexité du système de choix des polices d’assurances maladie américaines par exemple, une aide est indispensable pour décoder les offres commerciales. D'autre part, ce paternalisme étatique n’est pas synonyme de coercition : un usage habile de l’architecture du choix, le design des interfaces et l’optimisation du traitement des données peuvent rendre imperceptible par l’usager, et non moins efficace, l’orientation extérieure sur ces choix. Thaler et Sunstein forgent ainsi un oxymore presque orwellien : le “paternalisme libertaire”.

Ces architectures du choix qui souhaitent ni plus ni moins apporter des jours meilleurs aux usagers des services publiques à leur insu sont naturellement sous tendues par une vision éminemment politique des rapports sociaux. Il est ainsi symptomatique que les principaux domaines d’application du nudge (obésité, surendettement, défaut de couverture sociale)soient les stigmates caractéristiques de la pauvreté.En faisant l’hypothèse d’une origine exclusivement comportementale de ces traits sociaux négatifs, les auteurs effacent intégralement la dimension pourtant essentiellement sociale et politique de ces inégalités.Jamais dans leur ouvrage et cette approche ne sont envisagées ces questions - et leur remède - sous la forme de la responsabilité politique collective.

Si le succès du nudge à la fin des années 2010 fut lié d’une part au contexte conservateur de David Cameron et la question de la santé publique sous Obama, son couplage avec celui du Data turn et de l’Intelligence artificielle dessine de vastes conséquences dans les politiques globalisée d’architecture du choix, notamment des plateformes et acteurs du numérique, qui visent délibérément à atteindre ou conforter une position de monopole dans le domaine du traitement de l’information.

“Big brother is nudging you” !

Naturellement, s’il s’agit d’orienter le choix des élèves à la cantine pour une alimentation plus équilibrée, réduire la vitesse sur les routes avec des radars automatiques non verbalisants mais affichant des smileys ou encore inciter les administrés à ne pas oublier de renouveler leur police d’assurance, tout le monde est d’accord pour adopter la généralisation de cette méthode d’architecture du choix et ce “paternalisme libertaire”.

Mais, l’enfer étant pavé de bonnes intentions, nous retiendrons ici simplement deux exemples assez bien documentés des usages éthiquement contestables de ces techniques de neuro-ingénierie sociale.

Une des applications les plus prometteuses du nudge concerne le domaine de la relation entre homme et robot, comme prolongement de l’architecture du choix et des interfaces. L’établissement d’une relation affective et émotionnelle avec des robots devient un secteur à part entière de recherche avec comme préambule la détection, le classement et in fine la modélisation des émotions à travers des indices verbaux et non-verbaux. Des assistants vocaux en cours de déploiement commercial en passant par les perspectives de “care” via les robots (malades, personnes dépendantes…), la théorie du nudge trouve de larges champs d’application pour étudier et améliorer l’empathie de certains publics envers les machines. La modélisation et l’implémentation de compétences sociales du langage comme la politesse, l’humour oul’ironie visent pour certaines équipes de chercheurs “à identifier et à interpréter certains indicateurs du comportement de l’interlocuteur qui caractérisent une interaction sociale et affective ; puis, grâce à l’humour, à engager l’interlocuteur humain dans une relation à long terme avec un robot de type Nao”13. La détection d’émotions, leur interprétation et leur simulation par des robots conversationnels ou anthropomorphes permises par les outils de l’apprentissage profond et l’IA rendent possible le profilage émotionnel en temps réel des individus.

Une fois ces états émotionnels détectés, la machine peut calculer l’écart avec ceux attendus (l'accroissement d’un bien-être émotionnel par exemple pour une personne âgée) et à travers un dispositif de nudge conversationnel comme l’humour chercher à établir et orienter un dialogue avec l’humain aligné à ce genre d’objectifs comportementaux. L'attachement affectif avec une machine est ici le comportement recherché.Cependant, et notamment avec de jeunes enfants, ces méthodes d’influence comportementale glissent rapidement vers le dressage, comme par exemple lorsqu’un assistant vocal apprend à un enfant à être poli avec lui grâce au ressort du paternalisme libertaire qui se traduit ici par un message vocal de récompense quand l’enfant s’adresse poliment à l’objet (“merci”, “s’il te plaît”…).

L’accélération et l’amplitude de la mise en oeuvre de la théorie du nudge par les dispositifs numériques couplés aux avancées de l’Intelligence artificielle n’a pas manqué ces derniers temps d’intéresser un domaine particulier de la vie publique : celui des processus électoraux. Exercice par excellence du choix et du libre arbitre démocratique, le vote se présente comme domaine d’application naturel du nudge. Dès la campagne d’Obama en 2008, les données électorales furent au centre de sa stratégie, le profiling et le mapping, les moteurs essentiels de sa vaste campagne de porte-à-porte couronnée par le succès que l’on connaît.

Huit ans plus tard, la théorie du nudge formulée et les progrès dans le traitement du Big Data aidant, c’est désormais le “big nudge” ou “hypernudge” qui s’est déployé au cours de la campagne pour les présidentielles américaines de 2016. Ouvertement, les électeurs ont été profilés en fonction de leurs peurs (migrants, atteinte au port d’armes…), moteur cognitif le plus puissant selon les termes du conseiller Roger Stone15. Le ciblage de ces publics en fonction de leur localisation dans les comtés déterminants des swing-states, couplé à des campagnes massives via les réseaux sociaux de mensonges parfaitement assumés activant les leviers de la peur chez ces électeurs, a montré une redoutable efficacité en matière d’architecture des choix en portant le nudge à un niveau d’efficacité et de précision comportementale jamais atteint.

Réductionnisme

Le travail invisible des données et le développement des théories du nudge soulignent l’importance d’un courant de pensée ancien mais toujours davantage à l’ordre du jour. Ce concept philosophique qui a alimenté une bonne part du progressisme technique depuis le XVIIIème siècle nous semble important à revisiter pour tenter d’avoir une vue d’ensemble des questions soulevées par l’envahissement de tous les pans de la vie individuelle et collective par les technologies numériques.

Ce puissant courant de pensée est le “réductionnisme”qui, s’il a fortement contribué à l’efficacité scientifique et technique, doit, selon nous, éviter de basculer dans un dogmatisme qui viserait à “réduir” la complexité humaine à des données, même massives, modélisables et manipulables.

Le réductionnisme est un concept central du matérialisme cartésien qui vise à simplifier en autant de parcelles élémentaires possibles les phénomènes existants. Cette doctrine matérialiste donne comme seul existant la matière et comme science fondamentale la physique. La méthode analytique qui en découle, essentielle pour la démarche scientifique, a montré toute sa pertinence et fut plébiscitée par les plus grands noms de la science.

Cependant, l’absolutisation de ce principe qui pousse à ne considérer comme existant que ce qui est constitué par la substance matérielle, des occurrences physiques ou encore pour ce qui nous préoccupe de “données” mesurables est naturellement critiquable.

En effet, et selon le titre de l’ouvrage de Pablo Jensen “la société ne se laisse pas mettre en équation”. Le physicisme qui fait de la physique le modèle explicatif général du monde matériel ne peut être transposé épistémologiquement aux questions sociologiques, anthropologiques et moins encore politique. Les concepts clés du rationalisme comme la réplicabilité ou la prédictibilité se heurtent à la complexité des relations humaines. La statistique s’est pourtant toujours définie comme une science de rationalisation du sociale que le digital turn pourrait amener à son épiphanie. La dérive du politique vers l'ingénierie sociale qui en résulte se fourvoie manifestement en croyant pouvoir modéliser tel problème social (travail, santé, violence…) en l’isolant et en le simplifiant. Les échecs récurrents, voire permanents, dans le domaine de la prévision économique souligne que l’externalisation de certains effets à des fins de simplification des modèles ou la confusion statistique entre corrélation et preuve mettent largement en échec l’approche réductionniste des phénomènes sociaux.

Deux modèles de prédiction s’affrontent : soit une extrapolation du passé soit une modélisation. La première approche n’est pertinente que pour un avenir proche, la seconde s’effondre dès que le nombre de paramètres croît. Jensen résume ainsi les limites épistémologiques du réductionnisme en sciences sociales: “Il existe quatre facteurs essentiels qui rendent les simulations de la société qualitativement plus difficiles que celles de la matière : l’hétérogénéité des humains ; le manque de stabilité de quoi que ce soit; les nombreuses relations à prendre en compte aussi bien au niveau temporel que spatial ; la réflexivité des humains qui réagissent aux modèles qu’on fait de leur activité”.

L’élément fondamental à retenir ici est que la fiction de représentation des modèles, si elle a montré naturellement son efficacité en science physique ou naturelles, est incapable de prédire les comportements sociaux. Plus largement, la modélisation et l'ingénierie sociale, malgré leurs atours rationalistes, participent d’une conception politique des sociétés : celle de croire possible leur modélisation et leur simplification externes. Cette idéologie de réification des relations humaines suppose que seule une action externe permet de “changer la société” et que la créativité et le pluralisme des acteurs impliqués n’est pas suffisante.Il s’agit en réalité d’une conception dépolitisée voire déshumanisée des rapports sociaux.

Articles associés