Twitter, Human Technology FoundationLinkedIn, Human Technology Foundation
Entretien avec Bruno Deffains et Jean-Marc Vittori

La fin de la solidarité ? 

Faut-il faire évoluer les fondamentaux de la République : liberté, égalité, fraternité ? L’application d’algorithmes dans le secteur de la protection sociale revient à poser la place de la solidarité dans notre société. 

L’intelligence artificielle bouscule l'évaluation du risque. Ces innovations ont transformé des secteurs économiques tels que l'assurance, qui repose sur cette analyse du risque. Qu’en est-il du système de protection sociale ? 

Alors que la Chine a mis en place le “crédit social” - c’est-à-dire, un système national de réputation, qui repose sur récompenses et des pénalités en fonction du respect des règles édictées - et que les États-Unis utilisent depuis longtemps le “credit scoring”, - soit des outils pour évaluer automatiquement la solvabilité d'un tiers - : quelle est la voie pour l’Union européenne (UE) ? 

 Pour éclairer ces questions, Jean-Marc Vittori, éditorialiste aux Echos et membre du Conseil national du numérique (CNNum) et Bruno Deffains, Professeur d'économie à l’Université Panthéon Assas et membre de la Commission nationale consultative des droits de l'homme (CNCDH) nous livrent leurs réflexions.

La fin du principe de solidarité ? 

Bruno Deffains : 

Le point d’entrée pour aborder cette problématique est la notion philosophique du contrat social. La définition du Contrat social de Jean-Jacques Rousseau, puis la Théorie de la Justice de John Rawls en 1971 posent les fondements de la démocratie sociale libérale, qui reposent sur les principes d’égale liberté, de différence et d’égalité des chances. Ces principes fondent le contrat social dans un cadre précis, celui du voile de l’ignorance. C’est-à-dire que les individus sont supposés faire abstraction de leurs intérêts particuliers pour concevoir des règles d'organisation sociale. Les individus sont d’une certaine manière contraints à l’impartialité. 

Au-delà des cercles philosophiques, cette construction a permis de légitimer des droits collectifs avec l'objectif de se concentrer sur les plus fragiles. C’est précisément sur cette base que la plupart de nos dispositifs de protection sociale se sont développés au cours du XXs. Le voile de l'ignorance place l’impartialité au cœur du raisonnement pour déterminer tant les droits individuels que les droits collectifs. Avec des nuances toutefois puisque l’on comprend bien que la question de la retraite ne peut pas être posée de la même manière que celle de la santé. 

Avec l’émergence de nouveaux outils technologiques, une tension risque d’apparaître entre la logique portée par le voile de l’ignorance et le traitement massif des données qui porte en lui une logique de transparence renforcée.

"Transparence vs ignorance, tel est le dilemme qui se pose de plus en plus".

Le big data est susceptible de favoriser une logique de sélection des risques qui n’est pas parfaitement compatible avec la logique inclusive du contrat social telle que fondée sur le principe d’impartialité sur laquelle repose les assurances sociales. Cette question a notamment été soulevée dans un rapport intitulé "Intelligence Artificielle, Assurances & Solidarité" publié en janvier 2020 par la Fondation. 

Dans ce contexte, le véritable sujet est : est-ce que l’État Providence tel que défini au XXème siècle a encore un rôle à jouer ? Ma réponse est plutôt positive mais il faut pour cela se saisir du sujet afin d’adapter les fondements du contrat social en conséquence.

Jean-Marc Vittori : 

Dans le Contrat social, Jean-Jacques Rousseau décrit le passage de l’état de nature à l’état de société au nom de l’intérêt général. Cependant, le numérique nous fait revenir d'une certaine manière à l’état de nature, en réintroduisant la loi du plus fort. Pour l’illustrer, les grandes entreprises du numérique valent aujourd’hui cinq à dix fois plus chères en bourse que les autres. Il faut refaire un contrat social à l’ère du numérique, car il y a des acteurs beaucoup plus puissants qu’à l’époque où Rousseau réfléchissait à ces questions. 

Le voile de l'ignorance est déchiré et il est difficile de le recoudre. Faut-il prendre en compte les risques de santé ? Si oui, lesquels ? Cette question n’est pas évidente, d’autant plus que la tension sur le comportement est forte. Si je bois, je fais peu de sport, je vais imposer plus de risques à la société au nom de mes choix personnels. Pourquoi ? Comment ? Peut-on m’obliger à faire du sport ? Comment le faire ? Aujourd’hui, il existe des réponses juridiques. Par exemple, en 2011, au nom de la lutte contre les discriminations, la Cour de justice européenne a  interdit aux assureurs de proposer des primes moins élevées aux conductrices, même si elles ont moins d'accidents. 

Pour adresser ces questions, il ne faut pas que des réponses juridiques, il faut aussi des réponses économiques et politiques.

"Il faut politiser le numérique". 

Par quel principe remplacer la solidarité ? 

Bruno Deffains : 

Alors que cet État Providence reposait sur une justice sociale transcendantale, aujourd’hui c’est plutôt en “connaissance de cause” qu’il faut fonder notre raisonnement. Cette évolution interroge l’organisation de la société. Faut-il tendre vers une démocratie plus participative ? Les citoyens doivent-ils réfléchir ensemble aux conditions de mise en place d’un contrat social ? 

Dans la mesure où on assiste à la déchirure du voile de l’ignorance, la solidarité qui reposait sur cette base se retrouve en difficulté. Or, la prise en charge des plus démunis dans la société est un des fondements du “vivre-ensemble” dans un système démocratique fait de droits et de devoirs. L’alternative serait de revenir à un système qui repose sur la charité tel qu’on le connaissait au XIXème siècle (et avant…) ? Avant la mise en place des institutions du XXs, la prise en charge de la misère reposait sur la volonté des riches et des puissants de venir en aide aux plus défavorisés dans la société. On comprend que ce principe présente une faiblesse importante, celle de dépendre d’un acte volontaire puisqu’on choisit à qui on décide de venir en aide. Le voile d’ignorance présente de ce point de vue un avantage puisqu’il repose, nous l’avons vu, sur un principe d’impartialité. Ne risque-t-on pas un retour en arrière, les signes avant-coureur sont visibles autour de nous ? 

Jean-Marc Vittori : 

La solidarité s’est d’abord exprimée au niveau local. Quand les villes se sont développées, les liens se sont distendus et on a vu apparaître ces organismes caritatifs. Il y a aussi l’origine de la naissance de l'hôpital, pour prendre soin des personnes les plus fragiles en ville. Au XXème siècle, le lien est devenu  encore plus distendu avec la mise en place de l’État Providence et la protection sociale pour prendre en charge les plus démunis. La solidarité repose sur une base nationale. La nouvelle donne aujourd’hui avec le numérique est l’apparition de fissures dans le cadre national. Le sentiment d'appartenance à la communauté nationale s’est affaibli au profit d’autres formes d'appartenances à d’autres communautés qui peuvent être locales ou internationales. Aujourd’hui, il y a un sentiment de multi appartenance. Et dans ce contexte, la solidarité est beaucoup plus difficile à exprimer.

Faut-il limiter l’application de l’IA à certains domaines ? 

Jean-Marc Vittori : 

Tout d’abord, il s'agit de distinguer les données de l'intelligence artificielle (IA). L’IA vise des données associées à des ordinateurs et des formes d’apprentissage automatique. Cela ouvre la voie à des décisions publiques prises par des dispositifs d’IA. Cela pose la question des biais. Cette question a notamment été débattu dans le contexte des logiciels de recrutement “sexistes” ou “racistes”. L'IA se nourrit des données dont on la nourrit, et de la façon dont on les traite. 

Les humains aussi sont biaisés dans leurs décisions. Pour l’illustrer, les cours de bourses augmentent à la nouvelle lune. Comment faire ? Faut-il utiliser l’IA là où elle est moins biaisée que l’intelligence humaine ? Comment le déterminer collectivement ? 

Bruno Deffains : 

Le potentiel du numérique dans le domaine de la santé, du transport est indéniable. La valeur de la donnée du point de vue de l’intérêt général ne se discute pas. 

Toutefois, la politisation du numérique est indispensable. Il faut que le politique se l’approprie. De très puissantes entreprises ont pris une certaine avance et aujourd’hui, les autorités de marché essaient de les rattraper avec difficultés. Par exemple, le Digital Market Act est censé réguler un peu plus leurs comportements mais le coeur du sujet, à savoir la cohésion sociale telle que nous l’envisageons doit également être questionnée à cet égard.

Face aux modèles chinois et américains, quelle voie européenne ? 

Jean-Marc Vittori : 

On observe différents modèles. Aux États-Unis, la donnée est facilement appropriée par les très grandes entreprises. A contrario, en Chine, l’État surplombe ces entreprises. L’année dernière, la Chine a voté un dispositif qui limite l’usage des données par les acteurs privés. En revanche, aucune limite n’est imposée aux acteurs publics. Les données nourrissent les expérimentations de contrôle social, qui sont très puissantes dans un système politique totalitaire. 

Dans ce contexte, l’UE a affirmé un droit sur la propriété individuelle des données avec le Règlement Général sur la Protection des Données (RGPD) et les derniers textes (Digital Services Act (DSA) et Digital Markets Act (DMA). 

Toutefois, la question de la donnée au service de l’intérêt général n’est pas suffisamment posée. Cela revient au pacte social de Jean-Jacques Rousseau qui énonçait que chacun doit renoncer à ses droits particuliers pour obtenir l’égalité des droits sur laquelle repose la société. C’est sur cette deuxième étape que l’Union Européenne doit se renforcer. 

Dans le domaine de la santé, une dimension du contrat social est l’utilisation des données au service de l’intérêt général. Pourquoi garder mes données alors qu’elles pourraient contribuer à faire progresser la santé publique ? Dans un domaine où de nombreux soins sont gratuits, pourquoi ne pas partager mes données anonymisées au service de l’intérêt général ? Là aussi, il s’agit d’une discussion qui doit être débattue collectivement.

"La donnée oblige à réorganiser la manière de collaborer les uns avec les autres".

(Voir rapport de la Human Technology Foundation sur le Data Altruisme, publié en Février 2022). 

Bruno Deffains : 

Au sein de l’Union européenne, on tend vers une co-construction entre les acteurs et les États. Le Digital Market Act va dans ce sens. Pour autant, lorsqu’ on rentre dans une logique de collecte et de traitement massif des données, un risque existe. A la fois, il s’agit d’un atout décisif pour favoriser l’émergence de l’intelligence des territoires, soit la capacité d’un territoire à anticiper les changements socio-économiques et de l’autre cela renforce les risques de manipulation douce pour guider les comportements (aussi appelé nudge). La frontière entre les bénéfices pour l’intérêt général et les risques de sélection des risques est fragile. Seuls des mécanismes institutionnels appropriés, adossés à des mécanismes économiques tels que les incitations économiques peuvent répondre à cet enjeu. Il s’agit également de procéder par des essais-erreurs, car nous sommes encore au début de l’aventure.

L’IA dans la décision publique renforce-t-elle ou altère-t-elle la confiance ? 

Bruno Deffains : 

La problématique de confiance est au cœur de l’utilisation massive des données. Elle peut être érodée ou renforcée. Tout dépend des arrangements institutionnels. Le numérique évolue à une vitesse impressionnante et l'IA est une étape majeure. Ce qu’il en adviendra sera ce que nous en ferons, rien n’est décidé par l’outil. L’outil présente certaines contraintes et des potentialités mais il n’est pas neutre. C’est très important d’en discuter et d’en débattre. La portée peut être colossale, il faut explorer ensemble les choix à faire. 

Dans ce contexte électoral, le politique est tellement pris dans des logiques de court terme avec les crises qui s'enchaînent, qu’il répond difficilement aux problématiques qui s'inscrivent dans le long terme. Quelle place pour des sujets aussi importants que la viabilité de notre système de sécurité sociale basé sur un principe qui est mis en difficulté ? 

L'assurance privée est une illustration de ce qui peut se passer en matière de sélection des risques. Elle pose une question fondamentale de question de l’alignement de l’intérêt privé sur celui de la collectivité. Il y a un peu de naïveté de la part des acteurs publics. Cet alignement suppose un minimum de co-construction. Elle nécessite une régulation appropriée qui amène à respecter les contraintes du secteur privé et de l’intérêt général. Il y a une urgence, mais l’agenda politique est embouteillé.

Jean-Marc Vittori : 

La démocratie représentative s’est construite avec des gens “en haut” qui savaient et des gens “en bas” qui délèguent leur pouvoir à ceux qui savaient. On avait une pyramide forte des compétences qui a notamment justifié la démocratie parlementaire. Or, le numérique et les données transforment le système de répartition des compétences et des savoirs. Il y a quelque chose qui relève de la défensive de la part du système politique face à un changement profond qui remet en cause sa façon de fonctionner depuis des siècles.

A l’époque du contrat social rêvé par Rousseau, l’information circulait très différemment d’ aujourd’hui. Si on veut se donner une chance de pouvoir renouer un contrat social, il faut que chacun puisse manier les idées et les concepts qu’il y a derrière et ça suppose beaucoup d’efforts en termes d’éducation et de formation.

On a pas trouvé mieux que le voile de l’ignorance pour nos institutions sociales, car il offre une garantie qui ne met pas en péril l'intérêt privé et permet l’adhésion à une logique d'impartialité. La difficulté est que la logique d'impartialité n'est pas dans l’ADN de l’IA et du big data. 

Comment préserver un principe d’impartialité quand on rentre dans une logique de type prédictive ? Ou par quoi faut-il la remplacer ? Si on parle de tiers de confiance, qu’est ce qui va garantir qu'il n'y a pas d’arbitraire ?

Articles associés