Twitter, Human Technology FoundationLinkedIn, Human Technology Foundation
L'intelligence en procès : Interview de Yannick Meneceur

Spécialiste des questions de transformation digitale et d'intelligence artificielle au Conseil de l’Europe, Yannick Meneceur établit des ponts entre les mondes de la justice et de l’informatique. Il revient pour nous sur la crise du coronavirus, puis évoque son livre à paraître L'intelligence en procès, Plaidoyer pour un cadre juridique international et européen de l'intelligence artificielle.

- Plusieurs États le formulent ainsi : c'est la guerre contre la Covid-19. Des circonstances exceptionnelles justifieraient des mesures exceptionnelles. Tout est-il permis ?

Les autorités françaises, par exemple, ont adopté ce vocabulaire pour marquer les  esprits :  nous  vivons une  crise   majeure.  En   plus   des  enjeux   sanitaires pressants, il faut garantir le maintien des fonctions essentielles des Etats (police, justice, éducation) et gérer les conséquences sociales et économiques.

Le premier enjeu est de s’assurer que l’Etat de droit continue de primer dans les différents pays : des pouvoirs exceptionnels aux gouvernements, oui, mais sur un temps déterminé et avec la poursuite d’un contrôle parlementaire.Deuxièmement, la démocratie, même si elle est « sous quarantaine » (report d’élections ou de réformes), doit être assurée : cela passe par une information transparente, claire et objective et la prise de mesures pour s’assurer que les fausses informations ne viennent pas saper les efforts collectifs. Enfin les droits de l’homme restent essentiels, je pense particulièrement aux groupes vulnérables : les migrants, les populations paupérisées, les détenus.

Face à cette crise majeure, tous les acteurs sociétaux, dont les acteurs privés, ont un rôle à jouer pour supporter l’effort collectif. On a vu des solutions de suivi de la population apparaître, en support aux politiques de confinement, qui posent beaucoup de questions sur la banalisation des moyens de surveillance, anonymisés ou non. Dans cette effervescence, les sachants, venant de la recherche ou du secteur privé, doivent adopter une approche éthique irréprochable et ne pas céder à la panique de l’urgence pour supporter des solutions technologiques liberticides. En parallèle, les cadres juridiques nationaux et supranationaux doivent jouer leur rôle afin que les mesures exceptionnelles continuent à s’inscrire dans le plein respect des droits fondamentaux, nécessaire pour maintenir la confiance dans les institutions.

 

- Y a-t-il une approche homogène de ces questions en Europe et dans le monde?

 Ce 10 avril 2020, la Secrétaire Générale du Conseil de l’Europe, Marija Pejčinović Burić a souligné qu’il est important que les 47 Etats de membres duConseil s'appuient  sur une coopération renforcée et les cadres juridiques des Conventions ratifiées par elles, notamment la Convention européenne des droits de l’homme (EDH). Une « boîte à outils » a été publiée pour guider les gouvernements européens afin que les dérogations à ConventionEDH (autorisées par son article 15 en temps de crise) ne dépassent pas de ligne rouge qui détruirait les valeurs fondamentales que défend le Conseil de l’Europe.

Ceci dit, les premiers temps de la pandémie ont plutôt conduit les États à fermer leurs frontières, prendre des mesures sans réelle coordination avec les États voisins, voire même parfois à réquisitionner des matériels à destination d’autres États. La crise sanitaire met à l’épreuve le projet européen, qu’il s’agisse de l’intégration économique assurée par l’Union européenne, ou d’une coopération juridique et politique renforcée du Conseil de l’Europe. De même pour la sortie de crise, ces organisations ne semblent malheureusement pas en mesure de jouer le rôle de métronome d’une coordination pourtant nécessaire. Certains pays sortiront plus tôt du confinement que d’autres, peut-être à raison, mais cela pourrait aussi créer de nouveaux foyers d’infection.

- Et concernant les solutions technologiques envisagées ?

 Sur ce plan, la coordination est venue d’abord de la recherche en Europe, et non des organisations intergouvernementales. Ainsi le Fraunhofer Heinrich HertzInstitute de Berlin (en partenariat avec d’autres partenaires comme l’Inria enFrance) ont développé le protocole PEPP-PT de « proximity tracing », basée sur l’historicisation anonymisée des rencontres effectuées grâce à un protocole bien connu de communication de proximité : le bluetooth,. Même si je suis personnellement septique sur l’efficacité de ce type précis de solution technologique (la proximité de 2 téléphones portables ne permet de déduire une contamination par le Covid), il est intéressant de voir que la société civile est en capacité de se mobiliser pour initier une coordination européenne. Il faudrait cependant inscrire ces initiatives dans une politique multidisciplinaire globale de déconfinement.

 

- En quoi votre travail au Conseil de l’Europe consiste-t-il ? et quel rôle cette organisation souhaite-t-elle jouer concernant les technologies de rupture?

 J’ai d’abord travaillé sur l’évaluation de l’impact des technologies de l’information sur le fonctionnement des tribunaux. À nous de comprendre ses effets inattendus et assurer qu’elles garantissent un procès équitable : utiliser la vidéoconférence, par exemple, n’a rien d’anodin et la manière de cadrer, la lumière, les difficultés parfois à s’entendre changent totalement l’économie d’un procès.

Depuis 2018, je suis conseiller en politiques de transformation numérique, notamment concernant l’IA (ou plus exactement l’apprentissage statistique). Ces systèmes algorithmiques particuliers ont certes ouvert des portes avec la généralisation de l’apprentissage statistique et ses excellents résultats sur la reconnaissance de sons ou d’images, mais son emploi dans des fonctions d'intérêt général (comme la justice ou la santé) n’est pas triviale. Moins qu’une robotisation, il est à craindre du solutionnisme : l’analyse statistique d’une masse de jurisprudence ne produit pas nécessairement de sens ou peut en produire avec des biais que les concepteurs ne sont pas nécessairement en mesure de minimiser. Mon rôle essentiel est de vulgariser des concepts technologiques pouvant rebuter mes collègues juristes et de les problématiser pour qu’ils puissent, chacun dans leurs secteurs, se poser les bonnes questions. J’organise régulièrement des conférences en ce sens.

C’est dans la continuité logique du positionnement du Conseil de l’Europe vis-à- vis des technologies : un soutien à leur développement, dans le respect de ses standards que sont les droits de l’homme, la démocratie et l’Etat de droit.N’oublions pas que la première convention internationale sur la protection des données (la Convention 108) a été rédigée sous ses hospices. La prohibition du clonage humain ou la coopération juridique en matière de lutte contre la cybercriminalité aussi. S’agissant de l’IA, un comité ad hoc sur l’intelligence artificielle (CAHAI) a été mandaté en septembre 2019 pour réaliser une étude de faisabilité d’un instrument juridique visant à encadrer les applications del’IA afin qu’elle respecte ce qui est au cœur du mandat du Conseil : les droits fondamentaux.

 

- Pourquoi est-il nécessaire de construire un " cadre juridique international et européen de l'intelligence artificielle " comme vous le défendez dans votre livre ?

 J’estime tout d’abord que l’IA nous pose un problème technique fondamental. Cette technologie est souvent surestimée, notamment par certains acteurs économiques qui ont des visées purement mercantiles. Les exploits de l’IA sont mis en scène (par exemple à AlphaGo Zero) de manière à construire un récit (l’IA surpasse l’homme dans des secteurs qu’on lui croyait réservés) alors que le cas d’usage précis se prête plutôt bien à cet exploit : un environnement fermé, avec des règles fixes. Rien à voir donc avec une route ouverte, une prise de décision médicale ou une décision judiciaire. Et pourtant, des entrepreneurs se sont précipité pour commercialiser des produits souvent peu matures, alors même que l’on en connait les limites : confusion entre corrélation et causalité, effet « boite noire » de l’apprentissage automatique, exemples adverses fragilisant la reconnaissance d’images, indécidabilité des systèmes1.

Deuxièmement, j’estime que l’IA nous pose un problème démocratique et de gouvernementalité. Cette technologie a été saisie selon moi par un étrange projet politique, mélangeant l’idéologie libertarienne de la Silicon Valley avec des politiques néolibérales, pour servir d’outil de transformation de la société. Ainsi, sans comprendre pourquoi, nous cherchons toujours à nous adapter, à être plus efficaces, à réduire en toute chose les coûts, habités d’un vague sentiment de retard généralisé. L’Etat de droit en vient même à être remis en cause par ce que j’appelle un Etat des algorithmes. Je fais ici directement référence aux travaux d'Antoinette Rouvroy sur la gouvernementalité algorithmique, que je prolonge en estimant que la primauté de la règle de droit est dans l’esprit de certains totalement remplaçable par un simple calcul d’intérêt. L’idée d’une « justice prédictive » s’inscrit exactement dans cette idéologie. L’éthique même a été trop souvent convoquée non pas pour servir de boussole aux développements mais juste pour « blanchir »des comportements qui ne l’étaient pas nécessairement et ralentir la production de normes, assorties de sanctions.

Il faudrait donc apporter à ces problèmes une solution juridique, reprendre la main et imposer un cadre international à même d’assurer des principes fondamentaux, nécessaires à notre temps. Cela devrait aller au-delà de l’IA et s’appliquer à tous les systèmes algorithmiques en général. Dans la pratique, nous pourrions adopter une approche basée sur les risques (imposer des contraintes réglementaires lourdes sur des applications les plus à risques), replacer cette technologie à son rôle d’outil pour ne pas qu’elle impose sa vérité, encourager l’innovation mais différer les applications immatures en adoptant un transfert du principe de précaution aux algorithmes (où quand l’on ne sait pas la portée des conséquences à large échelle, on teste d’abord à petite échelle), mettre en place une certification des algorithmes et pourquoi pas une organisation des professions – notamment des data scientists – avec un serment et un ordre assurant formation continue et discipline.

 

Je crains qu’avec certaines applications de l’IA, on se retrouve malheureusement avec un moyen qui s’est, quelque part, approprié les fins. Le problème d’ailleurs ne vient pas de la technologie mais bien de ceux qui s’en sont emparés pour réaliser du profit en l’habillant parfois d’une volonté de rendre le monde meilleur. Ce double discours, ces doubles finalités, doivent être réfutés si l’on veut réellement créer de la confiance.

 

Propos recueillis par Lauriane Gorce

Yannick Menecoeur est Chercheur associé à l’IHEJ ,membre du conseil scientifique de l’Institut PRESAJE et spécialiste des questions de transformation digitale et d'intelligence artificielle au Conseil de l’Europe

Articles associés