Twitter, Human Technology FoundationLinkedIn, Human Technology Foundation
Comment mesurer l’apport de l’Intelligence Artificielle sur le développement humain ?

Le Secrétaire général de l’Organisation des Nations Unies (ONU) Antonio Guterres a interpellé le Conseil de Sécurité de l’ONU le 18 juillet pour insister sur le rôle crucial et pourtant ambivalent des dernières avancées en matière d’Intelligence Artificielle (IA).

Ambivalent car Antonio Guterres rappelle que les systèmes d’IA ont le potentiel d’améliorer les conditions de vie des humains ainsi que leur développement. L’ONU utilise par exemple de tels systèmes pour faciliter ses interventions humanitaires ou garantir le respect des cessez-le-feu.

Le Secrétaire général a dans le même temps alerté sur les nombreux dangers exacerbés par un accès simplifié à des systèmes d’IA. Il cite notamment la prolifération en cours de contenus erronés à des fins de désinformation et de manipulation en insistant sur le changement d’échelle jamais vu dans notre histoire.

Ce constat est partagé par de nombreux autres acteurs de premier plan. La gouvernance de ces nouveaux outils est un sujet extrêmement épineux que de nombreuses organisations (publiques et privées) intègrent d’urgence à leur stratégie.

La Human Technology Foundation (HTF) - forte de son réseau international et pluridisciplinaire d’experts - a également voulu se saisir du sujet dont l’importance a été rappelée par Antonio Guterres au plus haut niveau.

Malheureusement la recherche des opportunités et risques liés au développement et l’usage de systèmes d’IA est minée par plusieurs facteurs.

  1. En premier lieu, plusieurs experts (reconnus ou auto-proclamés) ont d’emblée détourné l’attention vers les impacts long-terme de ces outils en prophétisant par exemple (sans données à l’appui) la fin de l’espèce humaine.
  2. Deuxièmement, il n’existe pas à date d’indicateurs ou de méthodologie claire pour savoir si l’ensemble des systèmes d’IA contribue collectivement à un progrès pour l’humanité ou si leur usage provoque une dégradation de nos conditions de vie. Les systèmes d’IA sont en effet employables dans à peu près tous les secteurs. Consolider leurs impacts est donc une tâche extrêmement ardue.
  3. Troisièmement, la vélocité de développement est sans précédent tout comme la vitesse d’adoption de ces outils d’IA parfois imparfaits. Antonio Guterres rappelle ainsi qu’il a fallu plus de 50 ans à l’imprimerie pour se développer alors que ChatGTP a atteint les 100 millions d’utilisateurs en à peine deux mois.

La Human Technology Foundation s’est donc attelée à la tâche ambitieuse de développer une méthodologie d’évaluation pour rationaliser le débat en cours et informer les décideurs pour leur permettre d’avoir une prise de décision éclairée.

Pour ce faire, la HTF a lancé deux travaux :

  • Un position paper pour détailler les opportunités et points de vigilance des nouveaux usages permis par les dernières avancées en IA (telles que les Large Language Models et les modèles d’IA génératifs). Il sera publié courant septembre.

  • Un Well-Being Index pour mesurer quantitativement l’apport ou les dégâts de l’utilisation d’outils comme les systèmes d’IA sur le bien-être humain.

Le deuxième chantier est particulièrement complexe compte tenu de la définition plurielle du bien-être humain. L’édition 2023 du Well-Being Index s’attelle justement à lister les différentes définitions (et leurs mesures sous-jacentes) du bien-être pour identifier les éléments manquants. Ainsi, nos institutions disposent à date :

  • D’indicateurs purement économiques : le Produit Intérieur Brut (PIB) et le PIB par habitant. A cela s’ajoute des indicateurs comme le coefficient de Gini qui mesure la répartition de la richesse au sein d’une population pour mettre en évidence les inégalités au sein de cette population

  • D’indicateurs extra-économiques centrés sur l’humain : l’Indice de Développement Humain inclut le PIB par habitant mais aussi d’autres données tout aussi importantes comme l’espérance de vie ou le niveau d’éducation

  • D’indicateurs extra-économiques d’ensemble : des projets pionniers comme le Bonheur National Brut (BNB) incluent des dimensions telles que la sauvegarde de l’environnement et l’utilisation durable des ressources naturelles. Il faut toutefois souligner que ces indicateurs agrègent un nombre important de données, ainsi le BNB est composé de 33 indicateurs différents pour couvrir 9 domaines différents de la vie humaine. Les Objectifs de Développement Durables (ODD) de l’Organisation des Nations Unies (ONU) ont la même ambition et sont davantage adoptés au niveau international. Ils regroupent 169 indicateurs différents, ce qui en fait l’un des cadres d’analyse les plus exhaustifs.

En s’appuyant sur les ODD de l’ONU, la Human Technology Foundation a développé une matrice d’évaluation détaillée dans son rapport “L’investissement responsable dans la Technologie”. Cette matrice se concentre notamment sur les impacts liés à l’utilisation d’outils numériques pour mettre en évidence le rôle que ces outils peuvent avoir sur le bien-être humain.

La difficulté réside désormais dans le passage du qualitatif au quantitatif. Comment mesurer à grande échelle par exemple le changement de nos interactions sociales en raison d’un intermédiaire technologique (messagerie instantanée, réseaux sociaux) ? De plus, l’éventuelle solitude d’un individu peut-elle être uniquement imputable à son utilisation d’outils numériques ?

C’est justement l’un des chantiers majeurs de la Human Technology Foundation que nous vous proposons de comprendre davantage à travers notre sélection d’articles 🔽

Ressources complémentaires : 

  • Un rapport de la CNUCED (Conférence des Nations unies sur le commerce et le développement chargée d’intégrer les pays en développement dans l'économie mondiale pour favoriser leur essor) illustrant les difficultés rencontrées dans la mesure des impacts des technologies d’information et de communication (TIC)

https://unctad.org/system/files/official-document/dtlstict2011d1_en.pdf

  • Dans son rapport “Measuring the Digital Transformation, A Roadmap for the Future”, l’Organisation de Coopération et de Développement Economique (OCDE) souligne au chapitre 2.10 le manque d’indicateurs pour évaluer les conséquences de l’utilisation d’outils numériques sur le bien-être humain

https://www.oecd-ilibrary.org/sites/9789264311992-en/1/2/2/10/index.html?itemId=/content/publication/9789264311992-en&_csp_=32da5d2095ef596b16d96b0367b9d519&itemIGO=oecd&itemContentType=book

  • Le Center for Humane Technology est une ONG de plaidoyer qui vise à défendre les capacités d’attention des utilisateurs d’outils numériques. Ils militent notamment pour la mise en place de cadres plus contraignants afin de minimiser les méfaits liés à l’utilisation d’un produit numérique. Ils ont publié une compilation régulièrement mise à jour de la recherche scientifique sur les impacts néfastes des outils numériques sur le bien-être humain :

https://ledger.humanetech.com/

  • Le Partnership on AI (PAI, un partenariat à but non lucratif rassemblant des entreprises technologiques comme Google, Meta mais aussi des institutions académiques comme Berkeley ainsi que des associations, la Human Technology Foundation en est membre) a publié son “Framework for Promoting Workforce Well-being in the AI-integrated Workplace” qui rassemble la littérature scientifique concernant l’impact de l’IA sur la population active. Ces impacts sont classés en 6 catégories et le PAI s’attache à synthétiser pour chaque catégorie les effets bénéfiques et néfastes de l’intégration de systèmes d’IA dans l’environnement de travail : 

https://partnershiponai.org/wp-content/uploads/2021/08/PAI-Framework-for-Promoting-Workforce-Well-being-in-the-AI-Integrated-Workplace.pdf

18/09/2023

Articles associés