Twitter, Human Technology FoundationLinkedIn, Human Technology Foundation
Retour sur Dreamforce 2025 : L’esprit humain survivra-t-il à l’ère agentique ?

Retour sur Dreamforce 2025 : L’esprit humain survivra-t-il à l’ère agentique ?

Le 14 octobre 2025, dans le creux du torrent d'annonces qui ont rythmé la conférence phare de Salesforce, une conversation à San Francisco a posé la question essentielle: comment préserver l'esprit humain quand les décisions s'automatisent. 

En dialogue avec Matthew McConaughey, Éric Salobir a mis des mots sur une tension ressentie dans tous les secteurs d’activité : Dans la poursuite de l’innovation, qui fixe les limites, et qui accepte de les maintenir quand la vitesse et la compétition accentuent les enjeux ?

Le monde de la tech a souvent commis l’erreur de réduire l’humain à une simple expérience utilisateur. Or, la curiosité, la créativité et le discernement moral forment le socle de toutes les avancées technologiques et doivent continuer d’agir en éclaireur, lucide par rapport à notre histoire anthropologique, pour en définir le sens.

Au fond, un choix s’impose : faire de la technologie une expression du meilleur de nous-mêmes, jamais du pire.

La gouvernance humaine : une boussole pour l’IA

Il ne s’agit pas de freiner l’innovation. Il s’agit de la piloter avec responsabilité. Si les systèmes agentiques ambitionnent d’élever les personnes, alors la créativité des modèles de langage doit s’accompagner d’une supervision humaine réelle, de choix clairs et de garde-fous réglementaires. 

Concrètement, cela signifie remettre les personnes au centre

  • Concevoir les organisations afin de protéger le discernement et la raison d’être au travail.  
  • Définir des « lignes rouges » et s’y tenir :  décider où l’IA ne sera pas utilisée, même sous pression, et l’inscrire dans les politiques et les pratiques. 
  • Auditer les données et imposer une gouvernance pluridisciplinaire pour limiter les biais et rendre les usages traçables et auditables.

Sur le plan opérationnel, les limites doivent faire partie de la gouvernance : 

  • Mettre en place une politique approuvée par le conseil, intégrée aux critères de mise en production, avec un responsable unique habilité à suspendre un déploiement. 
  • Relier les lignes directrices aux étapes de décision, attribuer clairement la responsabilité d’un « kill switch », publier des model cards. 
  • Réaliser un pré-mortem éthique aide à tester la robustesse : si un incident survient, qu’est-ce qui protège la dignité, la sécurité et la confiance ? Si la réponse est floue, on ne déploie pas.
  • Les exceptions doivent être tracées de manière transparente, avec une échéance et un sponsor exécutif identifié. 
  • Enfin, il faut mesurer les résultats humains : temps rendu, taux de plaintes, qualité des escalades, bien-être des équipes, au même titre que l’exactitude et le ROI, et aligner les incitations sur ces indicateurs.

Les principes humains doivent impérativement guider la technologie et non l’inverse

Notre humanité ne se mesure pas aux « fonctions humaines » que nous codons, mais aux limites que nous posons, aux lignes que nous refusons de franchir, aux valeurs sur lesquelles nous ne transigerons pas.

Le bénéfice de l’IA tient moins à la prouesse technologique qu’à la rigueur de ces arbitrages. Décider d’en faire un levier pour rendre du temps aux personnes, puis réinvestir ce temps dans l’attention, le soin et la créativité : c’est là que se distingue le vrai leadership en matière d’IA, celui qui fait grandir à la fois la confiance et la performance, et sécurise l’adoption.

Articles associés