Alors que courent les promesses de gains de temps phénoménaux générés par l’IA au sein des organisations, et que leur concrétisation tarde à se matérialiser, une réflexion doit s’engager sur la manière dont nous abordons collectivement l’innovation et la transformation qu’elle induit.
Jean-Baptiste Manenti, Sébastien Louradour
Il est difficile d’avoir manqué, ces dernières années, les publications et prises de parole louant les impressionnants gains de productivité que l’introduction de l’IA générative au sein des organisations allait entraîner.
A titre d’exemple, une étude du groupe Nielsen Norman concluait en 2023 que les outils d’IA pouvaient générer des gains de productivité dans des domaines aussi variés que la relation clients, les fonctions commerciales et support et la programmation informatique, pour une hausse moyenne de productivité de 66 % (soit un équivalent de 88 années de hausse de productivité “naturelle” dans l’Union Européenne).
Deux ans plus tard, la tendance générale semble toutefois revenir à une plus grande prudence du côté des entreprises lorsqu’il s’agit d’investir dans des outils d’IA. Citant une étude de Deloitte, The Economist rappelle ainsi que la part des dirigeants ayant un intérêt élevé ou très élevé envers l’IA générative est en déclin. Plusieurs raisons viennent expliquer cet engouement modéré, à commencer par la difficile matérialisation des gains promis depuis plusieurs années.
Mais même lorsque des entreprises déploient des expérimentations, ces dernières peinent à convaincre : Forbes estime que 90 % des pilotes déployés de manière descendante échouent, et The Economist insiste sur le fait que seulement 8 % des entreprises ont déployé plus de la moitié de leurs expérimentations. En cause, un accès restreint à des données de qualité, la vétusté des systèmes informatiques, des limites en termes de compétence, des inquiétudes réglementaires qui perdurent, sans compter la crainte de risques réputationnels qui viennent renforcer une méfiance encore forte. En résulte une certaine frilosité de la part des dirigeants exécutifs et financiers.
Pourtant, la prise en main de l’IA progresse, et il est difficile de nier le fait qu’au sein des organisations, des usages se développent, suivant bien souvent une logique bottom-up. En France, même si elle demeure basse, la part des Français déclarant utiliser l’IA dans un cadre professionnel est ainsi en forte hausse (passant de 12 % en 2023 à 22 % en 2024, d’après l’édition 2025 du Baromètre du numérique). Un développement des pratiques parfois désorganisé, qui témoigne de l'écart grandissant entre les craintes des entreprises et la rapidité d'adoption de ces outils par les salariés.
Ces usages sont ainsi souvent le fait de pratiques hors cadre : c’est le phénomène du Shadow AI (ou IA de l’ombre), qui fait référence à l'utilisation non encadrée d’outils d’IA dans un cadre professionnel, du fait de l’interdiction ou de l’absence d’outils proposés par l’employeur, mais également de la qualité ou de l’ergonomie réduite d’outils internes par rapport à des solutions externes. Une étude conduite par l’Université de Melbourne indique ainsi que 70 % des employés utilisant l’IA au travail se servent d’outils gratuits et publics, alors que seulement 42 % utilisent des solutions proposées par leurs employeurs (47 % d’entre eux indiquant d’ailleurs utiliser l’IA de manières qui pourraient être considérées comme inappropriées). Si ces pratiques témoignent d’un réel intérêt de la part des employés, et mettent en lumière les tâches les plus facilement automatisables, elles peuvent également être sources de failles de sécurité ou de fuites de données, et justifient d’autant plus le besoin d’intégrer l’IA dans une réflexion d’ensemble.
D’autres interrogations demeurent sur les effets de l’introduction d’outils d’IA sur les inégalités de performances au sein même des équipes, là encore, sans que la question ne semble faire consensus : quand une étude du groupe Nielsen-Norman indiquait en 2023 que ces outils étaient porteurs d’une réduction des écarts de productivité entre les employés, un article de The Economist affirme en 2025 que “l’IA va séparer les meilleurs du reste”, en particulier pour les tâches complexes telles que la recherche ou le management, domaines dans lesquels les inégalités de performance se verraient décuplées par l’IA.
Cette médiatisation à outrance de l’automatisation du travail et de gains de performance impressionnants finit naturellement par influencer la perception des outils d’IA par les salariés des organisations, et par accroître la méfiance de ces derniers. Une enquête Odoxa publiée en 2024 indique ainsi que 44 % des salariées craignent de voir leur métier remplacé par un robot ou une IA, et le projet DIAL-IA ne manque pas de rappeler que ces inquiétudes appellent à un regain de dialogue social, mobilisant l’ensemble des parties prenantes, pour comprendre les pratiques, objectiver les usages, déterminer les besoins d’accompagnement, et construire des lignes claires et des gardes-fous au bénéfice à chacun.
L’introduction de l’IA generative au sein d’une organisation implique de mettre en place une réflexion holistique, qui consiste notamment à repenser la segmentation des tâches et la nature des métiers, la formation et la collaboration entre les différentes équipes, l’architecture des systèmes d’information et la capacité à produire et structurer de la donnée de qualité. De manière plus globale, elle provoque également des débats sur la répartition de la valeur créée ou la recomposition du temps de travail… Pour ces raisons, elle ne peut demeurer un impensé et nécessite l’engagement d’une réflexion organisationnelle.
Une réflexion qui porte donc dans un premier temps sur la nature du travail : ce ne sont pas les métiers qui sont automatisés, mais bien les tâches qui les composent (et certainement pas l’ensemble de ces dernières) ; l’étude Nielsen-Norman précédemment mentionnée évoque ainsi les professionnels de l’UX design, qui pourraient voir automatisées certaines tâches comme l’analyse de questionnaires, alors que d’autres, comme l’observation de terrain, conservent un fort facteur humain. Cette nuance, qui acte bien une logique de transformation et une redéfinition du périmètre de certains métiers plutôt que leur “remplacement”, implique nécessairement un travail collectif pour identifier les marges d’évolution, au sein de chaque métier, services, et plus globalement au sein de l’organisation.
La question de la valorisation du temps potentiellement dégagé devient alors centrale, ce dernier pouvant être mobilisé pour augmenter les volumes de production (alors que des alertes sont soulevées sur les risques d’en demander toujours plus, dans un contexte, s’agissant des entreprises, de compétition globale, et lorsqu’elles sont cotées, d’attentes des actionnaires sur les gains de productivité générés par l’IA), ou vers l’amélioration de la qualité du travail produit (qui peut aller de pair avec une intensification du travail à haute valeur intellectuelle, mais qui nécessite une vigilance accrue sur les risques d’épuisement cognitif). Au-delà de ces deux directions évidentes, les pistes de réallocation du temps dégagé sont foule : consolidation de la relation aux clients, stimulation de la collaboration et du lien entre les équipes, créativité, réorientation vers des actions de formation individuelle ou investissement dans le partage de connaissances par les pairs… Un juste équilibre est évidemment à trouver, mais il est évident que si ces sujets demeurent impensés lors du déploiement d’outils d’IA, ils deviendront source de tension lorsque les gains commenceront à se manifester.
La formation est évidemment un élément essentiel de cette stratégie globale, et ce alors qu’une étude du BCG publiée en janvier 2024 relevait que seulement 6% des entreprises étaient parvenues à former plus de 25 % de leurs effectifs, et que l’étude d’Odoxa précédemment mentionnée sur l’IA au travail établissait que plus de la moitié des salariés souhaiteraient personnellement y être formés. Une formation non seulement utile pour assurer une bonne prise en main des outils, et leur exploitation au meilleur de leurs capacités, mais également pour apporter des réponses aux inquiétudes, notamment en matière de remplacement, et pour s’assurer que les usages se tiennent dans un cadre sécurisé et respectueux des obligations réglementaires des entreprises.
Les limites techniques et technologiques demandent également un travail de long terme. D’une part, le fait de ne pas disposer de données de qualité demeure bien souvent un frein à l’appropriation de l’IA à sa pleine capacité au sein d’une organisation, et des chantiers sont donc à ouvrir sur la structuration de bases de données de qualité, ainsi que sur la littératie des agents à ce sujet. D’autre part, la résorption de la dette technologique accumulée par certaines organisations dont les systèmes d’information demeurent vétustes est un investissement coûteux, mais difficilement dispensable, au-delà même de l’IA. Là encore, la levée de ces freins ne se décrète pas, elle se planifie.
L’engagement de ces réflexions nécessite donc d’accepter un état de fait : si des gains de moyen et long terme sont à attendre de l’adoption de l’IA au sein des organisations (et s’il semble évident que celles qui manqueront ce coche auront du mal à rattraper leur retard d’ici quelques années), il est fort probable que ces gains ne se manifestent pas à court terme, d’autant plus qu’un certain investissement (financier, humain, intellectuel) est indispensable à ce bon déploiement.
La nature même de ce chantier, sa transversalité et sa propension à modifier profondément le fonctionnement des organisations, implique de le mener collectivement, en en faisant le lieu d’un dialogue avec les partenaires sociaux, afin que le déploiement de l’IA au sein de l’organisation soit le plus juste et le plus fluide possible, et que les gains individuels se transforment en création de valeur collective.