.jpg)
Temps forts de la table ronde “Data & AI Culture” d’AXA France
Le 24 septembre, AXA France a présenté sa Charte Data & IA responsable, portée par Estelle Guyon-Abinal et Chafika Chettaoui, lors d’une table ronde “Data & AI Culture” réunissant Éric Salobir (président de HTF), Nathalie Beslay (CEO, Naaia) et Nozha Boujemaa (Global VP IT Innovation & Trust, Decathlon). L’échange a montré à quel point la confiance ne se décrète pas : elle se construit dans les usages, la gouvernance et le temps long.
Adopter l’IA, c’est d’abord ancrer la confiance dans des usages concrets et auditables
Au-delà du cadre posé par l’AI Act, les intervenants ont insisté sur la nécessité d’une gouvernance interne solide : comités, référents, audits, inventaires tout au long du cycle produit, mais aussi une responsabilité clairement partagée entre métiers, équipes tech et achats. À la clé : plus de traçabilité, une meilleure qualité des systèmes et une transparence accrue pour les collaborateurs comme pour les clients.
« Augmenter la confiance, c’est d’abord diminuer l’anxiété : rendre l’IA fiable, traçable, compréhensible », résume Éric Salobir. « Avec les futurs systèmes multi-agents, fixons des règles claires pour que l’assistant soit bien celui de chaque personne, pas seulement celui de l’entreprise. »
Autre levier majeur : l’acculturation de bout en bout, couplée à des choix technologiques frugaux. Même si la dimension environnementale n’entre pas directement dans le périmètre de l’AI Act, des feuilles de route plus sobres restent possibles et nécessaires.
Les cas d’usage avancés présentés, comme les moteurs de recherche et assistants contextuels auditables, sans données personnelles, illustrent comment innovation et confiance peuvent se renforcer mutuellement. Un enjeu clé, alors que 42 % des salariés redoutent encore l’impact de l’IA sur l’emploi.
On retiendra :