Twitter, Human Technology FoundationLinkedIn, Human Technology Foundation
Règlement sur l'IA : cinq points clés pour naviguer dans la réglementation de l'IA en Europe

Karin Tafur se consacre à l'avancement des pratiques responsables en matière d'IA, en fournissant des conseils juridiques et éthiques, en mettant l'accent sur l'évaluation des risques au sein de l'Innovation/Portfolio Lab de la Banque interaméricaine de développement (États-Unis). En outre, Tafur est une experte qui assiste le "Conseil européen de la recherche" sur les examens éthiques, en particulier dans le domaine de l'IA, pour les programmes Horizon Europe (Europe). Affiliée à l'ISLC de Milan (Italie), à Z-Inspection® (Europe) et ayant enseigné à l'EM Lyon Business School (France), son expertise s'étend à diverses applications commerciales. En outre, Karin Tafur donne des conférences sur l'éthique et la gouvernance, avec un accent particulier sur la réglementation européenne en matière d'IA, dans des institutions prestigieuses telles que l'IA Institut by Epita & ISG (France). Elle est une auteure active dans le domaine de l'édition, ses travaux sur l'IA ayant été publiés dans des revues scientifiques et non scientifiques en Europe et au Royaume-Uni.

Enfin, Mme Tafur dispense également des formations sur l'IA aux entreprises et aux startups, en mettant l'accent sur la conformité à la loi sur l'IA et en promouvant la culture de l'IA (pour les fournisseurs et les déployeurs en Europe).

 

En mars, la loi sur l'IA a été officiellement approuvée en Europe. Qui doit se conformer à cette réglementation et celle-ci s'étend-elle au-delà de l'Europe ?

 

La loi européenne sur l'IA s'applique à toutes les entreprises, qu'il s'agisse de fournisseurs, de déployeurs, d'importateurs, de distributeurs ou de toute autre partie concernée. Peu importe où ces entreprises sont basées, si elles mettent sur le marché ou mettent en service des systèmes d'IA ou des modèles d'IA à usage général au sein de l'Union européenne, elles sont soumises à cette réglementation. Ce règlement ne s'arrête pas aux frontières de l'Europe, il s'étend au-delà.

 

Quelles sont les principales exigences de la loi européenne sur l'IA qui ont un impact sur les activités des entreprises, et comment ces dernières peuvent-elles s'assurer qu'elles sont conformes à ces mandats ?

 

En ce qui concerne la conformité, l'un des aspects cruciaux est de comprendre comment les systèmes d'IA sont classés en vertu de la loi. Il existe quatre catégories("risque inacceptable", "risque élevé", "risque limité" et "risque minimal"). La classification d'un système détermine le niveau de conformité nécessaire, en fonction de la place qu'il occupe dans ces catégories.

Il s'agit en quelque sorte d'une échelle mobile : certains systèmes peuvent avoir plus d'obligations à respecter, tandis que d'autres peuvent en avoir moins. Dans certains cas, il peut même être interdit d'utiliser ou de vendre certains systèmes d'IA sur le marché européen. Il convient de noter que même les systèmes précédemment considérés comme présentant un "risque minimal", qui ne nécessitaient aucune obligation, sont désormais soumis à des obligations en raison des dernières mises à jour de la réglementation. En l'occurrence, la loi sur l'IA exige des fournisseurs et des utilisateurs de systèmes d'IA qu'ils veillent à ce que leur personnel et les autres personnes impliquées dans l'utilisation de l'IA soient bien informés sur le fonctionnement de l'IA.

Parlons maintenant des types de systèmes que la plupart des entreprises peuvent utiliser. Nombre d'entre eux peuvent être classés dans les catégories "risque élevé" ou "risque limité".

 

Les systèmes"à haut risque", tels que l'évaluation de l'éligibilité au crédit, à l'assurance maladie ou à l'assurance vie ou aux prestations publiques, l'analyse des demandes d'emploi ou l'évaluation des candidats, les composants de sécurité des produits, entre autres, sont assortis d'obligations tant pour les développeurs que pour les entreprises qui les utilisent. Il est essentiel que ces systèmes effectuent des évaluations de conformité approfondies, garantissent la transparence de leurs opérations d'IA et mettent en œuvre une surveillance humaine efficace, entre autres mesures. Dans la catégorie "risque limité", nous trouvons les Chatbots, les systèmes de reconnaissance des émotions et de catégorisation biométrique, qui doivent adhérer à des obligations de transparence. Cependant, certains systèmes ou modèles d'IA, bien qu'ils ne soient pas classés comme étant à haut risque, comportent toujours des risques tels que l'usurpation d'identité ou la tromperie. Prenons par exemple les systèmes d'IA générative tels que le GPT-4 d'OpenAI et le Gemini de Google, classés dans la catégorie de l'IA à usage général (GPAI) par la loi sur l'IA. Les développeurs de ces systèmes doivent fournir une documentation technique à l'Office de l'IA de la Commission européenne et aux régulateurs nationaux. En outre, si un modèle GPAI est très puissant, il peut présenter un risque systémique, ce qui oblige le développeur à atténuer les risques. Il existe une exception pour les modèles GPAI entièrement libres, tels que le lama de Meta, à moins qu'ils ne soient exceptionnellement puissants.

 

Sur la base des détails discutés, quelles mesures les entreprises devraient-elles envisager pour s'assurer qu'elles se conforment à la loi européenne sur l'IA, en particulier en ce qui concerne les systèmes d'IA à haut risque ?

 

Sur la base dece qui précède, les entreprises doivent être proactives pour assurer la conformité avec la loi européenne sur l'IA, en particulier lorsqu'il s'agit de systèmes d'IA à haut risque. Cela signifie qu'elles doivent mettre en œuvre de solides processus de gestion des risques, réaliser des évaluations d'impact approfondies et documenter méticuleusement leurs efforts de mise en conformité. La transparence et la responsabilité sont essentielles à cet égard, car elles permettent d'expliquer clairement les décisions prises par l'IA et contribuent à prévenir les préjugés et la discrimination. Il est essentiel pour les entreprises d'établir des procédures claires et d'allouer des ressources de manière efficace pour répondre à ces exigences réglementaires. Ainsi, en mettant en place des procédures internes solides et en conservant des dossiers complets, les entreprises peuvent s'assurer qu'elles respectent les règles et éviter toute sanction potentielle. Il s'agit avant tout d'être proactif et de rester organisé.

 

Quelles sont les conséquences potentielles du non-respect de la loi européenne sur l'IA, tant en termes de sanctions financières que d'atteinte à la réputation, d'après la loi sur l'IA et votre expérience ?

 

En fait, le non-respect de la loi européenne sur l'IA comporte des risques importants pour les entreprises, notamment des amendes élevées et une atteinte à leur réputation. Les autorités réglementaires sont habilitées à imposer des sanctions équivalant à un pourcentage du chiffre d'affaires annuel d'une entreprise en cas d'infraction. Par exemple, la violation des interdictions énoncées à l'article 5, connues sous le nom de "pratiques interdites en matière d'IA", peut entraîner des amendes administratives considérables, pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial total d'une entreprise, selon le montant le plus élevé. De même, les infractions liées aux obligations des opérateurs peuvent entraîner des amendes allant jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires annuel mondial total de l'entreprise. En outre, les conséquences vont au-delà des sanctions pécuniaires. Par exemple, l'entreprise qui ne respecte pas les règles risque devoir sa marque considérablement endommagée, d'être confrontée à des actions en justice potentielles et d'être surveillée par l'opinion publique. Cela peut enfin de compte éroder la confiance des consommateurs et des parties prenantes, ce qui rend encore plus difficile pour l'entreprise de maintenir sa position concurrentielle sur le marché.

 

De votre point de vue, comment les entreprises peuvent-elles tirer parti de la loi européenne sur l'IA pour renforcer la confiance des consommateurs et des parties prenantes dans le domaine de l'IA ?

 

Je comprends que le respect de la loi sur l'IA puisse être difficile, en particulier pour les entreprises qui développent et utilisent des systèmes d'IA à haut risque. Toutefois, la loi européenne sur l'IA offre aux entreprises la possibilité de montrer leur engagement en faveur d'un développement éthique et fiable de l'IA, ce qui, à son tour, contribue à renforcer la confiance des consommateurs et des parties prenantes. En adhérant de manière proactive aux dispositions de la loi, les entreprises peuvent se positionner en tant que leaders en matière de pratiques d'IA éthiques et renforcer leur réputation sur le marché. La transparence, la responsabilité et un engagement fort en faveur des principes éthiques sont essentiels pour instaurer la confiance dans les technologies de l'IA. Par conséquent, les entreprises qui accordent la priorité à ces valeurs peuvent bénéficier de la loi européenne sur l'IA. En suivant ses lignes directrices, elles améliorent non seulement leur réputation, mais nouent également des relations plus solides avec les consommateurs et les parties prenantes.

 

Human Technology Foundation, 29 mars 2024

 

Pour aller plus loin

Règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’union, COM(2021) 206 final,2021/0106(COD), 21 Avril 2024. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206

Olivier Laborde. AI Act :Ce que doivent faire les entreprises. Harvard Business Review, 22 mars 2024. https://www.hbrfrance.fr/innovation/ai-act-ce-que-doivent-faire-les-entreprises-60494

Mathilde Rochefort. L’AI Act sera-t-il un frein à l’innovation européenne ? Siècle Digital, 13 mars 2024. https://siecledigital.fr/2024/03/13/lai-act-sera-t-il-un-frein-a-linnovation-europeenne/

Fabrice Deblock. AI Act : le début d’une nouvelle ère. In Cyber News, 19 février 2024. https://incyber.org/article/ai-act-le-debut-dune-nouvelle-ere/

Articles associés