Au cours des dernières décennies, l’intelligence artificielle générative (IAG) et les nouvelles technologies numériques ont connu une expansion fulgurante, redéfinissant profondément la gestion des entreprises et le développement de leurs activités. Les grandes organisations ont adopté des solutions technologiques avancées, regroupées sous le terme « CorpTech », qui incluent l’informatique en nuage (cloud computing), les technologies de registres distribués (DLT) comme la blockchain et les contrats intelligents (smart contracts).
Ces outils technologiques optimisent sans aucun doute les processus internes, renforcent la sécurité et la transparence, tout en favorisant l’innovation et la création de nouveaux modèles économiques.
- Cloud compunting : Pendant la pandémie de Covid-19, cette technologie a permis aux conseils d’administration de tenir des réunions à distance et d’organiser des assemblées générales (AG) virtuelles, garantissant la continuité des activités dans un contexte de restrictions physiques.
- DLT et blockchain : Ce sont des technologies qui accélèrent et sécurisent les communications entre les organes et les fonctions de l’entreprise, améliorant la fiabilité, la traçabilité et la qualité des données échangées.
- Smart contracts : En automatisant les processus contractuels, ils réduisent les coûts, minimisent les erreurs et garantissent une exécution transparente et sécurisée.
Les CorpTech permettent aux entreprises de gagner en efficacité, de renforcer leur résilience et de s’adapter à un environnement économique en constante évolution.
L’intelligence artificielle générative (IAG), souvent incluse dans la catégorie des CorpTech, se distingue par ses capacités avancées d’auto-apprentissage et son potentiel d’autonomie. Contrairement aux autres technologies CorpTech, elle peut interagir de manière proactive et naturelle avec son environnement, même en l’absence de supervision humaine. Elle permet de collecter et de synthétiser de vastes ensembles de données (big data), de réaliser des analyses prédictives pour anticiper les tendances, de personnaliser à grande échelle l’expérience client et de générer divers contenus, tels que des textes, des images, des sons ou du code informatique.
L’autonomie de l’IAG soulève cependant des questions éthiques, juridiques et opérationnelles complexes. Sans une réglementation adéquate, l’IAG risque d’échapper au contrôle humain, rendant nécessaire une gouvernance rigoureuse axée sur : la sécurité et la protection des données, le respect des droits humains et des libertés fondamentales, ainsi que la réduction de l’impact environnemental.
Les conseils d’administration comprennent le potentiel transformateur et révolutionnaire de l’intelligence artificielle (IA) et évaluent déjà comment l’intégrer dans leurs organisations. Ils analysent son impact sur la compétitivité, les investissements requis, les besoins de formation, l’élaboration de politiques et de lignes directrices éthiques pour l’utilisation de l’IA, ainsi que les risques potentiels pour la réputation et l’image de l’entreprise.
Cependant, bien que l’exploration de la manière dont l’IA peut transformer le fonctionnement même des conseils d’administration soit encore à ses débuts et peu approfondie, son impact est évident. L’intégration de l’IAG dans ces contextes va au-delà d’une simple optimisation des processus : elle pose des questions juridiques fondamentales sur la redéfinition des normes et des principes de gouvernance, ainsi que sur les rôles et les responsabilités des administrateurs.
Comment évolueront le droit des sociétés et les codes de gouvernance pour s’adapter à l’intégration de l’IA ? Comment préserver une distinction claire entre les prérogatives du conseil et celles de la direction ? Ces questions exigent une réflexion approfondie pour prévenir tout déséquilibre dans la gouvernance. Elles ne représentent qu’une partie des problématiques essentielles que les conseils d’administration doivent affronter dans le contexte de l’intégration de l’IA.
Droit des sociétés et gouvernance d’entreprise face à l’IA
L’intelligence artificielle générative (IAG) est au cœur d’une révolution technologique qui pourrait bouleverser profondément l’organisation et le fonctionnement des entreprises, offrant des opportunités uniques, notamment dans le domaine de l’analyse stratégique, de la prise de décision basée sur les données, de l’optimisation de la gouvernance et de la gestion des risques.
Actuellement, il n’existe pas de réglementation spécifique, ni au niveau national ni européen, qui régisse l’utilisation de l’IAG au sein des conseils d’administration. L’absence d’un cadre juridique défini soulève des questions, notamment en matière de responsabilité des administrateurs et de gestion des risques liés à une adoption non contrôlée de l’IA.
En 2020, la Commission européenne a publié une étude intitulée « Impact de l’intelligence artificielle sur le droit des sociétés et la gouvernance d’entreprise », qui examine les pratiques adoptées par les entreprises européennes dans l’intégration de l’IA, soulignant les opportunités offertes, telles que l’automatisation des processus décisionnels, l’analyse prédictive et l’amélioration de la transparence.
La Commission a choisi de ne pas introduire, pour le moment, un cadre réglementaire spécifique pour définir les devoirs et les responsabilités des administrateurs en matière d’IA. Cette décision est motivée par le fait qu’il existe encore de nombreuses incertitudes liées aux capacités, aux limites et aux implications éthiques de l’IA, qui continue d’évoluer rapidement.
Un autre obstacle significatif réside dans le manque de compétences spécialisées et d’expertise des administrateurs pour comprendre pleinement les questions techniques, juridiques et éthiques liées au développement de l’IA. Cette lacune peut compromettre leur capacité à évaluer les risques – comme les biais algorithmiques ou les vulnérabilités de cybersécurité – et à superviser efficacement l’intégration de ces outils, en garantissant leur alignement avec les objectifs stratégiques de l’entreprise.
L’absence actuelle de réglementation ne doit cependant pas être interprétée comme une invitation à l’inaction. Comme l’a souligné la Commission européenne, les entreprises européennes ont un rôle clé à jouer dans ce domaine. Elles ont la responsabilité – en fonction de leur taille, de leur secteur d’activité, de leur modèle économique et de leurs besoins opérationnels – de promouvoir la réflexion sur l’éthique et les aspects principaux liés à l’intégration de l’IA, et de développer des cadres volontaires et des solutions basées sur l’autorégulation.
L’adoption de lignes directrices internes vise à réglementer l’utilisation de l’IA en se concentrant sur trois piliers principaux : la transparence, la responsabilité et le respect des normes éthiques. Une telle approche proactive non seulement limite les risques, mais positionne également les entreprises comme des acteurs de référence pour promouvoir une gouvernance responsable de l’IA.
À l’échelle européenne, plusieurs pays ont déjà commencé à modifier leurs codes de gouvernance d’entreprise pour aborder ces questions. Parmi les initiatives nationales les plus intéressantes, on peut citer :
- Le Code néerlandais de gouvernance d’entreprise (« The Dutch Corporate Governance Code ») : mis à jour en mars 2025, le Code souligne, dans son premier chapitre dédié à la création de valeur durable à long terme, que : « La création de valeur durable à long terme exige également une prise de conscience et une anticipation des développements des nouvelles technologies et de l’évolution des modèles économiques, ainsi que des risques associés, y compris la cybersécurité, la dépendance aux fournisseurs et à la chaîne de valeur, la protection des données et l’application éthique des nouvelles technologies (par exemple, l’IA) ». Le Code encourage le comité d’audit à surveiller les risques liés à l’intégration des technologies numériques, y compris l’IA, et ceux associés à la cybersécurité. Il souligne la nécessité pour les administrateurs de posséder les compétences adéquates pour reconnaître les opportunités et les risques liés à l’utilisation de ces technologies numériques, permettant ainsi au conseil d’administration d’exercer efficacement ses fonctions de supervision et de contrôle.
- Le Code belge de gouvernance d’entreprise pour les sociétés cotées de 2020 : il se limite à reconnaître les nouvelles technologies comme un outil efficace pour améliorer les relations entre les administrateurs et les parties prenantes.
- Le Code « Buysse » de gouvernance d’entreprise pour les sociétés non cotées en Belgique adopte, en revanche, une approche plus innovante. Le Code, mis à jour en 2024, identifie au chapitre 2, intitulé « Les meilleures pratiques », les thèmes d’intérêt spécifique et souligne que : « la digitalisation et l’intelligence artificielle sont une réalité également dans le monde des affaires. Les acteurs de la gouvernance d’entreprise doivent rester bien informés et prendre les mesures appropriées à cet égard. Ils le font dans l’optique de la continuité de l’entreprise et donc à la lumière des opportunités et de la croissance, mais aussi dans le cadre de la gestion des risques, de la conformité réglementaire et du respect des normes éthiques ». Le conseil d’administration a la responsabilité de prendre des décisions sur des questions stratégiques importantes, qui incluent : « la définition des lignes directrices en matière de ressources humaines, de digitalisation et d’intelligence artificielle (y compris la gestion des données et la cybersécurité), de production, d’approvisionnement, de financement, de ventes et de marketing ». En conséquence, les administrateurs sont encouragés à mettre à jour leurs connaissances et compétences et à se tenir informés : « sur des thèmes pertinents pour l’exercice de leur mandat, tels que la durabilité et la digitalisation (y compris la cybersécurité) » pour garantir la continuité et la croissance de l’entreprise.
- Le Code espagnol de gouvernance d’entreprise de 2020 : il intègre explicitement les risques technologiques dans le cadre du système de contrôle interne, soulignant la nécessité d’une supervision renforcée.
- Les Codes de gouvernance d’entreprise en France (le Code Afep-Medef de 2022) et en Italie (Code de gouvernance d’entreprise de 2020) ne mentionnent pas explicitement l’IA ou la transition numérique. Ils se limitent à fixer des principes généraux en matière de durabilité, qui incluent implicitement l’intégration de l’IA et des nouvelles technologies. L’implémentation de ces technologies est en effet considérée comme un levier stratégique nécessaire pour définir et organiser une gouvernance responsable, résiliente et durable, alignée sur les critères ESG (environnementaux, sociaux et de gouvernance).
À l’échelle internationale, les principes de gouvernance d’entreprise de l’OCDE, révisés en 2023, soulignent que les nouvelles technologies et l’IA peuvent être des outils efficaces pour renforcer le dialogue avec les actionnaires et les parties prenantes, et pour évaluer adéquatement les risques de cybersécurité.
En l’absence d’un cadre réglementaire spécifique sur la gouvernance d’entreprise, les organisations et leurs organes de gouvernance doivent s’adapter et développer des politiques, des bonnes pratiques et des principes sur mesure pour exploiter le potentiel de l’intelligence artificielle (IA), tout en garantissant le respect de normes éthiques et juridiques rigoureuses.
IA et questions de gouvernance d’entreprise
Comme mentionné, l’IA ouvre de nouvelles perspectives qui remettent en question le fonctionnement des organisations, leur capacité à générer de la valeur et leurs interactions avec les parties prenantes. Au-delà de son impact sur les processus opérationnels, l’IA redéfinit les dynamiques de pouvoir, y compris les relations avec la direction et les interactions au sein des conseils d’administration.
L’IA a le potentiel d’être effectivement utilisée par les conseils d’administration à trois niveaux distincts : comme support aux administrateurs (via l’analyse en temps réel de données stratégiques), comme outil pour enrichir les débats lors des réunions du conseil (via l’utilisation d’analyses prédictives ou de recommandations) et, potentiellement, comme substitut de certaines figures décisionnelles (en réduisant ainsi la chaîne de pouvoir). Actuellement, cependant, l’IA joue principalement un rôle de support dans les processus décisionnels.
Les applications de l’IA – un terme qui englobe un large éventail de technologies, dont l’IAG est la composante la plus récente et médiatisée – vont de l’automatisation simple à la prédiction complexe. Ces technologies permettent aux entreprises d’optimiser les choix stratégiques, tels que l’allocation de capital, les investissements en recherche et développement (R&D) ou le recrutement de talents.
De plus, l’utilisation de ces outils permet d’identifier des choix potentiellement inappropriés ou non optimaux, de surveiller les opérations financières et de détecter des comportements frauduleux ou non conformes aux réglementations en vigueur, grâce à la capacité de l’IA à effectuer des analyses comparatives historiques ou sectorielles.
La supervision en temps réel permet de prévenir les risques associés à l’IA et de se protéger contre des conséquences juridiques, d’image et de réputation potentielles, en promouvant la responsabilité des différentes fonctions de l’entreprise et en favorisant le partage d’objectifs communs. Cette approche garantit que le développement de l’IA ne se fasse pas comme une entité autonome et incontrôlée, mais comme un moteur de croissance durable. Cela renforce la transparence et la confiance des actionnaires, des investisseurs et du marché, dans un contexte où les consommateurs, de plus en plus conscients, exigent des normes élevées de responsabilité sociale.
Les conseils d’administration sont donc appelés à intégrer l’intelligence artificielle générative (IAG), en assumant pleinement leurs responsabilités éthiques et stratégiques. Le défi est complexe : les conseils doivent se doter des ressources nécessaires pour y faire face, acquérir des compétences de base sur l’IAG, comprendre toutes les facettes de son déploiement, définir une stratégie à long terme pour l’IA qui maximise les bénéfices, minimise les risques et préserve la confiance des parties prenantes, tout en adoptant une structure de gouvernance adaptée à ces défis.
Impacts de l’IA sur la gouvernance d’entreprise
L’implication du conseil d’administration dans l’adoption de l’intelligence artificielle générative (IAG) dans la gouvernance d’entreprise varie en fonction du niveau d’ouverture, de maturité et de capacité du conseil à concilier innovation et stabilité.
Il est clair, cependant, que c’est au conseil qui revient la charge de guider cette transformation, en valorisant le potentiel de l’IAG pour optimiser les activités de gestion, renforcer le rôle stratégique et de supervision du conseil, améliorer la gestion des risques et des données sensibles, et redéfinir les devoirs et responsabilités des administrateurs.
Optimisation de la gestion et questions juridiques
La gouvernance d’entreprise repose sur une séparation nette entre la gestion et le contrôle. La direction gère les opérations quotidiennes, tandis que le conseil d’administration supervise ces activités pour garantir leur alignement avec les intérêts des actionnaires et des parties prenantes. La division des pouvoirs vise à favoriser des décisions équilibrées et à renforcer la responsabilité au sein de l’organisation.
Cependant, l’absence de participation du conseil à la gestion quotidienne entraîne un risque d’asymétrie d’information entre les connaissances détenues par la direction et les informations transmises aux administrateurs. Pour exercer une supervision stratégique efficace, le conseil a besoin de données fiables et de qualité. Dans certains cas, cette asymétrie peut devenir significative.
L’intégration de l’intelligence artificielle (IA) peut réduire ce problème, en améliorant la communication entre la direction et le conseil. Des informations précises sur la réalité économique et financière, les tendances, les performances et les besoins de l’entreprise contribuent à minimiser les risques d’asymétrie d’information.
L’intégration de l’IA soulève cependant d’autres questions juridiques, en particulier dans le domaine de la délégation de pouvoirs et de la responsabilité de la direction dans le choix entre différentes typologies d’IA. Les réglementations en vigueur établissent que le conseil d’administration nomme le directeur général pour gérer l’entreprise dans l’intérêt des actionnaires. La délégation de pouvoirs concerne les actes de gestion ordinaire, représentant un outil de gestion qui permet de faciliter les décisions et de distinguer entre administrateurs exécutifs et non exécutifs.
Lorsque l’IA devient un outil de gestion, la question se pose de savoir si certaines activités peuvent être déléguées ou non à des systèmes automatisés, modifiant les responsabilités des dirigeants, en particulier en cas d’erreurs ou de biais algorithmiques. Actuellement, dans des pays comme la France et l’Italie, la législation limite la délégation de pouvoirs aux seules personnes physiques, qui sont les seules responsables des dommages causés par leurs décisions.
Le rôle de la direction générale est de promouvoir une expérimentation contrôlée de l’IA. Consciente des risques et des questions éthiques, la direction doit choisir des outils d’IA fiables, alignés sur les objectifs stratégiques de l’entreprise et conformes aux normes éthiques et réglementaires (comme le RGPD ou l’IA Act). Elle doit également garantir que les principales mesures adoptées tout au long du cycle de vie de l’IA soient bien documentées pour assurer la transparence, la sécurité et la traçabilité des systèmes intégrés.
Cela nécessite des compétences adéquates en matière d’IA, une collaboration étroite avec les équipes numériques (développeurs d’IA, data scientists, analystes de données, etc.) et une allocation stratégique des ressources humaines et financières. De plus, la direction doit anticiper les évolutions technologiques pour adapter ces outils aux besoins futurs de l’entreprise, tout en cherchant à minimiser les risques liés à la cybersécurité et aux biais algorithmiques.
L’IA révolutionne également l’organisation et les méthodes de travail des directions rattachées à la direction générale (ressources humaines, finance, juridique, marketing, commercial, industriel et développement), en automatisant des processus complexes et en optimisant l’analyse des données dans leurs domaines respectifs.
Il est évident que l’adoption de l’IA nécessite l’engagement direct et effectif de la direction générale, qui doit établir une charte éthique pour encadrer son utilisation. La direction doit démontrer, par des actions concrètes, que les initiatives adoptées respectent son engagement direct et que ses déclarations sont alignées sur les principes et les valeurs de l’entreprise.
La charte éthique doit inclure des programmes de formation visant à sensibiliser les dirigeants et les collaborateurs aux biais algorithmiques, à la transparence et aux questions éthiques de l’IA. En promouvant une culture d’entreprise centrée sur l’éthique de l’IA, la direction favorise des pratiques responsables au quotidien, renforce la confiance des parties prenantes, anticipe les évolutions réglementaires et garantit une utilisation de l’IA alignée sur les valeurs de l’entreprise et les attentes de la société.
Rôle stratégique et de supervision du conseil
Certaines études suggèrent que, dans l’avenir, les conseils d’administration pourraient centraliser l’ensemble des pouvoirs, y compris la gestion quotidienne, réduisant toute dépendance vis-à-vis de la direction. D’ici là, le conseil peut déjà commencer à exploiter l’intelligence artificielle pour renforcer son processus décisionnel et son rôle de supervision stratégique.
La fonction décisionnelle du conseil d’administration consiste à valider les stratégies organisationnelles proposées par la direction, définies sur la base de ses indications. L’IA peut être utilisée par le conseil pour évaluer les plans stratégiques, industriels et financiers élaborés par la direction, en réalisant des prévisions à court et long terme, en élaborant des projections, en analysant des données économiques et financières, en examinant les tendances du marché, en détectant les faiblesses d’un nouveau produit ou en surveillant la réputation et l’image de l’entreprise.
L’IA peut soutenir le conseil d’administration en favorisant des décisions plus éclairées face à la complexité croissante et à l’évolution rapide des réalités commerciales. En offrant une perspective non émotionnelle et plus objective, ainsi qu’une analyse rapide et précise de grands volumes de données, l’IA enrichit les discussions et les échanges entre les administrateurs lors des réunions du conseil et améliore la qualité des débats.
La fonction de supervision stratégique du conseil suppose qu’il évalue la structure organisationnelle, administrative et comptable de l’entreprise, définie et mise en œuvre par la direction. L’intégration de l’IA renforce ses responsabilités de contrôle, car le conseil doit désormais garantir que:
- Les technologies intégrées dans l’organisation sont avancées, transparentes, fiables, conformes aux lois en vigueur et encadrées par des protocoles et des procédures internes clairement définis pour réguler l’utilisation de l’IA.
- Les systèmes de contrôle interne adoptés par la direction sont robustes pour atténuer les risques liés à l’IA. Ils doivent notamment garantir la qualité et l’intégrité des données, la sécurité des systèmes technologiques et la transparence des algorithmes intégrés.
- Les procédures et les politiques éthiques qui régissent l’utilisation responsable de l’IA sont alignées sur les valeurs de l’entreprise et les attentes des parties prenantes.
L’IA est donc devenue un atout stratégique important. Les conseils d’administration doivent se doter d’un organisme interne pour inclure la gouvernance de l’IA parmi leurs priorités stratégiques. La désignation d’un responsable ou d’un comité éthique sur l’IA, composé d’administrateurs indépendants ayant des compétences spécifiques en matière d’IA, est cruciale pour assurer une gestion efficace de ces technologies. Le responsable ou le comité éthique sur l’IA ont pour mission de :
- Mener des réflexions approfondies sur les questions éthiques liées à la technologie numérique et à l’IA (discrimination, libertés fondamentales, équité, droits humains…).
- Collaborer avec les fonctions de l’entreprise impliquées dans les projets d’intégration de l’IA pour évaluer les impacts, les risques et les opportunités de l’IA.
- Formuler des décisions et des recommandations pour guider le conseil dans ses choix stratégiques.
- Assurer un suivi constant pour éviter que l’utilisation non contrôlée de l’IA ne produise des solutions discriminatoires, préjudiciables à l’image et à la réputation de l’entreprise.
Pour garantir une utilisation efficace, sûre et éthique de l’IA, le responsable ou le comité éthique sur l’IA doivent être directement rattachés au plus haut niveau de la gouvernance d’entreprise (Board) et disposer d’un réel pouvoir décisionnel. Ils doivent être systématiquement consultés pour analyser les impacts éthiques, juridiques et opérationnels de cette technologie et proposer des solutions pour réduire les risques associés aux IA développées en interne ou acquises auprès de fournisseurs externes.
Le responsable ou le comité éthique sur l’IA doivent se rendre accessibles à tous et aider les dirigeants et les managers à se poser les bonnes questions. Une telle approche renforce la capacité du conseil d’administration à superviser l’intégration responsable de l’IA, tout en garantissant une prise de décision alignée sur les valeurs et les objectifs de l’entreprise.
Si le conseil d’administration ne s’est pas encore doté de dispositifs organisationnels spécifiques ou n’a pas encore défini une stratégie à long terme sur l’intelligence artificielle (IA), il peut s’appuyer sur le comité de contrôle et des risques pour évaluer les projets pilotes d’IA visant à optimiser les processus organisationnels et analyser les impacts de l’IA sur les activités de l’entreprise.
L’IA peut également être utilisée par le conseil d’administration pour surveiller, examiner et analyser les performances des administrateurs, tant au niveau individuel qu’au niveau du conseil. Les outils de support et de conseil basés sur l’IA pourront remplacer les travaux actuellement réalisés par des questionnaires, aidant les conseils d’administration à mesurer leur engagement, à évaluer comment ils allouent leur temps et se concentrent, et à déterminer s’ils sont principalement réactifs ou proactifs.
Gestion des risques et des données sensibles
Dans l’exercice de son activité de supervision stratégique, le conseil d’administration doit s’assurer que l’entreprise dispose d’un système de contrôle interne robuste, soutenu par des protocoles clairs qui définissent les politiques, les procédures et les rôles et responsabilités liées à l’utilisation et à la gouvernance de l’IA.
Ces dispositifs de contrôle sont essentiels pour identifier, gérer, évaluer et contrôler les risques associés à l’IA, afin d’atténuer les menaces potentielles, telles que les biais algorithmiques, les attaques informatiques et de cybersécurité, les violations de données, les non-conformités aux réglementations et les impacts éthiques ou sociaux.
La fonction de supervision du conseil d’administration est double : d’une part, il doit s’assurer que l’entreprise dispose de mécanismes de gouvernance robustes pour garantir une utilisation éthique et transparente de l’intelligence artificielle (IA), en conformité avec les réglementations en vigueur. D’autre part, il doit vérifier que le responsable de l’audit interne effectue des contrôles et des tests périodiques pour évaluer la fiabilité, la sécurité et les performances des systèmes d’IA, en développant des plans d’action avec des mesures correctives pour gérer les incidents critiques.
Un approche holistique basée sur le risque – et conduite sur trois lignes de défense – permet aux entreprises d’anticiper et de gérer les risques associés à l’IA, de garantir leur conformité, de renforcer leur résilience face aux changements réglementaires et de minimiser les impacts financiers et de réputation.
Dans ce scénario, les directions de la conformité et de la gestion des risques jouent un rôle central, car elles peuvent tirer parti des avantages offerts par l’IA pour renforcer la fonction de supervision du conseil d’administration et la résilience de l’entreprise.
Direction de la conformité
Dans un contexte d’évolution rapide des cadres réglementaires, la gestion de la conformité légale se présente comme une activité de plus en plus complexe. Les responsables de la conformité doivent opérer dans un environnement réglementaire dynamique, caractérisé par des exigences de plus en plus strictes en matière de protection des données, de transparence et de responsabilité.
L’adoption de systèmes d’intelligence artificielle (IA) capables d’analyser et de comprendre les contenus réglementaires et d’évaluer les risques de non-conformité facilite considérablement le travail du Compliance Officer ou de la direction conformité.
La surveillance en temps réel des obligations réglementaires permet d’identifier rapidement les violations potentielles, les anomalies ou les risques de non-conformité, d’analyser les contrats, de suivre les mises à jour réglementaires, de collecter des données et des informations, de développer et de réviser les politiques internes et de produire des rapports détaillés sur les progrès réalisés par la fonction de conformité.
L’utilisation d’outils automatisés permet à la direction conformité de déléguer des tâches répétitives et manuelles, en se concentrant sur des activités à plus forte valeur ajoutée, comme le développement de stratégies pour anticiper les changements réglementaires. Cette approche optimise non seulement le temps et les ressources, mais réduit également les coûts, rendant la gestion de la conformité légale accessible même aux organisations disposant de ressources économiques limitées, qui ne peuvent pas se permettre d’embaucher des spécialistes en conformité.
À ce jour, l’utilisation de l’IA et d’outils automatisés dans le secteur bancaire a déjà démontré d’excellents résultats, améliorant considérablement la gestion des risques de non-conformité liés à la fraude, au blanchiment d’argent et au financement du terrorisme (AML/CFT), permettant de détecter avec une plus grande précision les anomalies, les inefficacités et les dysfonctionnements.
En conclusion, l’adoption d’outils basés sur l’IA permet au Compliance Officer ou à la direction conformité d’accroître l’efficacité opérationnelle et de renforcer la capacité de l’entreprise à se conformer aux principaux exigences réglementaires et sectorielles, en particulier au Règlement sur la protection des données (RGPD) et au Règlement sur l’IA de l’Union européenne, tout en réduisant les risques juridiques et de conformité.
Le non-respect de ces réglementations peut entraîner des amendes importantes et des sanctions juridiques sévères. Une gestion rigoureuse des risques liés à l’IA permet aux entreprises de mieux se conformer aux exigences légales, d’autant plus que les réglementations en matière d’IA évoluent à un rythme presque égal à celui de la technologie elle-même.
Direction risk management
La gestion des risques est un domaine où l’IA offre des opportunités significatives pour anticiper et atténuer les menaces. Les outils d’IA, tels que les modèles d’analyse prédictive, permettent aux responsables de la gestion des risques d’identifier les risques émergents, qu’il s’agisse de vulnérabilités opérationnelles, de fluctuations économiques ou de menaces cybernétiques.
En particulier, l’IA peut être utilisée pour analyser les tendances historiques et actuelles ou pour prévoir des scénarios de risque, permettant aux entreprises de tester leurs plans de continuité, d’améliorer leur résilience face à des événements imprévus et d’élaborer des stratégies d’atténuation efficaces.
Grâce à la réalisation de tests réguliers et à une surveillance continue, la direction risk management peut évaluer les performances des systèmes d’IA tout au long de leur cycle de vie, garantissant ainsi leur fiabilité, leur transparence et leur conformité.
D’aillers, l’intégration de l’IA dans la gestion des risques peut faciliter la collaboration interfonctionnelle, en impliquant des départements tels que la conformité et la cybersécurité pour créer une approche intégrée et holistique de la gestion des risques.
Cette approche proactive contribue à réduire l’impact potentiel des risques associés à l’IA, qu’il s’agisse de défaillances de système, de biais algorithmiques ou de violations de données.
Une gouvernance efficace de l’IA dans ce domaine nécessite cependant une supervision humaine rigoureuse pour valider les recommandations des systèmes d’IA, corriger les erreurs éventuelles et éviter une dépendance excessive aux algorithmes.
Devoirs et responsabilités des administrateurs
Pour accompagner efficacement les entreprises dans l’adoption de l’intelligence artificielle (IA), les membres des conseils d’administration doivent commencer à se familiariser avec les outils d’IA et acquérir une compréhension adéquate de ces technologies, de leurs potentialités et de leurs implications.
Cela inclut une maîtrise des outils disponibles, des opportunités qu’ils offrent pour transformer les processus, optimiser la prise de décision ou créer de nouveaux modèles économiques, ainsi que des risques associés, tels que les biais algorithmiques, les menaces cybernétiques ou les impacts sur la réputation. Cette compétence permet aux administrateurs d’aligner les initiatives d’IA sur la stratégie globale de l’entreprise et sur ses objectifs à long terme.
Face à l’évolution rapide des technologies d’IA et au renforcement des cadres réglementaires, comme le Règlement sur l’IA de l’Union européenne, les administrateurs doivent adopter une approche d’apprentissage continu. Participer à des groupes de travail sectoriels, suivre des formations spécialisées, collaborer avec des experts externes (technologues, développeurs d’IA, data scientists, analystes de données, juristes spécialisés, experts en éthique) ou s’appuyer sur des rapports d’analyse sectorielle sont des moyens concrets pour rester informés des progrès technologiques, des évolutions juridiques et des meilleures pratiques.
Ces initiatives permettent également d’anticiper les impacts éthiques, sociaux, environnementaux et de gouvernance (ESG) de l’IA, tout en renforçant la diversité des compétences et des perspectives au sein du conseil.
Les administrateurs, en particulier ceux indépendants, jouent un rôle essentiel en incitant les dirigeants à explorer les opportunités de l’IA dans leurs secteurs d’activité. Ils doivent encourager une approche pragmatique, comme la méthode « test & learn », qui consiste à expérimenter – en tenant compte de la taille, de l’organisation et de la nature des activités de l’entreprise – des solutions d’IA à petite échelle dans des environnements contrôlés, à évaluer les résultats et à adapter les stratégies en conséquence.
Cette approche favorise une adoption progressive de l’IA, réduit les risques et soutient la création d’une culture d’innovation au sein de l’entreprise. De plus, les administrateurs peuvent promouvoir l’intégration de l’IA dans des domaines spécifiques, comme l’optimisation des chaînes d’approvisionnement, l’amélioration de l’expérience client ou la personnalisation des services, tout en garantissant que ces initiatives soient alignées sur les valeurs et les priorités de l’organisation.
En fonction du type d’IA adopté et de son niveau de risque, tel que défini par le Règlement européen sur l’IA (IA à haut risque, à risque limité ou à risque minimal ou nul), les responsabilités des administrateurs varient. Les applications d’IA à haut risque, comme celles utilisées dans les systèmes de recrutement automatisé ou dans les infrastructures critiques, nécessitent une compétence approfondie, une supervision rigoureuse et la mise en place de cadres robustes pour garantir la conformité réglementaire, la gestion des risques et la réalisation d’audits réguliers.
Les administrateurs doivent également garantir l’établissement de politiques internes claires pour la transparence, la traçabilité et la responsabilité des systèmes d’IA, en intégrant des mécanismes de contrôle pour prévenir les dérives potentielles, telles que les violations de données ou les discriminations involontaires. Pour les IA à risque limité ou minimal, une gouvernance plus légère peut suffire, mais une vigilance reste nécessaire pour garantir l’alignement avec les objectifs stratégiques et éthiques de l’entreprise.
Pour enrichir leur rôle, les administrateurs peuvent – comme mentionné précédemment – encourager la création de comités dédiés à l’IA au sein du conseil, chargés de superviser les initiatives d’IA et d’évaluer leur impact à long terme. Ils peuvent également promouvoir des partenariats avec des startups technologiques ou des universités pour accéder à des innovations de pointe et anticiper les tendances. Enfin, ils doivent garantir que l’entreprise dispose de ressources humaines qualifiées, telles que des équipes de data scientists ou des responsables de la conformité IA, pour soutenir une adoption responsable et durable de ces technologies.
Conclusion
L’adoption de l’intelligence artificielle générative (IAG) dans la gouvernance d’entreprise offre une opportunité stratégique significative, mais nécessite la création d’une plateforme collaborative réunissant la direction, le conseil d’administration, le comité éthique sur l’IA et les fonctions de l’entreprise impliquées dans l’intégration de l’IA.
Les projets d’IA doivent être bien structurés, soigneusement planifiés et intégrer dès leur conception une approche de « privacy by design ». Dans ce contexte, les conseils d’administration doivent jouer un rôle de premier plan en adoptant une approche proactive, éthique et responsable, pour transformer les défis de l’IA en leviers pour la création de valeur durable. Cela garantit non seulement la résilience et la compétitivité des entreprises, mais également la transparence envers les parties prenantes.
L’intégration de l’IA dans la gouvernance des organisations ne se limite pas aux grandes entreprises, qui disposent des ressources humaines et financières pour s’adapter à la révolution technologique en cours, mais concerne également les petites et moyennes entreprises (PME). Ces dernières doivent s’engager dès maintenant dans cette réflexion pour éviter un retard potentiellement préjudiciable.
Dans sa communication de 2021 intitulée « Boussole numérique 2030 : la voie européenne pour la décennie numérique », la Commission européenne expose son plan d’action, accompagné d’objectifs précis pour 2030. En matière de transformation numérique des entreprises, elle ambitionne que 75 % des grandes entreprises de l’UE adoptent des technologies telles que l’informatique en nuage, l’IA ou les big data d’ici 2030, et que plus de 90 % des PME atteignent au moins un niveau de base d’intensité numérique d’ici la même échéance.
Pour atteindre ces objectifs, il est crucial que les entreprises, quelle que soit leur taille, investissent dans des formations adaptées en fonction du degré de maturité de leurs équipes et développent une culture d’innovation ouverte à l’IA. Cela inclut le renforcement des compétences numériques des employés et la collaboration avec des partenaires technologiques pour intégrer des solutions d’IA adaptées à leurs besoins spécifiques.
gp@giovannellapolidoro.com
