Negli ultimi decenni, l’intelligenza artificiale generativa (IAG) e le nuove tecnologie digitali hanno conosciuto un’espansione vertiginosa, ridefinendo profondamente la gestione delle imprese e lo sviluppo delle loro attività. Le grandi organizzazioni hanno adottato soluzioni tecnologiche avanzate, raggruppate sotto il termine “CorpTech”, che includono il cloud computing, le tecnologie di registri distribuiti (DLT) come la blockchain e i contratti intelligenti (smart contracts).
Strumenti tecnologici che, senza dubbio, ottimizzano i processi interni rafforzano la sicurezza e la trasparenza, favorendo al contempo l’innovazione e la creazione di nuovi modelli economici.
- Cloud computing: Durante la pandemia di Covid-19, questa tecnologia ha permesso ai consigli di amministrazione di tenere riunioni a distanza e di organizzare assemblee generali (AG) virtuali, garantendo la continuità delle attività in un contesto di restrizioni fisiche.
- DLT e blockchain: Sono tecnologie che accelerano e rendono sicure le comunicazioni tra gli organi e le funzioni aziendali, migliorando l’affidabilità, la tracciabilità e la qualità dei dati scambiati.
- Contratti intelligenti: Automatizzando i processi contrattuali, riducono i costi, minimizzano gli errori e assicurano un’esecuzione trasparente e sicura.
Le CorpTech consentono alle imprese di guadagnare in efficienza, rafforzare la loro resilienza e adattarsi a un ambiente economico in continua evoluzione.
L’intelligenza artificiale generativa (IAG), spesso inclusa nella categoria delle CorpTech, si distingue per le sue capacità avanzate di autoapprendimento e il suo potenziale di autonomia. A differenza delle altre tecnologie CorpTech, può interagire in modo proattivo e naturale con il suo ambiente, anche in assenza di supervisione umana. Consente di raccogliere e sintetizzare vasti insiemi di dati (big data), di eseguire analisi predittive per anticipare le tendenze, di personalizzare su larga scala l’esperienza del cliente e di generare contenuti diversi, come testi, immagini, suoni o codice informatico.
L’autonomia dell’IAG pone però complessi interrogativi etici, giuridici e operativi. Senza una regolamentazione adeguata, l’IAG rischia di sfuggire al controllo umano rendendo necessaria una governance rigorosa incentrata su: sicurezza e protezione dei dati, rispetto dei diritti umani e delle libertà fondamentali, e riduzione dell’impatto ambientale.
I consigli di amministrazione comprendono il potenziale trasformativo e rivoluzionario dell’intelligenza artificiale (IA) e stanno già valutando come integrarla nelle loro organizzazioni. Analizzano il suo impatto sulla competitività, gli investimenti richiesti, le necessità di formazione, l’elaborazione di politiche e linee guida etiche per l’uso dell’IA, oltre ai possibili rischi per la reputazione e l’immagine dell’impresa.
Tuttavia, sebbene l’esplorazione di come l’IA possa trasformare il funzionamento stesso dei consigli di amministrazione sia ancora agli albori e poco approfondita, il suo impatto è evidente. L’integrazione dell’IAG in questi contesti va oltre una semplice ottimizzazione dei processi: pone fondamentali questioni giuridiche sulla ridefinizione delle norme e dei principi di governance, così come sui ruoli e le responsabilità degli amministratori.
Come evolveranno il diritto societario e i codici di governance per adattarsi all’integrazione dell’IA? Come preservare una chiara distinzione tra le prerogative del consiglio e quelle della direzione? Questi interrogativi richiedono una riflessione accurata per prevenire qualsiasi squilibrio nella governance. Essi rappresentano solo una parte delle problematiche essenziali che i consigli di amministrazione devono affrontare nel contesto dell’integrazione dell’IA.
Diritto societario e corporate governance di fronte all’IA
L’intelligenza artificiale generativa (IAG) è al cuore di una rivoluzione tecnologica che potrebbe rivoluzionare profondamente l’organizzazione e il funzionamento delle imprese, offrendo opportunità uniche, soprattutto nell’ambito dell’analisi strategica, del processo decisionale basato sui dati, dell’ottimizzazione della governance e della gestione dei rischi.
Attualmente, non esiste una regolamentazione specifica, né a livello nazionale né europeo, che regoli l’uso dell’IAG all’interno dei consigli di amministrazione. La mancanza di un quadro giuridico definito solleva degli interrogativi in materia soprattutto di responsabilità degli amministratori e di gestione dei rischi legati a un’adozione non controllata dell’IA.
Nel 2020, la Commissione Europea ha pubblicato uno studio dal titolo “Impatto dell’intelligenza artificiale sul diritto societario e la governance d’impresa”, che esamina le pratiche adottate dalle imprese europee nell’integrazione dell’IA, sottolineando le opportunità offerte, come l’automazione dei processi decisionali, l’analisi predittiva e il miglioramento della trasparenza.
La Commissione ha scelto di non introdurre, per il momento, un quadro normativo specifico per definire i doveri e le responsabilità degli amministratori in materia di IA. La sua decisione è motivata dal fatto che sono ancora molte le incertezze legate alle capacità, ai limiti e alle implicazioni etiche dell’IA, che continua a evolversi rapidamente.
Un altro ostacolo significativo risiede, poi, nella mancanza di competenze specializzate e di expertise degli amministratori per comprendere appieno le questioni tecniche, giuridiche ed etiche legate allo sviluppo dell’IA. Tale lacuna può compromettere la loro capacità di valutare i rischi – come i bias algoritmici o le vulnerabilità di cybersicurezza – e di supervisionare efficacemente l’integrazione di questi strumenti, garantendo il loro allineamento con gli obiettivi strategici dell’impresa.
L’attuale assenza di regolamentazione non deve però essere intrepretata come un invito all’inazione. Come sottolineato dalla stessa Commissione europea, le imprese europee hanno un ruolo chiave da svolgere in questo ambito. Esse hanno la responsabilità – in base alla loro dimensione, al settore di attività, al modello economico e alle esigenze operative – di promuovere la riflessione sull’etica e sugli aspetti principali legati all’integrazione dell’IA, e di sviluppare quadri volontari e soluzioni basate sull’autoregolamentazione.
L’adozione di linee guida interne ha l’obiettivo di regolamentare l’uso dell’IA concentrandosi su tre pilastri principali: trasparenza, responsabilità e rispetto delle norme etiche. Un tale approccio proattivo non solo limiterà i rischi, ma posizionerà anche le imprese come attori di riferimento per promuovere una governance responsabile dell’IA.
A livello europeo, diversi paesi hanno già iniziato a modificare i loro Codici di corporate governance per affrontare tali questioni. Tra le iniziative nazionali più interessanti, si possono citare:
- Il Codice olandese di corporate governance (“The Dutch Corporate Governance Code”): aggiornato nel marzo 2025, il Codice sottolinea, nel suo primo capitolo dedicato alla creazione di valore sostenibile a lungo termine, che: “La creazione di valore sostenibile a lungo termine richiede anche una consapevolezza e un’anticipazione degli sviluppi delle nuove tecnologie e dell’evoluzione dei modelli economici, così come dei rischi associati, inclusi la cybersicurezza, la dipendenza dai fornitori e dalla catena del valore, la protezione dei dati e l’applicazione etica delle nuove tecnologie (ad esempio l’IA)”. Il Codice incoraggia il comitato di audit a monitorare i rischi legati all’integrazione delle tecnologie digitali, inclusa l’IA, e quelli associati alla cybersicurezza. Sottolinea la necessità per gli amministratori di possedere le competenze adeguate per riconoscere le opportunità e i rischi legati all’uso di queste tecnologie digitali, consentendo così al consiglio di amministrazione di esercitare efficacemente le sue funzioni di supervisione e controllo.
- Il Codice belga di corporate governance per le società quotate del 2020: si limita a riconoscere le nuove tecnologie come uno strumento efficace per migliorare le relazioni tra gli amministratori e le parti interessate.
- Il Codice “Buysse” di corporate governance per le società non quotate in Belgio adotta, invece, un approccio più innovativo. Il Codice, aggiornato nel 2024, identifica al capitolo 2, intitolato “Le migliori pratiche”, i temi di interesse specifico e sottolinea che: “la digitalizzazione e l’intelligenza artificiale sono una realtà anche nel mondo degli affari. Gli attori della governance d’impresa devono rimanere ben informati e adottare le giuste misure al riguardo. Lo fanno nell’ottica della continuità dell’impresa e quindi alla luce delle opportunità e della crescita, ma anche nell’ambito della gestione dei rischi, della conformità normativa e del rispetto delle norme etiche”. Il consiglio di amministrazione ha la responsabilità di prendere decisioni su questioni strategiche importanti, che includono: “la definizione delle linee guida in materia di risorse umane, digitalizzazione e intelligenza artificiale (inclusa la gestione dei dati e la cybersicurezza), produzione, approvvigionamento, finanziamento, vendite e marketing”. Di conseguenza, gli amministratori sono incoraggiati ad aggiornare le loro conoscenze e competenze e a tenersi informati: “su temi rilevanti per l’esercizio del loro mandato, come la sostenibilità e la digitalizzazione (inclusa la cybersicurezza)” per garantire la continuità e la crescita dell’impresa.
- Il Codice spagnolo di corporate governance del 2020: integra esplicitamente i rischi tecnologici nel quadro del sistema di controllo interno, sottolineando la necessità di una supervisione rafforzata.
- I Codici di corporate governance in Francia (il Codice Afep-Medef del 2022) e in Italia (Codice di corporate governance del 2020) non menzionano esplicitamente l’IA o la transizione digitale. Si limitano a fissare principi generali in materia di sostenibilità, che includono implicitamente l’integrazione dell’IA e delle nuove tecnologie. L’implementazione di tali tecnologie è di fatto considerata come una leva strategica necessaria per definire e organizzare una governance responsabile, resiliente e sostenibile, allineata ai criteri ESG (ambientali, sociali e di governance).
A livello internazionale, i principi di corporate governance dell’OCSE, riveduti nel 2023, sottolineano che le nuove tecnologie e l’IA possono essere strumenti efficaci per rafforzare il dialogo con gli azionisti e le parti interessate, e per valutare adeguatamente i rischi di cybersicurezza.
In assenza di un quadro normativo specifico per la governance d’impresa, le organizzazioni e i loro organi di governance devono adattarsi e sviluppare politiche, buone pratiche e principi su misura per sfruttare il potenziale dell’intelligenza artificiale (IA), garantendo al contempo il rispetto di standard etici e giuridici rigorosi.
IA e evoluzione della corporate governance
Come detto, l’IA apre nuove prospettive che mettono in discussione il funzionamento delle organizzazioni, la loro capacità di generare valore e le loro interazioni con le parti interessate. Oltre ad incidere sui processi operativi, l’IA ridefinisce le dinamiche di potere comprese le relazioni con la direzione e le interazioni all’interno dei consigli di amministrazione.
L’IA ha il potenziale per essere effettivamente impiegata dai consigli di amministrazione su tre livelli distinti: come supporto agli amministratori (mediante l’analisi in tempo reale di dati strategici), come strumento per arricchire i dibattiti durante le riunioni (attraverso l’uso di analisi predittive o raccomandazioni) e, potenzialmente, come sostituto di alcune figure decisionali (riducendo la catena di potere). Attualmente, però, l’IA svolge principalmente un ruolo di supporto nei processi decisionali.
Le applicazioni dell’IA – un termine che abbraccia un’ampia gamma di tecnologie, di cui l’IAG è la componente più recente e mediatica – spaziano dall’automazione semplice alla predizione complessa. Queste tecnologie consentono alle imprese di ottimizzare scelte strategiche, come l’allocazione del capitale, gli investimenti in ricerca e sviluppo (R&S) o il reclutamento di talenti.
Inoltre, l’uso di tali strumenti permette di individuare scelte potenzialmente inappropriate o non ottimali, monitorare le operazioni finanziarie e rilevare comportamenti fraudolenti o non conformi alle normative vigenti, grazie alla capacità dell’IA di effettuare analisi comparative storiche o settoriali.
La supervisione in tempo reale consente di prevenire i rischi associati all’IA e di proteggersi da potenziali conseguenze legali, d’immagine e reputazionali, promuovendo la responsabilità delle diverse funzioni aziendali e favorendo la condivisione di obiettivi comuni. Questo approccio garantisce che lo sviluppo dell’IA non avvenga come un’entità autonoma e incontrollata, ma come un driver di crescita sostenibile. Ciò rafforza la trasparenza e la fiducia di azionisti, investitori e del mercato, in un contesto in cui i consumatori, sempre più consapevoli, richiedono elevati standard di responsabilità sociale.
I consigli di amministrazione sono dunque chiamati a integrare l’intelligenza artificiale generativa (IAG), assumendo pienamente le loro responsabilità etiche e strategiche. La sfida è complessa: i consigli devono dotarsi delle risorse necessarie per affrontarla, acquisendo competenze di base sull’IAG, comprendendone tutte le implicazioni, definendo una strategia per l’IA a lungo termine che massimizzi i benefici, minimizzi i rischi e preservi la fiducia delle parti interessate, oltre a adottare una struttura di governance adeguata a tali sfide.
Impatti dell’IA sulla governance d’impresa
Il coinvolgimento del consiglio di amministrazione nell’adozione dell’intelligenza artificiale generativa (IAG) nella governance d’impresa varia a seconda del livello di apertura, maturità e capacità del consiglio di conciliare innovazione e stabilità.
È chiaro, tuttavia, che spetta al consiglio guidare questa trasformazione, valorizzando le potenzialità dell’IAG per ottimizzare le attività gestionali, rafforzare il ruolo strategico e di supervisione del consiglio, migliorare la gestione dei rischi e dei dati sensibili e ridefinire i doveri e le responsabilità degli amministratori.
Ottimizzazione della gestione e questioni giuridiche
La governance d’impresa si basa su una netta separazione tra gestione e controllo. La direzione gestisce le operazioni quotidiane, mentre il consiglio di amministrazione supervisiona tali attività per garantire l’allineamento con gli interessi di azionisti e stakeholder. La divisione dei poteri punta a favorire decisioni equilibrate e a rafforzare la responsabilità all’interno dell’organizzazione.
Tuttavia, la mancata partecipazione del consiglio alla gestione quotidiana comporta un rischio di asimmetria informativa tra le conoscenze in possesso della direzione e le informazioni trasmesse ai consiglieri. Per esercitare un’efficace supervisione strategica, il consiglio necessita di dati affidabili e di qualità. In alcuni casi, questa asimmetria può diventare significativa.
L’integrazione dell’intelligenza artificiale (IA) può ridurre questo problema, migliorando la comunicazione tra direzione e consiglio. Informazioni precise su realtà economica-finanziaria, tendenze, performance ed esigenze aziendali contribuiscono a minimizzare i rischi di asimmetria informativa.
L’integrazione dell’IA pone, però, anche altri interrogativi giuridici, in particolare nell’ambito della delega di poteri e della responsabilità della direzione nella scelta tra diverse tipologie di IA. Le normative vigenti stabiliscono che il consiglio di amministrazione nomini l’amministratore delegato per gestire l’impresa nell’interesse degli azionisti. La delega di poteri riguarda gli atti di gestione ordinaria, rappresentando uno strumento di gestione che permette di facilitare le decisioni e di distinguere tra amministratori esecutivi e non esecutivi.
Quando l’IA diventa uno strumento gestionale, si pone la questione se alcune attività possano essere delegate o meno a sistemi automatizzati, modificando le responsabilità dei dirigenti, specialmente in caso di errori o di bias algoritmici. Attualmente, in paesi come Francia e Italia, la legislazione limita la delega di poteri alle sole persone fisiche, che sono le sole responsabili per i danni causati dalle loro decisioni.
Il ruolo della direzione generale è di promuovere la sperimentazione controllata dell’IA. Consapevole dei rischi e delle questioni etiche, la direzione deve scegliere strumenti di IA affidabili, allineati agli obiettivi strategici dell’impresa e conformi alle norme etiche e regolamentari (come il GDPR o l’IA Act). E garantire che le principali misure da adottare durante tutto il ciclo di vita dell’IA siano ben documentate per assicurare trasparenza, sicurezza e tracciabilità dei sistemi integrati.
Ciò richiede competenze adeguate in materia di IA, una stretta collaborazione con le équipes digitali (sviluppatori di IA, data scientist, analisti di dati, ecc.) e un’allocazione strategica delle risorse umane e finanziarie. Inoltre, la direzione deve anticipare le evoluzioni tecnologiche per adattare questi strumenti alle esigenze future dell’impresa, cercando al contempo di minimizzare i rischi legati alla cybersicurezza e ai bias algoritmici.
L’IA sta rivoluzionando anche l’organizzazione e i metodi di lavoro delle direzioni subordinate alla direzione generale (risorse umane, finanza, legale, marketing, commerciale, industriale e sviluppo), automatizzando processi complessi e ottimizzando l’analisi dei dati nei rispettivi ambiti.
È evidente che l’adozione dell’IA richiede l’impegno diretto ed effettivo della direzione generale, che deve stabilire una carta etica per disciplinare il suo utilizzo. La direzione deve dimostrare, attraverso azioni concrete, che le iniziative adottate rispettano il suo impegno diretto e che le sue dichiarazioni sono allineate ai principi e ai valori dell’impresa.
La carta etica deve includere programmi di formazione volti a sensibilizzare i dirigenti e i collaboratori sui bias algoritmici, sulla trasparenza e sulle questioni etiche dell’IA. Promuovendo una cultura aziendale incentrata sull’etica dell’IA, la direzione favorisce pratiche responsabili nella quotidianità, rafforza la fiducia delle parti interessate, anticipa le evoluzioni normative e garantisce un utilizzo dell’IA allineato ai valori dell’impresa e alle aspettative della società.
Ruolo strategico e di supervisione del consiglio
Alcuni studi suggeriscono che, in futuro, i consigli di amministrazione potrebbero centralizzare l’insieme dei poteri, inclusa la gestione quotidiana, riducendo ogni dipendenza dalla direzione. Fino ad allora, il consiglio può già cominciare a sfruttare l’intelligenza artificiale per rafforzare il suo processo decisionale e il suo ruolo di supervisione strategica.
La funzione decisionale del consiglio di amministrazione consiste nel validare le strategie organizzative proposte dalla direzione, definite sulla base delle sue indicazioni. L’IA può essere utilizzata dal consiglio per valutare i piani strategici, industriali e finanziari elaborati dalla direzione, realizzando previsioni a breve e lungo termine, elaborando proiezioni, analizzando dati economici e finanziari, esaminando le tendenze di mercato, rilevando le debolezze di un nuovo prodotto o monitorando la reputazione e l’immagine dell’impresa.
L’IA può supportare il consiglio di amministrazione favorendo decisioni più informate di fronte alla crescente complessità e alla rapida evoluzione delle realtà aziendali. Offrendo una prospettiva non emozionale e più obiettiva, oltre a un’analisi rapida e precisa di grandi volumi di dati, l’IA arricchisce le discussioni e gli scambi tra gli amministratori durante le riunioni del consiglio e migliora la qualità dei dibattiti.
La funzione di supervisione strategica del consiglio presuppone che esso valuti la struttura organizzativa, amministrativa e contabile dell’impresa definita e messa in atto dalla direzione. L’integrazione dell’IA rafforza le sue responsabilità di controllo, poiché il consiglio deve ora garantire che:
- Le tecnologie integrate nell’organizzazione sono avanzate, trasparenti, affidabili, conformi alle leggi in vigore e disciplinate da protocolli e procedure interne chiaramente definiti per regolare l’uso dell’IA.
- I sistemi di controllo interno adottati dalla direzione sono robusti per mitigare i rischi legati all’IA. Devono in particolare garantire la qualità e l’integrità dei dati, la sicurezza dei sistemi tecnologici e la trasparenza degli algoritmi integrati.
- Le procedure e le politiche etiche che disciplinano l’uso responsabile dell’IA sono allineate ai valori dell’impresa e alle aspettative delle parti interessate.
L’IA è quindi diventata un asset strategico importante. I consigli di amministrazione devono dotarsi di un organismo interno per includere la governance dell’IA tra le loro priorità strategiche. La designazione di un responsabile o di un comitato etico sull’IA, composto di amministratori indipendenti con competenze specifiche in materia d’IA, è cruciale per assicurare un’efficace gestione di tali tecnologie. Il responsabile o il comitato etico sull’IA hanno il compito di:
- Condurre riflessioni approfondite sulle questioni etiche legate alla tecnologia digitale e all’IA (discriminazione, libertà fondamentali, equità, diritti umani …)
- Collaborare con le funzioni aziendali coinvolte nei progetti d’integrazione d’IA per valutare possibili impatti, rischi e opportunità dell’IA
- Formulare decisioni e raccomandazioni per guidare il consiglio nelle sue scelte strategiche
- Assicurare un monitoraggio costante per evitare che l’uso non controllato dell’IA produca soluzioni discriminatorie, pregiudizievoli per l’immagine e la reputazione dell’impresa
Per garantire l’uso efficace, sicuro ed etico dell’IA, il responsabile o il comitato etico sull’IA devono essere collegati direttamente al livello più alto della governance d’impresa (Board) e disporre di un reale potere decisionale. Devono essere sistematicamente consultati per analizzare gli impatti etici, giuridici e operativi di questa tecnologia e proporre soluzioni per ridurre i rischi associati alle IA sviluppate internamente o acquisite da fornitori esterni.
Il responsabile o il comitato etico sull’IA devono rendersi accessibili a tutti e aiutare dirigenti e managers a porsi le giuste domande. Un tale approccio rafforza la capacità del consiglio di amministrazione di supervisionare l’integrazione responsabile dell’IA, garantendo al contempo una presa di decisione allineata ai valori e agli obiettivi dell’impresa.
Qualora il consiglio di amministrazione non si sia ancora dotato di presidi organizzativi specifici o non abbia ancora delineato una strategia a lungo termine sull’intelligenza artificiale (IA), questi potrà avvalersi del supporto del comitato controllo e rischi per valutare i progetti pilota di IA volti a ottimizzare i processi organizzativi e analizzare gli impatti dell’IA sul business dell’impresa.
L’IA può anche essere utilizzata dal consiglio di amministrazione per monitorare, esaminare e analizzare le performance degli amministratori, sia a livello individuale che a livello del consiglio. Gli strumenti di supporto e consulenza basati sull’IA saranno in grado di sostituire i lavori attualmente svolti tramite questionari, aiutando i consigli di amministrazione a misurare il loro impegno, valutare come allocano il loro tempo e si concentrano, e determinare se sono principalmente reattivi o proattivi.
Gestione dei rischi e dei dati sensibili
Nell’esercizio dell’attività di supervisione strategica, il consiglio di amministrazione deve assicurarsi che l’impresa disponga di un sistema di controllo interno robusto, supportato da protocolli chiari che definiscano le politiche, le procedure e i ruoli e le responsabilità legati all’uso e alla governance dell’IA.
Questi dispositivi di controllo sono essenziali per identificare, gestire, valutare e controllare i rischi associati all’IA, in modo da mitigare le minacce potenziali, come i bias algoritmici, gli attacchi informatici e di cybersicurezza, le violazioni di dati, le non conformità alle regolamentazioni e gli impatti etici o sociali.
La funzione di supervisione del consiglio di amministrazione è duplice: da un lato, deve assicurarsi che l’impresa disponga di meccanismi di governance robusti per garantire un utilizzo etico e trasparente dell’intelligenza artificiale (IA), in conformità alle normative vigenti. Dall’altro, deve verificare che il responsabile dell’audit interno conduca controlli e test periodici per valutare l’affidabilità, la sicurezza e le prestazioni dei sistemi di IA, sviluppando piani di azione con misure correttive per gestire eventuali incidenti critici.
Un approccio olistico basato sul rischio – e condotto su tre linee di difesa – permette alle imprese di anticipare e gestire i rischi associati all’IA, di garantire la loro conformità, e di rafforzare la loro resilienza di fronte ai cambiamenti normativi e di minimizzare gli impatti finanziari e reputazionali.
In questo scenario, le direzioni conformità e risk management svolgono un ruolo centrale perché possono profittare dei vantaggi offerti dall’IA per rafforzare la funzione di supervisione del consiglio di amministrazione e la resilienza dell’impresa.
Direzione conformità
In un contesto di rapida evoluzione dei quadri normativi, la gestione della conformità legale si presenta come un’attività sempre più complessa. I responsabili della conformità devono operare in un ambiente normativo dinamico, caratterizzato da requisiti sempre più stringenti in materia di protezione dei dati, trasparenza e responsabilità.
L’adozione di sistemi di intelligenza artificiale (IA) capaci di analizzare e comprendere i contenuti normativi e di valutare i rischi di non conformità facilita significativamente il lavoro del Compliance Officer o della direzione conformità.
Il monitoraggio in tempo reale degli obblighi normativi consente di identificare rapidamente potenziali violazioni, anomalie o rischi di non conformità, di analizzare contratti, di tenere traccia degli aggiornamenti normativi, di raccogliere dati e informazioni, di sviluppare e rivedere politiche interne e di produrre report dettagliati sui progressi realizzati dalla funzione conformità.
L’utilizzo di strumenti automatizzati permette alla direzione conformità di delegare compiti ripetitivi e manuali, concentrandosi su attività a maggior valore aggiunto, come lo sviluppo di strategie per anticipare i cambiamenti normativi. Questo approccio non solo ottimizza tempi e risorse, ma riduce i costi, rendendo la gestione della conformità legale accessibile anche alle organizzazioni con risorse economiche limitate, che non possono permettersi di assumere specialisti in conformità.
Ad oggi, l’impiego dell’IA e di strumenti automatizzati nel settore bancario ha già dimostrato ottimi risultati, migliorando notevolmente la gestione dei rischi di non conformità legati a frodi, riciclaggio di denaro e finanziamento del terrorismo (AML/CFT), consentendo di rilevare con maggiore precisione anomalie, inefficienze e disfunzioni.
Insomma, l’adozione di strumenti basati sull’IA consente al Compliance Officer o alla direzione conformità di incrementare l’efficienza operativa e di rafforzare la capacità dell’impresa di conformarsi ai requisiti normativi e settoriali principali, in particolare al Regolamento sulla protezione dei dati (GDPR) e al Regolamento sull’IA dell’Unione europea, riducendo al contempo i rischi giuridici e di conformità.
Il mancato rispetto di queste regolamentazioni può comportare multe significative e sanzioni giuridiche severe. Una gestione rigorosa dei rischi legati all’IA consente alle imprese di conformarsi meglio ai requisiti legali, tanto più che le regolamentazioni in materia di IA evolvono a un ritmo quasi pari a quello della tecnologia stessa.
Direzione risk management
La gestione dei rischi è un ambito in cui l’IA offre opportunità significative per anticipare e mitigare le minacce. Gli strumenti di IA, come i modelli di analisi predittiva, consentono ai responsabili della gestione dei rischi di identificare i rischi emergenti, siano essi vulnerabilità operative, fluttuazioni economiche o minacce cibernetiche.
In particolare, l’IA può essere utilizzata per analizzare le tendenze storiche e attuali o per prevedere scenari di rischio, consentendo alle imprese di testare i loro piani di continuità, migliorare la loro resilienza di fronte a eventi imprevisti ed elaborare strategie di mitigazione efficaci.
Grazie alla realizzazione di test regolari e a una sorveglianza continua, la direzione risk management può valutare le prestazioni dei sistemi di IA durante tutto il loro ciclo di vita, garantendo così la loro affidabilità, trasparenza e conformità.
Inoltre, l’integrazione dell’IA nella gestione dei rischi può facilitare la collaborazione interfunzionale, coinvolgendo dipartimenti come la conformità e la cybersicurezza per creare un approccio integrato e olistico alla gestione dei rischi.
Questo approccio proattivo contribuisce a ridurre l’impatto potenziale dei rischi associati all’IA, che si tratti di guasti di sistema, bias algoritmici o violazioni di dati.
Una governance efficace dell’IA in questo ambito richiede tuttavia una supervisione umana rigorosa per validare le raccomandazioni dei sistemi di IA, correggere eventuali errori ed evitare una dipendenza eccessiva dagli algoritmi.
Doveri e responsabilità degli amministratori
Per accompagnare efficacemente le imprese nell’adozione dell’intelligenza artificiale (IA), i membri dei consigli di amministrazione devono iniziare a familiarizzare con gli strumenti di IA e acquisire una comprensione adeguata di queste tecnologie, delle loro potenzialità e delle loro implicazioni.
Ciò include una padronanza degli strumenti disponibili, delle opportunità che offrono per trasformare i processi, ottimizzare il processo decisionale o creare nuovi modelli economici, nonché dei rischi associati, come i bias algoritmici, le minacce cibernetiche o gli impatti sulla reputazione. Questa competenza consente agli amministratori di allineare le iniziative di IA alla strategia globale dell’impresa e ai suoi obiettivi a lungo termine.
Di fronte all’evoluzione rapida delle tecnologie di IA e al rafforzamento dei quadri normativi, come il Regolamento sull’IA dell’Unione europea, gli amministratori devono adottare un approccio di apprendimento continuo. Partecipare a gruppi di lavoro settoriali, seguire formazioni specializzate, collaborare con esperti esterni (tecnologi, sviluppatori di IA, data scientist, analisti di dati, giuristi specializzati, esperti d’etica) o basarsi su rapporti di analisi settoriale sono modi concreti per rimanere informati sui progressi tecnologici, le evoluzioni legali e le migliori pratiche.
Queste iniziative consentono anche di anticipare gli impatti etici, sociali, ambientali e di governance (ESG) dell’IA, rafforzando al contempo la diversità delle competenze e delle prospettive all’interno del consiglio.
Gli amministratori, in particolare quelli indipendenti, svolgono un ruolo essenziale nell’incitare i dirigenti a esplorare le opportunità dell’IA nei loro settori di attività. Devono incoraggiare un approccio pragmatico, come il metodo “test & learn”, che consiste nello sperimentare – tenendo conto della dimensione, dell’organizzazione e della natura delle attività dell’impresa – soluzioni di IA su piccola scala in ambienti controllati, valutare i risultati e adattare le strategie di conseguenza.
Questo approccio favorisce un’adozione graduale dell’IA, riduce i rischi e sostiene la creazione di una cultura di innovazione all’interno dell’impresa. Inoltre, gli amministratori possono promuovere l’integrazione dell’IA in ambiti specifici, come l’ottimizzazione delle catene di approvvigionamento, il miglioramento dell’esperienza del cliente o la personalizzazione dei servizi, garantendo al contempo che queste iniziative siano allineate ai valori e alle priorità dell’organizzazione.
In funzione del tipo di IA adottato e del suo livello di rischio, come definito dal Regolamento europeo sull’IA (IA ad alto rischio, a rischio limitato o a rischio minimo o nullo), le responsabilità degli amministratori variano. Le applicazioni di IA ad alto rischio, come quelle utilizzate nei sistemi di reclutamento automatizzato o nelle infrastrutture critiche, richiedono una competenza approfondita, una supervisione rigorosa e l’implementazione di quadri robusti per garantire la conformità normativa, la gestione dei rischi e la realizzazione di audit regolari.
Gli amministratori devono anche garantire l’istituzione di politiche interne chiare per la trasparenza, la tracciabilità e la responsabilità dei sistemi di IA, integrando meccanismi di controllo per prevenire derive potenziali, come le violazioni di dati o le discriminazioni involontarie. Per le IA a rischio limitato o minimo, una governance più leggera può essere sufficiente, ma rimane necessaria una vigilanza per garantire l’allineamento con gli obiettivi strategici ed etici dell’impresa.
Per arricchire il loro ruolo, gli amministratori possono – come già detto – incoraggiare la creazione di comitati dedicati all’IA all’interno del consiglio, incaricati di supervisionare le iniziative di IA e di valutarne l’impatto a lungo termine. Possono anche promuovere partnership con startup tecnologiche o università per accedere a innovazioni all’avanguardia e anticipare le tendenze. Infine, devono garantire che l’impresa disponga di risorse umane qualificate, come team di data scientist o responsabili della conformità IA, per sostenere un’adozione responsabile e sostenibile di queste tecnologie.
Conclusione
L’adozione dell’intelligenza artificiale generativa (IAG) nella governance d’impresa offre un’opportunità strategica significativa, ma richiede la creazione di una piattaforma collaborativa che riunisca la direzione, il consiglio di amministrazione, il comitato etico sull’IA e le funzioni aziendali coinvolte nell’integrazione dell’IA.
I progetti di IA devono essere ben strutturati, attentamente pianificati e integrare fin dalla loro concezione un approccio di privacy by design. In questo contesto, i consigli di amministrazione devono svolgere un ruolo guida adottando un approccio proattivo, etico e responsabile, per trasformare le sfide dell’IA in leve per la creazione di valore sostenibile. Ciò garantisce non solo la resilienza e la competitività delle imprese, ma anche la trasparenza nei confronti delle parti interessate.
L’integrazione dell’IA nella governance delle organizzazioni non si limita alle grandi imprese, che dispongono delle risorse umane e finanziarie per adattarsi alla rivoluzione tecnologica in corso, ma riguarda anche le piccole e medie imprese (PMI). Queste ultime devono impegnarsi sin da ora in questa riflessione per evitare un ritardo potenzialmente dannoso.
Nella sua comunicazione del 2021 intitolata “Bussola digitale 2030: la via europea per il decennio digitale”, la Commissione europea espone il suo piano d’azione, accompagnato da obiettivi precisi per il 2030. In materia di trasformazione digitale delle imprese, ambisce a far sì che il 75% delle grandi imprese dell’UE adotti tecnologie come il cloud computing, l’IA o i big data entro il 2030, e che oltre il 90% delle PMI raggiunga almeno un livello base di intensità digitale entro la stessa scadenza.
Per raggiungere questi obiettivi, è cruciale che le imprese, indipendentemente dalla loro dimensione, investano in formazioni adeguate in funzione del grado di maturità delle loro équipes e sviluppino una cultura di innovazione aperta all’IA. Ciò include il rafforzamento delle competenze digitali dei dipendenti e la collaborazione con partner tecnologici per integrare soluzioni di IA adattate alle loro esigenze specifiche.
gp@giovannellapolidoro.com
