Rivista di Diritto SocietarioISSN 1972-9243 / EISSN 2421-7166
G. Giappichelli Editore

indietro

stampa articolo indice fascicolo leggi articolo leggi fascicolo


Intelligenza artificiale e responsabilità degli amministratori (di Luca Enriques – Andrea Zorzi)


L'articolo esamina gli effetti sulla disciplina della responsabilità degli amministratori verso la società del ricorso all'intelligenza artificiale quale supporto al funzionamento del consiglio d'amministrazione e, in particolare, alle decisioni prese dagli amministratori. Dopo aver ripercorso brevemente il tema della business judgment rule come intesa in Italia, si constata nell'articolo che il ricorso all'IA richiede la definizione preventiva dello scopo sociale, in modo tale da fornire con sufficiente precisione i criteri cui si deve attenere la decisione algoritmica. Dopo aver osservato che il tipo di decisioni demandate al CdA, caratterizzate dalla grande discrezionalità, dalla necessità di considerare fattori umani e relazionali non facilmente misurabili, e in generale dall'incertezza in quanto proiettate nel futuro, non sono facilmente devolvibili all'IA o da queste assistite, l'articolo conclude che, mentre l'adozione di strumenti di IA può in certi casi essere doveroso (speciale attenzione è dedicata al tema della supposta necessità di avere delle decisioni “spiegabili”), essa non comporta un obbligo di motivazione delle decisioni, né – a monte – scalfisce la piena applicabilità della business judgment rule anche per le decisioni prese con l'ausilio dell'IA.

Artificial intelligence and director liability

The article investigates the effect on directors’ liability of using artificial intelligence to support the functioning of the board and, in particular, its decision-making. After a brief review of the business judgment rule as applied in Italy, the article notes that the use of AI to support corporate decisions requires the prior definition of the company’s purpose, so as to provide with sufficient precision the criteria the algorithmic decision should comply with. The article notes that decisions entrusted to the board usually require great discretion (judgment) and the need to consider human and relational factors that are not easily measurable, and in general are subject to uncertainty since they are forward-looking. Hence, the article notes such decisions are not easily devolved to or assisted by AI and concludes that, while the adoption of AI may in certain cases be a duty for the board, the use of AI does not entail an obligation to expressly justify board’s resolutions, nor does it undermine the full applicability of the business judgment rule.

SOMMARIO:

1. Introduzione: tipi di intelligenza artificiale e impatto sulle decisioni degli amministratori - 2. Responsabilità degli amministratori e regola del giudizio imprenditoriale all’italiana - 3. Intelligenza artificiale e scopi e criteri ex ante: il perseguimento dell’in­teresse sociale - 4. Dovere di agire in modo informato e (non) spiegabilità della decisione dell’intelligenza artificiale - 5. Intelligenza artificiale e diligenza - 6. Giustizia predittiva e responsabilità degli amministratori - 7. Conclusioni - NOTE


1. Introduzione: tipi di intelligenza artificiale e impatto sulle decisioni degli amministratori

L’intelligenza artificiale può essere definita come «la capacità di un computer o di un robot di eseguire compiti tradizionalmente eseguiti da esseri intelligenti», cosicché «[r]ealizzare l’IA significa […] sviluppare sistemi dotati delle funzioni tipiche dei processi intellettivi umani, quali percepire, associare un significato e ragionare su ciò che si percepisce, decidere, compiere azioni, comunicare o apprendere dall’esperienza» [[1]]. L’IA è già ora ovunque nell’esperienza delle imprese, che la usano nella loro attività. Essa si inserisce anche nel processo decisionale degli amministratori di società di capitali e lo influenza sotto vari profili, perché è quasi inevitabile che nel CdA si decidano questioni legate all’IA, o da questa influenzate o che dei risultati dei relativi algoritmi il CdA si trovi a dover tenere conto nello svolgimento dei propri compiti. L’oggetto di questo contributo è, però, limitato all’applicazione di strumenti di IA quale strumento di supporto alle decisioni prese dagli amministratori. Come si vedrà, il ricorso all’IA da parte del CdA richiede una definizione preventiva dello scopo sociale, in modo tale da fornire i parametri entro cui la decisione algoritmica deve essere presa. Per altro verso, l’uso dell’IA può incidere sul modo in cui le decisioni sono prese e, quindi, sulla responsabilità degli amministratori: come si argomenterà diffusamente, il tipo di decisioni demandate al CdA, caratterizzate dalla grande discrezionalità, dalla necessità di considerare fattori umani e relazionali non facilmente misurabili, e in generale dall’incertezza in quanto proiettate nel futuro, non sono particolarmente adatte all’IA. Per questo motivo, mentre l’adozione di strumenti di IA può in certi casi essere doveroso, essa non scalfisce l’assenza di un obbligo di motivazione delle decisioni né – a monte – la piena applicabilità della business judgment rule anche per le decisioni prese con l’ausilio del’IA. In termini generali, l’uso dell’IA in ambito societario può generare responsabilità, sia contrattuale sia extracontrattuale, nei confronti dei terzi (i clienti, le autorità pubbliche, le persone che sono in [continua ..]


2. Responsabilità degli amministratori e regola del giudizio imprenditoriale all’italiana

Gli amministratori devono «adempiere i doveri ad essi imposti dalla legge e dallo statuto con la diligenza richiesta dalla natura dell’incarico e dalle loro specifiche competenze»; in mancanza, e quindi nell’ipotesi in cui si siano comportati in modo negligente nell’adempimento dei loro doveri, rispondono del danno cagionato alla società (o ai creditori, ai singoli soci o terzi) secondo le note regole degli artt. 2392 ss. c.c. Il primo e principale «dovere» degli amministratori è quello di amministrare, ovverosia di porre in essere tutte le scelte di gestione che sono necessarie od opportune per il conseguimento dell’oggetto sociale (art. 2380-bis, 1° comma, c.c.) [[17]], Si discute intorno al livello di diligenza richiesta, se sia richiesta perizia, in che modo la specifica previsione della “natura dell’incarico” e delle “specifiche competenze” impattino sul livello di diligenza, così come intorno all’effetto meramente interno (nel quadro della responsabilità solidale di cui all’art. 2392, 1° comma, c.c.) o anche esterno della ripartizione di competenze [[18]]. Vi è, peraltro, un generale consenso intorno al fatto che gli amministratori non possano essere chiamati a rispondere del merito delle loro decisioni gestorie, quando queste si rivelino, ex post, dannose per la società, a condizione che la decisione fosse stata presa in mancanza di conflitti d’interesse e con adeguata istruttoria. Secondo la corrente formulazione giurisprudenziale della regola, «all’amministratore di una società non può essere imputato a titolo di responsabilità ex art. 2392 c.c. di aver compiuto scelte inopportune dal punto di vista economico» [[19]], ma con il limite della razionalità della scelta: «l’insindacabilità delle scelte di gestione (c.d. business judgement rule) trova un limite nella valutazione di ragionevolezza delle stesse, da compiersi ex ante, secondo i parametri di diligenza di cui all’art. 2392 c.c., tenuto conto in particolare della mancata adozione delle cautele, delle verifiche e delle informazioni preventive, normalmente richieste per decisioni di quel tipo, oltre che della cura mostrata nell’apprezzare preventivamente i margini di rischio connessi all’operazione intrapresa» [[20]]. Non è questa la [continua ..]


3. Intelligenza artificiale e scopi e criteri ex ante: il perseguimento dell’in­teresse sociale

L’IA, in quanto strumento a disposizione dell’umano per assisterlo nella decisione, richiede una chiara definizione dello scopo perseguito. L’unico dato sul quale non sembra possano esservi dubbi è che, ogni qual volta l’azione sociale non sia vincolata sulla base della legge, dello statuto ovvero di altri elementi cogenti, gli amministratori devono prendere decisioni che siano conformi all’interesse sociale. Tuttavia, quale che sia lo scopo sociale, decidere in funzione di esso è, spesso, estremamente discrezionale e soggettivo, così come lo è individuare, in concreto e nelle specifiche circostanze in cui una data decisione dev’essere presa, quale sia l’interesse sociale. La questione di una chiara definizione dello scopo della società, e quindi degli obiettivi dell’algoritmo, si pone dunque anche per le società lucrative (o comunque a scopo egoistico) in cui è data priorità alla sola massimizzazione del valore della partecipazione (o, in quelle mutualistiche, dell’utilità per i soci) ma è esacerbata nelle società che hanno uno scopo ibrido (non soltanto lucrativo o mutualistico). Nell’un caso e nell’altro, individuare quale decisione, quale investimento, quale operazione realizzano al meglio l’interesse sociale richiede un’attenta ponderazione e composizione delle sue diverse sfaccettature: per l’ampia discrezionalità che vi si ricollega, una decisione algoritmica mal si adatta a questo tipo di compito. Infatti, in una società per azioni (ben amministrata) al CdA restano solo le decisioni “di vertice”, in cui sono necessarie considerazioni molto più “umane” (un giudizio) di quelle per cui è adatto un algoritmo. L’intervento dell’IA diverrebbe poi ancora più difficile quando lo scopo della società non è univocamente definito. Ai fini dell’ipotetica delega a un algoritmo dell’adozione di una decisione discrezionale sarebbe, infatti, necessario rendere espliciti sia lo scopo sia i criteri di ponderazione delle decisioni. Questa necessità di esplicitazione rileva dal punto di vista dell’identi­ficazione del parametro di valutazione della responsabilità degli amministratori e, prima ancora, come parametro di misurazione della loro prestazione nel conseguimento, appunto, dello [continua ..]


4. Dovere di agire in modo informato e (non) spiegabilità della decisione dell’intelligenza artificiale

La predisposizione di assetti adeguati è uno specifico obbligo degli organi delegati (art. 2381, 5° comma, c.c.), laddove invece gli amministratori non delegati devono verificare l’adeguatezza di tali assetti (art. 2381, 3° comma, c.c.). Gli assetti devono avere ora, tra l’altro, la specifica idoneità alla «rilevazione tempestiva della crisi dell’impresa e della perdita della continuità aziendale» (art. 2086, 2° comma, c.c.) [[48]]. La predisposizione di assetti organizzativi, amministrativi e contabili adeguati è, per altro verso, la precondizione della formazione e trasmissione agli amministratori di informazioni in quantità e di qualità tali da consentire agli amministratori di agire in modo informato (art. 2381, 6° comma, c.c.) [[49]] e, quindi, di godere della protezione della business judgment rule. Occorre, quindi, domandarsi se, per avere assetti “adeguati”, sia dovuto l’uso di strumenti di IA; questo rileverà sia dal punto di vista dell’obbligo specifico degli amministratori delegati, sia appunto come precondizione per la generazione e trasmissione di informazioni adeguate. Dal punto di vista della soddisfazione dell’obbligo specifico di predisposizione di assetti adeguati la risposta è influenzata dalla risposta alla domanda se le scelte organizzative rientrino tra le decisioni coperte dalla business judgment rule [[50]]. Secondo alcuni, infatti, la decisione relativa agli assetti, rinviando a un “sapere” tecnico (le discipline aziendalistiche) è a discrezionalità vincolata ed esorbita, quindi, dalla business judgment rule [[51]]. Secondo altri, invece, anche la decisione relativa agli assetti organizzativi, amministrativi e contabili sarebbe di merito gestorio e sarebbe, quindi, insindacabile alle consuete condizioni dell’ade­guata informazione e della razionalità (o non irrazionalità): come si è osservato efficacemente, quantunque la predisposizione di un assetto adeguato sia un obbligo specifico degli amministratori, il suo contenuto concreto dipende dalla natura e dalla dimensione dell’impresa [[52]]. In realtà, le differenze tra le due impostazioni possono in concreto assottigliarsi, nel senso che anche secondo i primi la decisione circa come impostare l’organizzazione della società è [continua ..]


5. Intelligenza artificiale e diligenza

Affermazione ormai comune nella letteratura in materia di applicazione dell’IA nella corporate governance è quella secondo la quale gli amministratori dovrebbero essere – tutti o almeno alcuni – versati in materia tecnologica. Al riguardo, mentre è senz’altro opportuno che almeno alcuni amministratori siano (anche) esperti di tecnologia [[82]], non sembra necessario ipotizzare che vi sia un obbligo in questo senso, o che il requisito della perizia tecnologica debba demandarsi in capo a ciascuno degli amministratori; tanto meno che debba essere dato voto determinante, quand’anche legalmente possibile, agli amministratori dotati di queste competenze [[83]]. Indubbiamente, ciò che è senz’altro esigibile dagli amministratori è di avere cognizione del funzionamento di base dell’intelligenza artificiale e delle sue possibili applicazioni – nello stesso modo in cui, pur in mancanza di requisito di perizia, è necessario che gli amministratori abbiano cognizione degli elementi fondamentali degli affari [[84]] –, ma questo appare anche sufficiente. Per dimostrarsi diligenti, gli amministratori dovranno, piuttosto, avere cura di affidare l’incarico di verifica della funzionalità degli algoritmi impiegati a esperti del settore. La presenza di alcuni amministratori particolarmente esperti potrà essere utile nella misura in cui potranno essere di ausilio nella discussione consiliare, esattamente come è opportuno che nel consiglio siedano professionalità diverse. Escluso, dunque, che tutti i membri del consiglio debbano essere versati in tecnologie dell’informazione, occorre individuare le condizioni del loro operare con diligenza in un mondo in cui esiste l’IA. Si è detto in precedenza di come l’adozione di sistemi di IA in ausilio all’attività gestoria possa essere di fatto obbligatorio in quanto parte degli assetti “adeguati” alla natura e alla dimensione dell’impresa, a seconda delle valutazioni discrezionali del CdA. La funzione del­l’IA sarà, innanzitutto, di monitorare e favorire il rispetto della legge nello svolgimento dell’attività della società nonché di supportare gli amministratori nel rispetto degli obblighi su di essi incombenti. Quindi potranno essere istituiti processi di rilevazione e gestione dei rischi [continua ..]


6. Giustizia predittiva e responsabilità degli amministratori

Una letteratura ormai molto ampia si occupa dell’applicazione dell’IA alla giustizia, sia penale sia civile. Con riguardo all’applicazione dell’IA nella giustizia civile, nel dibattito interno ed europeo in generale se ne discute talvolta a livello di “intelligenza” assai modesta (come al fine della compilazione di raccolte di leggi e di sentenze), quantunque non siano mancate applicazioni con riguardo alla vera e propria predizione delle decisioni, in un esperimento che ha riguardato la Corte europea dei diritti dell’uomo [[91]]. Alcune applicazioni dell’IA all’ambito legale sono, però, assai più interessanti ai fini del diritto delle società, e sono già di ampia diffusione negli USA. Per esempio, sono ormai di uso diffuso i software di “e-discovery” (electronic discovery), al servizio dell’analisi dei documenti (per lo più elettronici) di cui è ordinata l’esi­bizione prima del processo, nel corso appunto della discovery; si tratta, per qualsiasi caso di una certa complessità, di moli di documenti impossibili da analizzare se non con l’uso di strumenti informatici [[92]]. Vi sono poi strumenti di intelligenza artificiale per valutare la qualità del lavoro degli studi legali e il rapporto tra costo e qualità del lavoro e strumenti che analizzano i contratti per identificare clausole peculiari o rischi specifici, nonché per analizzare documenti nel corso delle analisi preliminari al compimento di operazioni commerciali o societarie rilevanti (due diligence) [[93]]. Soprattutto, per venire al tema di interesse, esistono già e sono in corso di perfezionamento strumenti di IA che servono a predire l’esito delle cause e la loro tempistica. Un particolare progetto riguardava le cause pendenti dinanzi alla Corte suprema; ancora più interessante, nella prospettiva degli amministratori, sono gli strumenti predittivi delle controversie in materia brevettuale e delle azioni di classe in materia di responsabilità degli emittenti (securities fraud class actions) [[94]]. È ben possibile che vengano presto sviluppati programmi in grado di prevedere l’esito di qualunque tipo di lite. Potrebbe essere, per esempio, interessante uno strumento di IA che fornisca simulazioni anche sulla base della quantità di informazioni fornite, sia dalla [continua ..]


7. Conclusioni

Non sembra che, nell’immediato, l’IA cambierà il ruolo e l’importanza del CdA, né che avrà un impatto significativo sulla responsabilità degli amministratori. L’uso di sistemi di IA potrà portare a benefici in termini di maggiore efficienza nel processo decisionale, grazie alla sua capacità di elaborare dati e formulare sofisticate analisi. L’IA postula che si determinino ex ante gli obiettivi (nel caso della società, lo scopo sociale) e i criteri da seguire; con la conseguenza che l’attività degli amministratori può essere irrigidita e burocratizzata, da un lato perché è possibile che l’IA tenda a suggerire opzioni basate su dati misurabili piuttosto che su ipotesi e intuizioni, dall’altro perché gli amministratori vedranno incisa la loro discrezionalità nella ponderazione degli interessi, specie nelle società a scopo ibrido. In generale, è verosimile che sistemi di IA debbano far parte degli assetti organizzativi della società, in relazione alla natura e alle dimensioni dell’impresa, e ciò a maggior ragione per gli assetti che, ai sensi dell’art. 2086, 2° comma, c.c., e dell’art. 3, 2° e 3° comma, c.c.i.i., hanno una finalità specifica. Inoltre, per poter godere della protezione data dalla business judgment rule, gli amministratori dovranno avere cura che questi assetti basati sull’IA siano “adeguati” anche nel senso di una generale affidabilità. Questa comprende – oltre alla precisione, alla sicurezza, alla protezione dei dati, e alla “equità” nel senso di mancanza di bias – anche la possibilità di interpretare i risultati delle elaborazioni algoritmiche, ma non necessariamente postula una piena comprensione del modo in cui l’algoritmo è giunto a un risultato. Non è, dunque, necessario che gli amministratori siano dei periti nelle tecnologie dell’informa­zione, essendo sufficiente che abbiano una generale cognizione della materia, facendosi assistere, per quanto necessario, da esperti, come in qualunque altra materia. Una volta che l’IA adottata sia affidabile (e sempre che non ricorrano conflitti d’interesse degli amministratori), la decisione presa con il supporto istruttorio del­l’IA sarà, al pari di ogni altra decisione [continua ..]


NOTE