Intelligenza artificiale Schroders | ESG News

L’opinione di Vincent Goussard di Crédit Mutuel AM

Come promuovere un’AI responsabile

AI e barriere all’adozione

Spesso definita come la quarta rivoluzione industriale (dopo internet), l’intelligenza artificiale (AI) è un importante motore di miglioramento della produttività. Nonostante non siamo ancora arrivati al punto di un’integrazione del suo pieno potenziale in tutti i modelli di business, la sua rapida ascesa solleva legittime preoccupazioni. Infatti, secondo recenti dati Eurostat, le questioni e le incertezze legate alla regolamentazione dell’utilizzo dell’intelligenza artificiale sono tra i principali ostacoli all’adozione da parte delle aziende con più di 250 dipendenti nell’Unione Europea.

Questi dati evidenziano la necessità di sviluppare l’intelligenza artificiale all’interno di un contesto sicuro. I rischi legali e normativi associati all’AI, compresi quelli relativi alla proprietà intellettuale, alla protezione dei dati, alla privacy e all’etica, rientrano tutti nell’ambito della governance dell’IA, ossia di tutti i processi e gli standard che ne garantiscono un uso sicuro ed etico. È probabile che una governance solida incoraggi l’adozione di questa tecnologia.

Il bisogno di governance: la legge sull’AI

In assenza di una governance globale, a giugno 2024 l’Unione europea ha introdotto il primo regolamento sull’AI (AI Act) per una sua progressiva attuazione fino a dicembre 2030. L’obiettivo di questa normativa è garantire che l’AI sia utilizzata in modo sicuro, etico, trasparente e nel rispetto dei diritti fondamentali. A questo scopo, le circostanze di utilizzo dell’AI sono state classificate in base al livello di rischio (minimo, limitato, elevato, inaccettabile) e associate a obblighi volti a ridurre o eliminare i rischi associati. L’UE ha esteso l’ambito di applicazione di questa legge in modo che la natura digitale dell’AI non consenta di aggirare la normativa. La legge sull’AI non si rivolge solo ai fornitori e a chi pone in essere sistemi di AI con base nell’UE, ma anche a coloro i cui “output”, prodotti dai sistemi di AI, sono utilizzati nell’UE. Il termine “output” è abbastanza ampio da comprendere un’ampia gamma di frangenti, tra cui “previsioni, contenuti, raccomandazioni o decisioni”.

Per evitare che l’AI funzioni come una “scatola nera”, la legge è stata concepita per proteggere i cittadini europei da un uso distorto, garantendo la trasparenza e la tracciabilità del processo di inferenza, che deve rimanere sotto la supervisione umana. A proposito delle risorse umane, uno dei casi d’uso “ad alto rischio”, questa normativa richiede che qualsiasi azienda che utilizzi l’intelligenza artificiale per smistare le domande di lavoro debba informare i candidati ed essere in grado di spiegare il funzionamento dell’algoritmo utilizzato. Inoltre, per evitare possibili malfunzionamenti, come le “allucinazioni” (situazioni cioè in cui l’IA generativa fornisce risposte errate o inappropriate a causa dei pregiudizi contenuti nei suoi calcoli o nel database), l’intero processo deve essere svolto sotto la supervisione umana.

Pur ponendo le basi per una governance dell’AI, la legge sull’AI non è esente da critiche. Da una prospettiva economica liberale, la sua complessità e i costi associati potrebbero essere visti come ostacoli all’innovazione. Ciò è vero soprattutto perché questi nuovi requisiti devono essere integrati con quelli preesistenti, come i diritti fondamentali, la protezione dei dati personali, la tutela dei consumatori e la protezione della proprietà intellettuale. Per altri, più sensibili ai diritti umani, la normativa è vista come troppo indulgente e la sua applicazione troppo lenta.

L’importanza di una governance a livello globale

L’extraterritorialità dell’AI Act e le ingenti multe in cui le aziende possono incorrere (fino al 7% del fatturato globale per gli usi vietati) possono interferire con gli interessi di altre aree geografiche. Ad esempio, secondo Bloomberg, l’attuale amministrazione statunitense, che ha alleggerito le restrizioni sui fornitori di AI in nome della salvaguardia dell’innovazione, starebbe esercitando pressioni sulle autorità europee affinché abbandonino il codice di condotta generale sull’AI, atteso per agosto. Questo documento non vincolante, redatto da diverse parti interessate tra cui gli stessi fornitori di modelli di AI, descrive in dettaglio le best practice da adottare.

Questa lotta di potere evidenzia la necessità di raggiungere un accordo per evitare la proliferazione di norme e standard nazionali che potrebbero ostacolare lo sviluppo dell’AI. Tuttavia, dati i pregiudizi culturali e ideologici esistenti, è probabile che un modello di governance globale dell’intelligenza artificiale possa essere determinato solo sulla base di un minimo comun denominatore. Questo sembra essere il ruolo assegnato al Global Digital Compact, adottato da 193 Paesi al Summit per il Futuro del 2024. Come il suo predecessore, il Global Compact delle Nazioni Unite, era stato concepito per promuovere i diritti umani, gli standard lavorativi, la gestione dell’ambiente e la lotta alla corruzione, il Global Digital Compact intende “definire principi condivisi per un futuro digitale aperto, libero e sicuro per tutti”. Al suo interno, il Comitato per l’intelligenza artificiale ha l’obiettivo di “rafforzare la governance internazionale dei dati e normare l’AI a beneficio dell’umanità”.

Conclusione

Nel suo romanzo “1984”, George Orwell descrive un mondo in cui i cittadini sono sotto la costante sorveglianza di un potere autoritario, incarnato dalla figura del Grande Fratello. Nell’era della tecnologia digitale, le tracce che lasciamo, unite ai progressi dell’intelligenza artificiale, espongono ogni cittadino/consumatore a un trattamento simile. Per evitare che questa distopia orwelliana diventi realtà appare fondamentale regolamentare l’uso della nuova tecnologia. Il concetto di investimento responsabile implica quindi che le aziende che creano e mettono in campo questi sistemi di AI stabiliscano adeguati “firewall” operativi sotto la supervisione di organismi di governance che abbiano le competenze necessarie per comprendere queste problematiche e mitigare efficacemente i rischi associati.

Scopri come ESGnews e i suoi partner possono aiutarti.