Intelligenza artificiale | ESG News

Forum per la Finanza Sostenibile

Intelligenza artificiale: re-skilling, problemi di bias e nuova legislazione UE

L’intelligenza artificiale può avere effetti dirompenti sull’organizzazione umana con grandi potenzialità e numerosi rischi, tant’è che il legislatore europeo ha proposto una regolamentazione per limitare i possibili pericoli derivanti da un utilizzo improprio dei sistemi di IA. Uno dei campi dove questa tecnologia farà sentire i suoi effetti è il mondo del lavoro. L’intelligenza artificiale avrà infatti sempre più ripercussioni sull’occupazione, portando a un cambiamento nel modo in cui le imprese assumono e valutano il personale, ma anche e specialmente a una trasformazione delle competenze richieste per essere competitivi. Risulteranno sempre più importanti soft skills come creatività e problem solving, mentre i computer avranno la meglio nel sostituire mansioni più ripetitive, che non richiedono processi decisionali complessi.

Parlare di IA e lavoro significa però parlare di sostenibilità sociale, sia per i processi di formazione e ri-formazione necessari, sia in ottica di regolazione e conformità internazionale, ma anche per questioni etiche e di bias specifici dell’IA. Temi questi al centro del webinar Misurare il fattore S: impatti dell’innovazione e dell’IA sul mondo del lavoro organizzato dal Forum per la Finanza Sostenibile, moderato da Arianna Lovera, senior programme officer del Forum.

Imprese, IA e sostenibilità

Valore sostenibile significa valore condiviso con gli stakeholders” ha affermato Luca Fasan, portfolio manager sustainable technology di Sycomore Asset Management, “e noi portiamo le imprese in cui investiamo a condividere valore tramite uno schema che definiamo SPICE: suppliers and society, people, investors, clients, environment. Investire tenendo a mente questi punti significa rendere gli investimenti umani e inclusivi”. In quest’ottica, per individuare se una società compie degli investimenti tecnologici responsabili e sostenibili, compreso in ambito intelligenza artificiale, Sycomore adotta tre criteri: controllare se gli investimenti delle aziende sono tech for good (se sono volti al bene della società), good in tech (se il prodotto può essere utilizzato con uso positivo) e infine se le imprese hanno un piano per raggiungere almeno uno dei primi due punti. Una società è considerata sostenibile se ha obiettivi quantitativi per almeno due dei tre punti.

Sycomore sostiene un processo di questo tipo perché “l’innovazione non può essere fermata, però deve essere accompagnata”, come dichiara Fasan. Infatti, da un lato il processo tecnologico presenta innumerevoli benefici (per esempio, durante la pandemia alcuni processi software hanno permesso di sveltire lo sviluppo dei vaccini), dall’altro lato però ci sono molti rischi. Tra questi, l’espansione del tech, come spesso sottolineato, può comportare rischi per l’impiego, specialmente nel settore manifatturiero, possibile violazione dei diritti umani, dalla sicurezza dei dati alla libertà di espressione, problemi di salute e benessere, dovuti a dipendenza ed esposizione alle radiazioni, ma può anche portare a una minaccia alla democrazia, specialmente in situazioni di quasi-monopoli, e a rischi ambientali. È quindi necessario che l’innovazione venga accompagnata sia da enti specializzati come società di consulenza e asset manager con focus sulla sostenibilità, sia da un impianto legislativo comune. Il supporto di una terza parte può anche aiutare le aziende a inserire le loro pratiche ESG in un framework già consolidato e a presentarle in modo da ottenere il giusto riconoscimento. Gli asset manager hanno le giuste competenze per supportare questi processi.

Particolare attenzione deve essere posta alla formazione e al re-skilling, sia in merito alle competenze digitali sia per le soft skills che i computer non possono sostituire. Nell’ultimo decennio sono emersi molti corsi modulari di formazione digitale e sull’intelligenza artificiale, accessibili gradualmente da tutti, su cui le imprese possono puntare per i propri dipendenti. “Accompagnare le società significa anche portare attenzione alla formazione dei dipendenti, perché l’aggiornamento delle competenze è una risorsa sia per i dipendenti che per le società stesse” ha spiegato Fasan. 

Questioni etiche e lesgislative

Vi è però una questione più sottile. Una delle prime cause di morte per gli uomini under 30 negli Stati Uniti viene dagli incidenti stradali, e l’idea dell’auto a guida autonoma è nata proprio da questo problema sociale. Tuttavia, la realizzazione di questo mezzo ha portato a moltissimo dibattito proprio sull’aspetto etico e sociale, oltre che legislativo. Per esempio, non esiste un’assicurazione per una macchina a guida autonoma, perché non c’è una legge che descriva chi è l’assicurato – il produttore, il guidatore, la macchina stessa – e inoltre, “se pensiamo che la tecnologia possa gestirsi da sola, allora dobbiamo insegnare alla tecnologia che decisioni prendere. Nel classico esempio di pericolo, il veicolo autonomo deve salvare il passeggero o il passante?” ha concluso Fasan, e su questo punto ci sono ancora problemi legati a pregiudizi e bias di sistema.

Webinar Forum Finanza Sostenibile Intelligenza Artificiale Social IA | ESG News
Arianna Lovera, Fabio Santini, Diego Dimalta, Luca Fasan (in senso orario)

L’IA tende a replicare i pregiudizi del sistema

Per capire come l’intelligenza artificiale è incline a riflettere i giudizi e pregiudizi umani, bisogna capire come funziona. L’IA è il tentativo di replicare il cervello umano attraverso l’uso di computer, a cui chiediamo di eseguire task in maniera simile se non migliore di come li esegue la mente umana. Ma se il risultato è affine o a volte uguale, il procedimento non funziona nello stesso identico modo. “Se prendiamo ad esempio un bambino di pochi anni, egli impara attraverso l’osservazione degli adulti, attraverso il training o informazione, cioè quando i genitori spiegano i concetti direttamente, e infine attraverso il feedback o risposta, ossia le conseguenze delle buone e cattive decisioni che il bambino prende” ha spiegato Fabio Santini, director global partner solutions di Microsoft. “Gli stessi sistemi” aggiunge il manager, “sono usati nell’intelligenza artificiale, ma è ancora difficile che un computer possa apprendere attraverso l’osservazione, cioè essere messo davanti a un contesto e imparare senza altre informazioni. Su questo siamo ancora abbastanza lontani, mentre tutti i sistemi di IA che abbiamo oggi si basano su informazione e feedback”. In particolare, l’informazione risulta un metodo significativo grazie alla quantità di dati disponibili, che rendono i computer scientificamente più pronti a riconoscere video ed immagini e ad elaborare velocemente informazioni, tra le altre cose.

Essendo quindi l’intelligenza artificiale basata su informazione e feedback, prendendo i dati disponibili essa fa propri anche i bias del sistema e i pregiudizi consci o subconsci dei programmatori, ha spiegato Diego Dimalta, co-founder di BSD legal, determinando il cosiddetto effetto garbage in, garbage out, in quanto dati sporchi danno risultati sporchi. Santini stesso ha portato degli esempi di errori passati di Microsoft, quando un bot di risposta a domande generiche in poche settimane ha iniziato a rispondere in maniera volgare e violenta, replicando gli user del programma, e quando dei sistemi di riconoscimento di volti sono risultati efficaci solo ad analizzare uomini bianchi giovani, mente alcune donne di colore non venivano neanche riconosciute come esseri umani. Altro caso di bias del sistema è quello dell’azienda che ha utilizzato l’intelligenza artificiale per organizzare le promozioni dei propri dipendenti. Il sistema, elaborando dati passati, ha visto che le percentuali di uomini bianchi promossi erano nettamente migliori di quelle di donne e ha promosso, per la maggior parte, uomini bianchi.

È urgente una normativa mondiale

La necessità di una legge mondiale che faccia allineare tutti i provider di IA è un’idea condivisa. L’Artificial Intelligence Act europeo renderà l’UE pioniera in questo rispetto, dato che si tratta della prima legge sull’intelligenza artificiale promossa da un ente regolatore internazionale. L’idea della legislazione non è quella di limitare, ma di disciplinare l’utilizzo dell’IA, ha spiegato Dimalta: “Come il GDPR sulla privacy non ha messo dei divieti, ma ha dato delle regole su come utilizzare al meglio i servizi di dati personali, così l’IA Act non frenerà la crescita dell’IA ma ne disciplinerà solo l’utilizzo. Molte applicazioni ne hanno bisogno, le vetture autonome in primis”. 

Una questione legale urgente per l’intelligenza artificiale riguarda l’informazione dei computer sui dati prodotti da esseri umani, come immagini pubblicate su internet. Per alcuni prodotti web, come le foto condivise su un profilo Facebook privato, le ultime regolamentazioni pongono divieto di scraping (cioè di estrazione per via programmi software) e alcune società sono già state sanzionate pesantemente fino a 200 milioni di euro. Per altri prodotti web, invece, dipende dall’uso che ognuno ne fa, ha concluso Dimalta. Può essere che sia lo user stesso ad arricchire il materiale a disposizione delle banche dati, a volte inconsapevolmente, perché legge male le condizioni di utilizzo di un software e non conosce quali sono le autorizzazioni che ha dato alle imprese.