Innovazione

ESMA: pro e contro dell’applicazione dell’intelligenza artificiale in ambito MiFID II

Il progresso dell’intelligenza artificiale (IA o AI in inglese) ha il potenziale per trasformare tutti i più importanti settori del sistema economico attuale, compreso quello dei servizi di investimento al dettaglio (o retail). Il cambiamento potrebbe offrire opportunità senza precedenti in termini di efficienza, innovazione e miglioramento del processo decisionale. Allo stesso tempo, però, l’affermarsi di questa tecnologia, potrebbe presentare rischi intrinseci, tra cui problemi di qualità dei dati e mancanza di trasparenza e di tutela degli investitori. In questo contesto, per garantire il rispetto degli obblighi della MiFID II e salvaguardare gli interessi degli investitori nelle soluzioni basate sull’intelligenza artificiale, l’European Securities and Markets Authority (ESMA), l’autorità di regolamentazione dei mercati dell’UE, ha pubblicato una dichiarazione che fornisce indicazioni iniziali alle aziende che si approcciano alle tecnologie di intelligenza artificiale (AI) quando erogano servizi di investimento ai clienti retail.

I potenziali effetti positivi dell’intelligenza artificiale sui servizi di investimento

L’adozione dell’IA da parte delle imprese è ancora nelle prime fasi, ma si possono già intravedere i suoi effetti su tutti i settori, compreso quello della finanza.

Ad esempio, l’intelligenza artificiale potrebbe supportare le aziende nella fornitura di servizi di consulenza in materia di investimenti e gestione del portafoglio. Gli strumenti di intelligenza artificiale potrebbero essere utilizzati dalle società anche per analizzare le informazioni del cliente su conoscenza ed esperienza, situazione finanziaria (compresa la propensione al rischio) e obiettivi di investimento (incluse le preferenze di sostenibilità) al fine di fornire raccomandazioni di investimento personalizzate o gestire e riequilibrare i portafogli dei clienti. “Poiché l’intelligenza artificiale è in grado di elaborare grandi quantità di dati finanziari, inclusi trend di mercato e dati storici, per prevedere i movimenti del mercato”, spiega l’ESMA.

Secondo l’autorità, l’intelligenza artificiale potrebbe venire in aiuto delle imprese anche per riassumere e analizzare le nuove normative finanziarie, ma anche per confrontare le politiche e le procedure interne con i requisiti legali e per individuare comportamenti non conformi alle regole di tutela del risparmiatore MiFID II.

Per quanto riguarda la gestione del rischio, l’intelligenza artificiale potrebbe essere utilizzata per valutare il rischio associato a diverse opzioni di investimento, nonché per monitorare e gestire l’esposizione complessiva al rischio del portafoglio di un cliente. L’IA potrebbe essere utile anche per monitorare i dati sulle transazioni per scovare eventuali modelli insoliti che potrebbero indicare attività fraudolente.

In generale, un vantaggio probabile che verrebbe con una diffusione dell’uso di intelligenza artificiale, sottolinea l’ESMA, sarebbe l’opportunità di automatizzare diverse operazioni, come l’immissione di dati, la generazione di report e l’elaborazione delle transazioni.

Rischi per aziende e clienti

Delineate le potenziali opportunità legate all’IA, l’autorità europea mette in guardia i lettori dai rischi che possono ostacolare aziende, investitori e società finanziarie.

Il primo citato dall’ESMA è la mancanza di responsabilità e supervisione nel caso in cui sia i fornitori di servizi che i clienti facciano eccessivo affidamento sull’intelligenza artificiale per il processo decisionale, trascurando l’importanza del giudizio umano. Questa dipendenza eccessiva può essere particolarmente rischiosa in mercati finanziari complessi e volatili in cui l’intelligenza artificiale potrebbe non prevedere con precisione i risultati.

Un secondo rischio sarebbe legato alla mancanza di trasparenza e di facile interpretazione dei modelli dell’IA: “molti sistemi di intelligenza artificiale hanno spesso processi decisionali incomprensibili per il personale aziendale a tutti i livelli (dalle funzioni di controllo all’alta dirigenza)”, scrive l’ESMA. La mancanza di facile interpretazione dei modelli di intelligenza artificiale può a sua volta influire sulla qualità del servizio, ad esempio complicando l’adeguamento delle strategie di investimento.

Sotto la lente dell’autorità di regolamentazione anche il tema della sicurezza e della privacy, legato alla raccolta, all’archiviazione e all’elaborazione della grande quantità di dati richiesti dagli strumenti di intelligenza artificiale. Infine, l’ESMA cita anche un altro rischio: quello dell’affidabilità dei dati e della distorsione algoritmica, fenomeno che avviene quando gli strumenti di IA, replicando un linguaggio naturale, producono output errati anche se sembrano realistici e accurati. Nella consulenza sugli investimenti e nella gestione del portafoglio, le informazioni distorte possono rendere fuorviante anche la consulenza verso i clienti.

L’applicazione dell’IA nell’ambito dei requisiti MiFID II

Il focus del documento dell’ESMA verte sull’applicazione dell’IA nei servizi di investimento, vista attraverso la lente dei requisiti MiFID II esistenti. In particolare, l’autorità punta a guidare le aziende che utilizzano o pianificano di ricorrere a tecnologie di intelligenza artificiale in modo che possano garantire la conformità ai requisiti chiave della MiFID II, in particolare quelli relativi all’organizzazione, alla condotta aziendale e all’obbligo generale di agire nel migliore interesse del cliente.

Rispetto alla tutela dell’interesse del cliente e le informazioni che gli vengono fornite, l’ESMA sottolinea che “le imprese di investimento dovrebbero essere trasparenti sul ruolo dell’IA nei processi decisionali di investimento relativi alla fornitura di servizi di investimento”. In generale, l’autorità si aspetta che, quando le aziende forniscono ai clienti informazioni su come utilizzano gli strumenti di intelligenza artificiale per la fornitura di servizi di investimento, garantiscano che tali informazioni siano presentate in modo chiaro, corretto e non fuorviante.

Allo stesso tempo, le imprese di investimento che utilizzano l’intelligenza artificiale per le interazioni con i clienti, ad esempio tramite chatbot (un software che simula le conversazioni umane) o altri tipi di sistemi automatizzati legati all’IA, dovrebbero divulgare in modo trasparente ai clienti l’uso di tale tecnologia durante tali interazioni.

Per quanto riguarda la governance, la gestione del rischio e i requisiti organizzativi della MiFID II in generale, l’ESMA raccomanda che l’organo di gestione dell’impresa abbia una conoscenza adeguata del modo in cui le tecnologie di intelligenza artificiale vengono applicate e utilizzate all’interno della propria azienda, e che supervisioni tali tecnologie. La supervisione, in particolare, è fondamentale per garantire che i sistemi di intelligenza artificiale siano allineati alla strategia generale, alla tolleranza al rischio e al quadro di conformità dell’azienda. “È responsabilità dell’organo di gestione istituire solide strutture di governance che monitorino le prestazioni e l’impatto degli strumenti di intelligenza artificiale sui servizi dell’impresa. Inoltre, l’alta dirigenza dovrebbe promuovere una cultura di titolarità del rischio, trasparenza e responsabilità, in cui le implicazioni dell’implementazione dell’intelligenza artificiale siano regolarmente valutate e vengano apportati gli opportuni adeguamenti in risposta all’evoluzione delle condizioni di mercato e del panorama normativo”, si legge nel documento.

Sempre in ambito di rispetto dei requisiti MiFID II quando si applica l’IA nei processi organizzativi, l’ESMA sottolinea l’importanza di quadri efficaci di gestione del rischio specifici per l’implementazione e l’applicazione dell’IA.

Tra gli ultimi argomenti di cui parla l’autorità nel testo vi è quello legato all’utilizzo di soluzioni sviluppate da fornitori di servizi terzi nelle varie fasi della fornitura di servizi di investimento in cui è stata integrata l’IA. In questo caso, le aziende dovrebbero rispettare i requisiti MiFID II garantendo un adeguato livello di due diligence nel processo di selezione di tali fornitori lungo la catena del valore e l’istituzione di controlli adeguati.

L’ESMA rileva inoltre che, considerata l’importanza attribuita dalla MiFID II alla conoscenza e alla competenza del personale che fornisce informazioni sui prodotti di investimento ai clienti, le imprese che utilizzano l’intelligenza artificiale per tali attività devono farlo con maggiore vigilanza per garantire lo stesso livello di standard di qualità. “A questo proposito, dovrebbero essere istituiti controlli rigorosi per garantire ex-ante l’accuratezza delle informazioni utilizzate dai sistemi di IA al fine di prevenire la diffusione ai clienti di informazioni errate o consigli di investimento fuorvianti. Inoltre, le imprese di investimento dovrebbero attuare controlli ex post sufficientemente frequenti per monitorare e valutare qualsiasi processo che comporti la fornitura di informazioni direttamente o indirettamente attraverso meccanismi guidati dall’intelligenza artificiale. Queste valutazioni post-interazione sono cruciali per garantire la continua conformità agli obblighi MiFID II e tutelare i clienti dalla diffusione di informazioni inesatte o fuorvianti su prodotti e servizi di investimento. L’incapacità di mantenere l’accuratezza in queste interazioni potrebbe avere un impatto profondo sui clienti e sulla responsabilità delle aziende nei loro confronti”, spiega l’autorità.

Infine, conclude l’ESMA, la consapevolezza all’interno dell’organizzazione, soprattutto tra il personale addetto alle funzioni di controllo, è fondamentale per affrontare le complessità dell’integrazione dell’IA. A tal fine, le aziende dovrebbero garantire adeguati programmi di formazione sul tema dell’intelligenza artificiale per il personale interessato, garantendo che sia attrezzato per gestire, interpretare e lavorare con le tecnologie dell’intelligenza artificiale. “La formazione dovrebbe coprire non solo gli aspetti operativi dell’IA ma anche i suoi potenziali rischi, considerazioni etiche e implicazioni normative”, conclude l’autorità. I

Conclusione e prossimi passi

In occasione della pubblicazione del documento, l’ESMA evidenzia che continuerà a monitorare, insieme alle autorità nazionali competenti (NCA) l’evoluzione del fenomeno e il quadro giuridico europeo sull’IA, per determinare se è necessario intraprendere ulteriori azioni in questo settore.