A cura di Francesco Cartabia
Venerdì 20 ottobre 2023 si è tenuto a Roma, presso la sede dell’ABI, il convegno “AI e abusi di mercato: le leggi della robotica si applicano alle operazioni finanziarie?” organizzato in collaborazione tra CONSOB e l’Università degli Studi di Roma “Tor Vergata” per presentare l’omonimo studio pubblicato in tema dall’Authority (Quaderno CONSOB n. 29).
Il convegno è stato ricco di interessanti spunti di riflessione dal punto di vista giuridico ed insights sulle prossime evoluzioni della tecnologia e del diritto.
Nei mercati finanziari l’utilizzo di algoritmi complessi da parte degli intermediari, sotto vari profili, è una realtà già da tempo consolidata.
Oggi, grazie al progresso ed all’evoluzione delle tecnologie di intelligenza artificiale, i mercati finanziari si trovano agli albori di una nuova era in qui gli algoritmi sono (e saranno) gli indiscussi protagonisti.
Il convegno si è aperto con i saluti istituzionali di Nathan Levialdi Ghiron, magnifico rettore dell’Università Tor Vergata, e con l’intervento introduttivo di Gianfranco Trovatore, responsabile dell’Ufficio Studi di CONSOB.
Quest’ultimo ha sin da subito evidenziato come le autorità di vigilanza, gli stakeholders ed i legislatori si stanno trovando ad affrontare delle “sfide”, poste dall’intelligenza artificiale, che sino a pochissimi anni addietro potevano solamente essere ipotizzabili nei romanzi di fantascienza.
Sistemi di intelligenza artificiale operanti nell’ambito nella negoziazione ad alta frequenza (High Frequency Trading), tra loro distinti ed indipendenti, tutti programmati dai loro creatori per massimizzare i profitti sugli investimenti, hanno sviluppato in totale autonomia meccanismi collusivi e pratiche manipolatorie del mercato: è già successo – nel 2019 – a Wall Street, come evidenziato dal dott. Trovatore, ed approfondito all’interno del Quaderno CONSOB.
Panel I:
Da questo spunto si è aperto il primo panel del convegno, in tema di soggettività giuridica e responsabilità dell’intelligenza artificiale.
Moderato dal professor Bruno Montanari, ordinario di Filosofia del Diritto presso l’Università di Catania e l’Università Cattolica del Sacro Cuore di Milano, vi hanno partecipato il prof. Salvatore Amato (Filosofia del Diritto, Università di Catania); il prof. Francisco Balaguer Callejón (Diritto costituzionale, Universidad de Granada); il prof. Francesco Mucciarelli (Diritto penale dell’economia, Università Bocconi) e il dott. Mario Palazzi (Sostituto Procuratore della Repubblica presso il Tribunale di Roma).
I temi affrontati sono stati di grande profondità e attualità.
Tra i vari, segnaliamo l’interessante dibattito sull’opportunità o meno di conferire una soggettività o personalità giuridica agli algoritmi di intelligenza artificiale più avanzati – ipotesi già peraltro esplorata in sede comunitaria con la «Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica».
Anche in tema di responsabilità (civile e penale) si è molto discusso.
I sistemi di AI più avanzati – come visto nell’esempio di Wall Street – stanno mettendo in discussione uno dei principi fondamentali dei nostri ordinamenti giuridici: “machina delinquere non potest”, e cioè l’irresponsabilità dal punto di vista penale di ogni soggetto diverso dall’uomo.
Intrinsecamente, poi, l’imperscrutabilità del processo decisorio dei sistemi di intelligenza artificiale (il cosiddetto “black box problem”) rende difficile per il legislatore delineare un sistema di responsabilità che sia, simultaneamente, coerente coi principi del nostro ordinamento giuridico (su tutti, la soggettività della responsabilità penale) e adeguato a tutelare imprese e cittadini dinnanzi ai rischi emergenti dell’intelligenza artificiale. Da più parti è stato evidenziato e condiviso che un sistema basato sulla responsabilità penale oggettiva, in ambito economico, potrebbe risultare addirittura controproducente, in quanto sarebbe sempre possibile effettuare in anticipo una valutazione del rapporto costi/benefici per decidere se adempiere o meno alle prescrizioni di legge.
Panel II:
Il secondo panel dell’incontro ha riguardato i profili di vigilanza e regolamentari dell’intelligenza artificiale.
Con la moderazione della professoressa Paola Lucantoni (Diritto dei mercati finanziari, Università Tor Vergata), sono intervenuti il prof. Filippo Annunziata (Diritto dei mercati finanziari, Università Bocconi); la dott.ssa Giulia Schneider (ricercatrice presso l’Università Cattolica di Milano); l’avv. Guido Scorza (Componente del Collegio del Garante della Privacy) e l’avv. Gaetana Natale (Avvocatura dello Stato).
Anche in questa occasione numerosi sono stati i temi affrontati, dalle notevoli implicazioni per il prossimo futuro.
Su tutte, le ampie considerazioni sul “pacchetto” di normative in corso di approvazione in ambito europeo sull’intelligenza artificiale – composto dall’Artificial Intelligence Act, la Artificial Intelligence Liability Directive e la rinnovata Product Liability Directive – sono state ragguardevoli.
È stato evidenziato che, nonostante il legislatore europeo abbia bruciato tutte le tappe tentare di arrivare in tempi celeri all’approvazioni di tali normative, esse nasceranno già “vecchie”, in virtù della velocità – esponenziale, irraggiungibile – del progresso tecnologico nell’ambito dell’intelligenza artificiale di cui tutti siamo testimoni.
Per fare un esempio, quando è iniziato il procedimento di consultazione pubblica sull’Artificial Intelligence Act – si parla “solamente” del febbraio 2020 – i sistemi di intelligenza artificiale di tipo generativo non ancora di uso e dominio pubblico, sicché la normativa nulla dispone a riguardo.
A distanza di soli tre anni, applicativi come Chat GPT, Midjourney, Bard e tanti altri sono diventati strumenti di uso comune in molti ambiti, anche in quello professionale, ed argomenti ben noti alle masse: questo fotografa icasticamente il dinamismo del settore.
La conversazione è poi virata sul tema dei mercati bancari e finanziari, ove la sperimentazione delle nuove tecnologie algoritmiche complesse e di intelligenza artificiale è già da tempo realtà – si pensi, ad esempio, a fenomeni come il già citato High Frequency Trading, la Robo-Advice e le Criptocurrencies – e nei quali contesti se ne farà sempre più uso: un esempio per tutti, nell’ambito della valutazione del merito creditizio di investitori e prenditori.
Panel III:
Il convegno si è poi avviato verso la conclusione con il terzo panel, in cui hanno preso la parola i ricercatori Giuseppe Proietti, Lorenzo Locci e Rosanna Magliano, i quali hanno esposto alla platea i loro progetti di ricerca nell’ambito del diritto dell’intelligenza artificiale, cui poi sono seguiti i saluti del professor Raffaele Lener (Diritto commerciale, Università Tor Vergata).
L’ultima riflessione con la quale i relatori hanno congedato la platea ha riguardato le sfide aperte per il giurista “del domani”, che sarà chiamato a doversi interfacciare – indossando le tradizionali vesti delle professioni forensi – con tutte queste nuove tecnologie.
La formazione del giurista “del domani” non potrà infatti prescindere dalla conoscenza quantomeno rudimentale della computer science, in quando dovrà essere in grado di comprendere appieno la disciplina informatica, l’intelligenza artificiale e le nuove tecnologie che emergeranno nel futuro (sempre più) prossimo.
L’auspicio rivolto agli astanti dai relatori è stato quello di vedere sempre più giovani professionisti e ricercatori raccolgano l’onere e l’onore di rendersi interpreti nell’ambito del diritto della rivoluzione tecnologica a cui tutti stiamo assistendo.
Link Utili:
Per la consultazione integrale del Quaderno CONSOB, si rimanda al seguente link:
Per rimanere aggiornati sull’iter di approvazione dell’Artificial Intelligence Act si rimanda al seguente link:
Per rimanere aggiornati sull’iter di approvazione dell’Artificial Intelligence Liability Directive si rimanda al seguente link:
Per rimanere aggiornati sull’iter di approvazione della rinnovata Product Liability Directive si rimanda al seguente link: