Andrea Boscaro

Divulgatore esperto di Intelligenza artificiale - Partner The Vortex

La legge italiana sull'AI

tempo di lettura: 4 min
Business
Foto di Tara Winstead: https://www.pexels.com/it-it/foto/mano-dito-futuro-robot-8386440/

Trasparenza, spiegabilità, diritto d’autore: le tre questioni aperte della Legge italiana sull’Intelligenza Artificiale

In questo articolo Andrea Boscaro, partner di The Vortex ed esperto di AI, offre un’esauriente panoramica sulla legge italiana sull’Intelligenza artificiale recentemente approvata in via definitiva dal Parlamento. Le zone d’ombra, tuttora in via di chiarimento e di definizione non mancano, ma emergono chiaramente alcuni capisaldi - trasparenza, controllo umano e responsabilità - che aziende e pubblica amministrazione saranno chiamati a rispettare.  

di Andrea Boscaro
Divulgatore esperto di Intelligenza artificiale
Partner The Vortex


Tra i pilastri più rilevanti della nuova legge italiana sull’intelligenza artificiale, approvata in via definitiva dal Parlamento, c’è il riconoscimento del diritto dei cittadini alla trasparenza. Ogni persona coinvolta in un processo decisionale supportato da sistemi di intelligenza artificiale dovrà essere messa nella condizione di sapere quando, come e in che misura questi strumenti sono stati utilizzati. Un principio fondamentale, pensato per rafforzare fiducia e controllo democratico, che impone alle organizzazioni, pubbliche e private, un cambio di passo. 

Le imprese e gli enti che adottano soluzioni basate su IA dovranno quindi fornire informazioni accessibili e comprensibili sul livello di automazione dei processi, sull’origine dei dati utilizzati, sulle logiche che guidano i sistemi e sui loro limiti. In settori sensibili come sanità, giustizia, selezione del personale o consulenza legale, sarà necessario chiarire il grado di intervento umano e il ruolo dell’algoritmo. La formulazione di un parere da parte di uno studio legale, il processo di selezione del personale da parte di un'azienda, l'analisi di un centro diagnostico dovranno dunque dare indicazioni sul ruolo dell’automazione nel processo decisionale così che il cliente o il paziente che si avvalgono di tali servizi dovranno essere posti nelle condizioni di conoscere il grado di automazione, la fonte dei dati, le logiche di funzionamento e i limiti del sistema (Art. 4, comma 3): i cittadini non potranno però opporvisi se non per ragioni legato all’utilizzo dei loro dati personali. Sarà in ogni caso importante comprendere con quali modalità pratiche tale comunicazione di trasparenza dovrà essere veicolata. 

La legge si inserisce in un contesto europeo in evoluzione: pur nascendo in un momento precedente all’approvazione dell’AI Act comunitario, ha l’obiettivo di costruire un quadro di riferimento ispirato ai valori fondamentali condivisi: il provvedimento fornisce una base giuridica utile per orientare le politiche pubbliche e le scelte aziendali, in attesa dei decreti attuativi che ne definiranno l’applicazione concreta. È un punto di partenza che, pur non esaurendo tutti gli aspetti operativi, stabilisce con chiarezza la direzione da intraprendere. 

Accanto al principio di trasparenza, un altro aspetto cardine è il divieto di affidare completamente alle macchine le decisioni che abbiano impatti significativi sulla vita delle persone. In ogni fase di analisi o valutazione, dovrà essere garantita la presenza di un intervento umano responsabile, tracciabile e documentabile. Le imprese saranno chiamate a istituire meccanismi di verifica e controllo, e a conservare evidenze chiare dei passaggi più rilevanti, così da dimostrare la correttezza del processo seguito. La legge sottolinea anche la necessità, per tutte le organizzazioni, di monitorare la qualità delle soluzioni digitali fornite da partner e vendor. Sarà fondamentale chiedere ai fornitori prove di conformità a standard minimi in termini di sicurezza informatica, accuratezza dei risultati, tutela dei dati personali, assenza di pregiudizi nei risultati, tracciabilità delle operazioni. 

Questi requisiti intervengono su uno dei grandi limiti in merito alla spiegabilità dei risultati prodotti da parte dell’Intelligenza Artificiale Generativa. Mentre gli algoritmi classici sono strutture logiche i cui fattori sono determinati ex ante ed ogni operazione è dunque tracciabile, spiegabile e verificabile, i modelli linguistici sono reti neurali addestrate su enormi volumi di dati. Non funzionano con regole rigide, ma con previsioni statistiche. Le loro risposte possono variare a seconda del contesto e non sempre è possibile spiegare in modo chiaro perché abbiano fornito un determinato output. Di conseguenza, la trasparenza richiede approcci diversi: documentazione tecnica dei modelli, segnalazioni visibili all’utente quando un contenuto è generato da IA, logiche di auditing ex post, supervisione umana nei processi critici. 

Nel settore sanitario, il testo normativo introduce una possibilità importante per la ricerca: sarà consentito l’uso di dati, anche in assenza di consenso esplicito dell’interessato, purché anonimizzati e previa approvazione dei comitati etici e notifica al Garante. Questa disposizione, pensata per accelerare lo sviluppo di strumenti diagnostici e terapeutici innovativi, dovrà comunque confrontarsi con i futuri requisiti europei sul trattamento dei dati. 

Per quanto riguarda il diritto d’autore, viene stabilito che un contenuto generato con il supporto dell’IA potrà essere tutelato solo se è possibile dimostrare un contributo creativo umano rilevante. Si apre qui un interessante dibattito su come misurare questa creatività e su chi sia legittimato a esercitare i diritti d’autore in caso di utilizzo prolungato di contenuti generati con dati aziendali o materiali prodotti da ex collaboratori. 

Sebbene molti aspetti operativi saranno chiariti nei prossimi 12 mesi con i decreti attuativi, la legge rappresenta un’opportunità per avviare una strategia nazionale sul tema dell’IA, coerente con i valori costituzionali e le esigenze di competitività tecnologica. La dotazione economica prevista, un miliardo di euro, pone l’Italia in una posizione significativa nel panorama europeo, pur se con margini di crescita rispetto a quanto già investito in altri Paesi. 

La nuova legge sull’IA fornisce una base normativa utile per guidare le trasformazioni in atto, mettendo al centro trasparenza, controllo umano e responsabilità. In attesa dei provvedimenti attuativi, rappresenta un’occasione per tutte le organizzazioni, pubbliche e private, di avviare un percorso di consapevolezza e preparazione. 

Scopri il blog PalindromAI

Il Business Integrity Forum è un gruppo di lavoro che riunisce alcune aziende del settore privato italiano impegnate nella promozione della trasparenza e dell’integrità nel business. Inoltre, il Forum supporta le piccole e medie imprese attraverso strumenti utili a favorire processi più trasparenti e responsabili.

In occasione dei dieci anni del Forum nasce il blog PalindromAI dedicato alle opportunità e ai rischi dell'Intelligenza Artificiale (AI) in tema di Anticorruzione e Integrità (IA).
Iscriviti alla newsletter
Transparency International Italia
  • P.le Carlo Maciachini 11 - 20159 Milano
  • +39 02 40093560
  • Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.
  • CF 97186250151
© 2020 Transparency International Italia