Andrea Boscaro
Divulgatore esperto di Intelligenza artificiale - Partner The Vortexdi Andrea Boscaro
Divulgatore esperto di Intelligenza artificiale
Partner The Vortex
Tra i pilastri più rilevanti della nuova legge italiana sull’intelligenza artificiale, approvata in via definitiva dal Parlamento, c’è il riconoscimento del diritto dei cittadini alla trasparenza. Ogni persona coinvolta in un processo decisionale supportato da sistemi di intelligenza artificiale dovrà essere messa nella condizione di sapere quando, come e in che misura questi strumenti sono stati utilizzati. Un principio fondamentale, pensato per rafforzare fiducia e controllo democratico, che impone alle organizzazioni, pubbliche e private, un cambio di passo.
Le imprese e gli enti che adottano soluzioni basate su IA dovranno quindi fornire informazioni accessibili e comprensibili sul livello di automazione dei processi, sull’origine dei dati utilizzati, sulle logiche che guidano i sistemi e sui loro limiti. In settori sensibili come sanità, giustizia, selezione del personale o consulenza legale, sarà necessario chiarire il grado di intervento umano e il ruolo dell’algoritmo. La formulazione di un parere da parte di uno studio legale, il processo di selezione del personale da parte di un'azienda, l'analisi di un centro diagnostico dovranno dunque dare indicazioni sul ruolo dell’automazione nel processo decisionale così che il cliente o il paziente che si avvalgono di tali servizi dovranno essere posti nelle condizioni di conoscere il grado di automazione, la fonte dei dati, le logiche di funzionamento e i limiti del sistema (Art. 4, comma 3): i cittadini non potranno però opporvisi se non per ragioni legato all’utilizzo dei loro dati personali. Sarà in ogni caso importante comprendere con quali modalità pratiche tale comunicazione di trasparenza dovrà essere veicolata.
La legge si inserisce in un contesto europeo in evoluzione: pur nascendo in un momento precedente all’approvazione dell’AI Act comunitario, ha l’obiettivo di costruire un quadro di riferimento ispirato ai valori fondamentali condivisi: il provvedimento fornisce una base giuridica utile per orientare le politiche pubbliche e le scelte aziendali, in attesa dei decreti attuativi che ne definiranno l’applicazione concreta. È un punto di partenza che, pur non esaurendo tutti gli aspetti operativi, stabilisce con chiarezza la direzione da intraprendere.
Accanto al principio di trasparenza, un altro aspetto cardine è il divieto di affidare completamente alle macchine le decisioni che abbiano impatti significativi sulla vita delle persone. In ogni fase di analisi o valutazione, dovrà essere garantita la presenza di un intervento umano responsabile, tracciabile e documentabile. Le imprese saranno chiamate a istituire meccanismi di verifica e controllo, e a conservare evidenze chiare dei passaggi più rilevanti, così da dimostrare la correttezza del processo seguito. La legge sottolinea anche la necessità, per tutte le organizzazioni, di monitorare la qualità delle soluzioni digitali fornite da partner e vendor. Sarà fondamentale chiedere ai fornitori prove di conformità a standard minimi in termini di sicurezza informatica, accuratezza dei risultati, tutela dei dati personali, assenza di pregiudizi nei risultati, tracciabilità delle operazioni.
Questi requisiti intervengono su uno dei grandi limiti in merito alla spiegabilità dei risultati prodotti da parte dell’Intelligenza Artificiale Generativa. Mentre gli algoritmi classici sono strutture logiche i cui fattori sono determinati ex ante ed ogni operazione è dunque tracciabile, spiegabile e verificabile, i modelli linguistici sono reti neurali addestrate su enormi volumi di dati. Non funzionano con regole rigide, ma con previsioni statistiche. Le loro risposte possono variare a seconda del contesto e non sempre è possibile spiegare in modo chiaro perché abbiano fornito un determinato output. Di conseguenza, la trasparenza richiede approcci diversi: documentazione tecnica dei modelli, segnalazioni visibili all’utente quando un contenuto è generato da IA, logiche di auditing ex post, supervisione umana nei processi critici.
Nel settore sanitario, il testo normativo introduce una possibilità importante per la ricerca: sarà consentito l’uso di dati, anche in assenza di consenso esplicito dell’interessato, purché anonimizzati e previa approvazione dei comitati etici e notifica al Garante. Questa disposizione, pensata per accelerare lo sviluppo di strumenti diagnostici e terapeutici innovativi, dovrà comunque confrontarsi con i futuri requisiti europei sul trattamento dei dati.
Per quanto riguarda il diritto d’autore, viene stabilito che un contenuto generato con il supporto dell’IA potrà essere tutelato solo se è possibile dimostrare un contributo creativo umano rilevante. Si apre qui un interessante dibattito su come misurare questa creatività e su chi sia legittimato a esercitare i diritti d’autore in caso di utilizzo prolungato di contenuti generati con dati aziendali o materiali prodotti da ex collaboratori.
Sebbene molti aspetti operativi saranno chiariti nei prossimi 12 mesi con i decreti attuativi, la legge rappresenta un’opportunità per avviare una strategia nazionale sul tema dell’IA, coerente con i valori costituzionali e le esigenze di competitività tecnologica. La dotazione economica prevista, un miliardo di euro, pone l’Italia in una posizione significativa nel panorama europeo, pur se con margini di crescita rispetto a quanto già investito in altri Paesi.
La nuova legge sull’IA fornisce una base normativa utile per guidare le trasformazioni in atto, mettendo al centro trasparenza, controllo umano e responsabilità. In attesa dei provvedimenti attuativi, rappresenta un’occasione per tutte le organizzazioni, pubbliche e private, di avviare un percorso di consapevolezza e preparazione.
31 Mar 2026
31 Mar 2026
12 Gen 2026
12 Gen 2026
26 Ott 2025
14 Ott 2025
14 Ott 2025
14 Set 2025
14 Set 2025