"Ddl IA: così si sostituisce l’uomo? Con la legge, l’intelligenza artificiale resta navigatore, non autista. Ecco cosa cambia per giustizia, PA e professioni" - Affaritaliani.it

Economia

Ultimo aggiornamento: 19:09

"Ddl IA: così si sostituisce l’uomo? Con la legge, l’intelligenza artificiale resta navigatore, non autista. Ecco cosa cambia per giustizia, PA e professioni"

La nuova legge italiana sull’IA assistiva punta a strumenti trasparenti e tracciabili per giustizia, pubblica amministrazione e professioni, ma il nodo resta l'attuazione. L'intervista a Giuseppe Vaciago di 42 LawFirm

di Rosa Nasti

"L’IA come supporto, non come giudice: cosa cambia per giustizia, PA e professioni"

Il Senato ha approvato definitivamente il disegno di legge sull’intelligenza artificiale, aprendo una nuova fase per il diritto italiano: l’IA diventa "assistiva", regolata per essere trasparente, tracciabile e sempre sotto controllo umano. La norma allinea l’Italia al percorso europeo dell’AI Act, con un chiaro obiettivo: promuovere l'innovazione tecnologica senza sacrificare i diritti fondamentali.

Ma per capire davvero le implicazioni concrete su giustizia, pubblica amministrazione e professioni, Affaritaliani ha intervistato l’avvocato Giuseppe Vaciago di 42 LawFirm.

La nuova legge punta su un’IA "assistiva": cosa significa in concreto per giustizia, PA e professioni?

Significa che l’IA entra come strumento che aiuta, ma non decide. Nei tribunali può accelerare attività organizzative e amministrative, senza toccare il cuore della funzione giurisdizionale: interpretazione della norma, valutazione di fatti e prove e decisione restano in mano al magistrato. Nella pubblica amministrazione l’IA serve a ridurre tempi e migliorare servizi, con obbligo di tracciarne l’uso e renderne conoscibili i criteri. Per le professioni intellettuali l’IA è ammessa come supporto operativo e analitico, ma il professionista deve informare il cliente in modo chiaro e comprensibile sull’utilizzo degli strumenti.

Come si può garantire davvero che l’IA resti un supporto e non sostituisca la decisione umana?

Con poche regole pratiche. La decisione finale la firma sempre una persona ben identificata: l’IA propone, l’umano decide. Ogni utilizzo del sistema viene registrato così, se serve, si può ricostruire chi ha fatto cosa e perché. Chi usa l’IA è formato per capire quando fidarsi e quando no. Se il risultato non è chiaro o convince poco, ci si ferma e la scelta la prende l’umano, anche spegnendo o ignorando il suggerimento della macchina. Infine, utenti e clienti vengono informati in modo semplice quando e come è stata usata l’IA. Così l’IA resta un “navigatore”, non l’autista.

Dove vede i principali rischi che un’eccessiva cautela rallenti l’innovazione invece di favorirla?

Tre sono i punti sensibili. Primo, oneri informativi sproporzionati per i professionisti: se la disclosure non è semplice e standardizzata si crea un effetto deterrente all’investimento. Secondo, il rischio di sovrapporre adempimenti nazionali e obblighi dell’AI Act, generando duplicazioni documentali e incertezza interpretativa. Terzo, la frammentazione dei controlli: senza un coordinamento stretto tra autorità, le imprese si trovano a rispondere più volte sugli stessi requisiti, con tempi e costi che disincentivano l’adozione, specialmente nelle PMI.

Quali distorsioni d’uso dell’IA questa legge vuole prevenire con maggiore urgenza?

Le interferenze nel dibattito democratico e la manipolazione informativa, inclusi i deepfake; trattamenti opachi dei dati e discriminazioni, in particolare in sanità e nel lavoro; utilizzi non adeguati nei confronti dei minori; manipolazioni dei mercati tramite sistemi automatizzati. Il filo conduttore è trasparenza, tracciabilità e sicurezza lungo l’intero ciclo di vita dei sistemi, con presìdi penali e amministrativi per le condotte più lesive.

In che modo il DDL italiano si distingue dall’AI Act europeo e porta un contributo originale?

Il DDL non duplica l’AI Act: lo completa su terreni molto concreti. Introduce regole settoriali per sanità, PA, lavoro e giustizia; impone obblighi deontologici nelle professioni, rafforza la governance nazionale designando ruoli chiari alle autorità competenti, prevede un pacchetto penale specifico contro gli abusi e affianca alla regolazione misure di politica industriale e formazione. In sintesi: l’AI Act fissa l’architettura orizzontale basata sul rischio, la legge italiana la traduce in strumenti operativi domestici.

Guardando avanti, questo DDL può diventare un modello di “IA sostenibile” anche fuori dall’Italia?

Può esserlo, a una condizione: l’attuazione deve essere proporzionata, coordinata e prevedibile. Se si adottano modelli standard di disclosure e registri d’uso, sportelli unici per la consulenza regolatoria, sandbox accessibili e un procurement che premi soluzioni conformi, la compliance diventa un moltiplicatore di fiducia e non un freno. È questa la via perché il DDL si trasformi in un blueprint esportabile: centralità umana reale, tutela effettiva dei diritti, ma anche tempi rapidi e incentivi all’adozione che tengano il passo della competizione internazionale.

LEGGI QUI TUTTE LE NEWS DI ECONOMIA