Legge sull’IA, Butti: “Benefici tangibili e certezza a chi investe. Così L'Italia punta a competere nelle filiere strategiche”
Il Sottosegretario di Stato alla Presidenza del Consiglio: “La legge si traduce in progetti, risultati misurabili e benefici concreti per cittadini e imprese”
Il Sottosegretario alla Presidenza del Consiglio per l'Innovazione Alessio Butti
Legge sull’AI, Butti ad Affaritaliani: “Vogliamo garantire benefici tangibili e dare certezza agli investitori”
È tornato al centro del dibattito pubblico il tema dell’intelligenza artificiale, soprattutto dopo l’approvazione a Palazzo Madama del disegno di legge delega sull’AI, lo scorso giovedì.
Ad illustrare meglio gli obiettivi principali della normativa, nonché le principali sfide affrontate nel processo di approvazione è Alessio Butti, Sottosegretario di Stato alla Presidenza del Consiglio dei Ministri che - ai microfoni di Affaritaliani – dichiara con fermezza: “Vogliamo offrire certezza regolatoria a chi investe, promuovendo filiere strategiche dove l’Italia può competere”.
Quali sono state le tappe principali e le sfide affrontate nel percorso che ha portato all’approvazione della legge delega sull’intelligenza artificiale, e quali sono stati i fattori decisivi per il raggiungimento di questo importante traguardo?
“Siamo partiti da un principio semplice: integrare pienamente l’AI Act europeo e costruire una cornice nazionale coerente. Abbiamo definito sin dall’inizio i capisaldi — centralità della persona, trasparenza, responsabilità umana, sicurezza e accessibilità — traducendoli in indirizzi settoriali per sanità, lavoro, PA, giustizia, scuola e sport. D’altronde, abbiamo maturato anche una grande esperienza dalla presidenza G7 dello scorso anno.
In particolar modo, lato AI, le due ministeriali che ho presieduto a Trento e Cernobbio sono state una straordinaria occasione di confronto con gli altri paesi e gli stakeholder. La sfida maggiore è stata armonizzare ciò che l’Europa stabilisce con le competenze tipicamente nazionali, evitando duplicazioni e sovrapposizioni”.
Quali sono gli obiettivi principali che il Governo Meloni intende raggiungere con questa normativa sull’AI?
“L’obiettivo è governare l’adozione dell’IA con benefici tangibili per crescita, produttività e diritti dei cittadini. Vogliamo offrire certezza regolatoria a chi investe, promuovendo filiere strategiche dove l’Italia può competere — manifattura avanzata, salute digitale, PA, giustizia, istruzione, sport e cultura — con standard chiari su qualità, sicurezza e tracciabilità dei sistemi.
Centrale la responsabilità umana nelle decisioni finali, per fare in modo che la AI sia un potenziamento delle nostre capacità e non qualcosa che inizia e finisce al di fuori del nostro controllo. Infine, istituiamo un ciclo di policy continuo: strategia biennale, monitoraggio annuale e aggiustamenti rapidi quando servono. Se proprio dovessi sintetizzare tutto in una frase: innovazione utile, sicura, verificabile e orientata all’economia reale”.
La legge pone molta enfasi su sicurezza e tutela dei cittadini, ad esempio contro i rischi dei deepfake. Come pensa che questi strumenti potranno proteggere realmente le persone?
“Sul fronte deepfake, la strategia combina prevenzione, precisa modulazione di aggravanti e contrasto culturale. Non intendiamo fare sconti a chi usa manipolazioni a fini di truffa, diffamazione o disinformazione. Ma la sicurezza è anche cultura: programmi di alfabetizzazione mediatica, linee guida per le PA, strumenti per cittadini e imprese per riconoscere e segnalare contenuti sospetti. L’insieme di regole, controlli, tecnologia e formazione rende la tutela concreta, non solo dichiarata. In questo senso, sarà molto importante anche il lavoro sui decreti attuativi”.
Il testo prevede l’istituzione di un Osservatorio sull’adozione dell’AI nel mondo del lavoro. Quali saranno le priorità di questo organismo e come influenzerà le politiche del lavoro?
“L’Osservatorio avrà una missione chiara: misurare gli impatti reali dell’IA sull’occupazione, sulla qualità del lavoro e sulla sicurezza. Sosterrà programmi di reskilling e upskilling, con particolare attenzione alle competenze digitali e alla sicurezza informatica, e diffonderà buone pratiche replicabili nelle PMI. L’Osservatorio, insomma, non sarà un centro studi, ma un ingranaggio della policy: dati per decidere meglio, accompagnare la trasformazione organizzativa e migliorare la sicurezza anche nei lavori dove i rischi per la salute sono più consistenti. Penso, ad esempio, ai cantieri”.
Quali sfide restano ancora aperte per la piena attuazione di questa legge e quali passi successivi sono previsti per rafforzare la strategia italiana sull’Intelligenza artificiale?
“La prima sfida è la velocità dell’attuazione, in particolar modo attraverso i decreti. I prossimi passi sono già tracciati: aggiornamento biennale della Strategia, monitoraggio annuale al Parlamento, attivazione rapida del programma di investimenti e raccordo stabile con Regioni, università e centri di ricerca. Così la legge si traduce in progetti, risultati misurabili e benefici concreti per cittadini e imprese. Questa tipo di impostazione data driven ci consente anche correzioni di rotta quando i dati lo suggeriscono”.
Le opposizioni hanno criticato la legge per l’assenza di fondi adeguati e un controllo governativo troppo centralizzato sull’AI. Come risponde a queste critiche?
“Rispondo con due punti. Sul tema risorse: abbiamo scelto un approccio selettivo e non finanziamenti a “pioggia”. Tuttavia, si tratta di fondi che ci pongono saldamente sul podio europeo. L’intervento pubblico serve anche da starter per mobilitare capitale privato, concentrare gli sforzi su dataset di qualità, infrastrutture, trasferimento tecnologico e casi d’uso ad alto impatto misurabile. Sul tema governance: la legge affida funzioni ad agenzie tecniche, non a strutture politiche, proprio per garantire equilibrio nella vigilanza e promozione.
Le autorità indipendenti mantengono le loro competenze e i meccanismi di coordinamento evitano sovrapposizioni. D’altronde, vale la pena ricordare che la Spagna ha fatto la stessa scelta affidando la materia all’AESIA (Agencia Española de Supervisión de la Inteligencia Artificial), che è un’agenzia governativa”.