IA, dalla stretta sui chatbot all'emergenza deepfake: perchè la Cina sta facendo passi avanti su regolamentazione (e non solo) - Affaritaliani.it

Economia

Ultimo aggiornamento: 14:48

IA, dalla stretta sui chatbot all'emergenza deepfake: perchè la Cina sta facendo passi avanti su regolamentazione (e non solo)

Da un lato l'IA Act e dall'altro la nuova regolamentazione cinese in tema di chatbot: come procede la "corsa" all'intelligenza artificiale tra Bruxelles e Pechino? Facciamo il punto con Giuseppe Vaciago, avvocato di 42 Law Firm

di Marta Barbera

Intelligenza artificiale, regolamentazione e chatbot: intervista all'avvocato Giuseppe Vaciago di 42 Law Firm 

Mentre l’Unione europea sembrerebbe rivedere al ribasso l’AI Act con il Digital Omnibus, rischiando di rinviare e indebolire le tutele sui sistemi di intelligenza artificiale, la Cina si sta muovendo nella direzione opposta: rafforza il controllo normativo sui chatbot, imponendo limiti stringenti su contenuti, interazioni emotive e comportamento degli utenti. Due modelli, apparentemente agli antipodi, che pongono però una questione centrale: come bilanciare innovazione, diritti fondamentali e responsabilità delle imprese nell’era dell’IA? Per capirne di più, Affaritaliani ha interpellato Giuseppe Vaciago, avvocato esperto in diritto penale, societario e delle nuove tecnologie dello studio 42 Law Firm.

Con il Digital Omnibus l’Europa sta davvero semplificando le regole o sta rinunciando al ruolo di garante dei diritti nell’uso dell’IA?

Il Digital Omnibus nasce con l’obiettivo dichiarato di semplificare la normativa digitale, integrando norme su privacy e protezione dei dati, con particolare attenzione al GDPR, il General Data protection Regulation, ovvero il regolamento dell'Unione Europea sulla protezione dei dati personali, entrato in vigore nel 2018, che stabilisce regole uniformi per la raccolta e il trattamento dei dati di cittadini, garantendo maggiore controllo, trasparenza e diritti (come l'accesso e l'oblio) e imponendo obblighi rigorosi alle aziende, anche extra Ue, che trattano tali dati, con l'obiettivo di proteggere privacy e libertà individuali. Di contro, però, ha avuto l’effetto di rallentare i passaggi applicativi dell’AI Act.

Modifiche che generano effetti concreti su imprese e cittadini? 

In un certo senso sì, perchè il rischio in questi mesi è quello di trovarsi di fronte ad un vuoto normativo temporaneo che da un lato non tutela chi aveva già adempiuto agli obblighi formativi, e dall'altro indebolisce la responsabilità legale delle imprese. Per i cittadini invece questo rallentamento significa minori garanzie, in questo momento, rispetto ai sistemi di IA ad alto rischio, soprattutto in settori come sanità, finanza o pubblica amministrazione, dove gli algoritmi possono influire su decisioni critiche. La semplificazione non può prescindere dal rispetto del GDPR, e ogni scelta deve conciliare innovazione tecnologica e protezione dei dati.

In Cina, invece, sono state introdotte norme più stringenti per i chatbot. Quali sono i principi e gli ambiti di applicazione?

La Cyberspace Administration of China ha pubblicato una bozza di regolamento che introduce norme stringenti per limitare l’influenza emotiva dei chatbot basati su intelligenza artificiale, con l’obiettivo di ridurre rischi quali suicidio, autolesionismo, abuso emotivo e gioco d’azzardo. Queste misure fanno parte di un più ampio quadro di controllo dell’IA in Cina e rimarranno aperte a commenti pubblici fino al 25 gennaio 2026. Le regole si applicano ai servizi di IA interattivi “simili a quelli umani”, ossia sistemi capaci di simulare una personalità e instaurare relazioni emotive con gli utenti attraverso testo, immagini, audio o video. In particolare, i chatbot non possono generare contenuti che incoraggino il suicidio o l’autolesionismo, la violenza verbale o qualsiasi forma di manipolazione emotiva dannosa per la salute mentale. Sono inoltre vietati contenuti legati al gioco d’azzardo, a scene oscene o violente.

In caso di rischio immediato per l’utente, come l’espressione di intenzioni suicidarie, è previsto un intervento umano obbligatorio: la piattaforma deve garantire che un operatore prenda immediatamente il controllo della conversazione e contatti il tutore o un referente dell’utente. Per i servizi di “compagnia emotiva” destinati a minorenni, il regolamento stabilisce l’obbligo del consenso da parte di un tutore, limiti di tempo di utilizzo e strumenti per identificare gli utenti anche quando l’età non è resa esplicita. Inoltre, le piattaforme con un numero significativo di utenti devono inviare promemoria dopo periodi prolungati di interazione, ad esempio due ore consecutive, e sottoporsi a valutazioni di sicurezza e controlli periodici. Sebbene queste misure comportino complessità gestionali e costi elevati, garantiscono trasparenza, responsabilità immediata e una protezione diretta degli utenti.

Ritiene che il modello cinese sia efficace o costituisca un eccesso di controllo statale?

Da una parte è certamente vero che il modello cinese si basa su un controllo preventivo rigoroso, coerente con la struttura sociale e politica della Repubblica popolare, diversa dalle democrazie occidentali in cui viviamo, dall'altro però il Paese si è reso conto che deve fare i conti con l'emergenza dei deepfake, contenuti audio, video o immagini manipolati tramite intelligenza artificiale e poi diffusi in rete. L'obiettivo è infatti quello di proteggere la salute emotiva dei cittadini, evitando il più possibile il raggiungimento di casi estremi (come il suicidio). Per questo limiti di tempo d’uso, intervento umano obbligatorio, tutela dei minori e controlli periodici contribuiscono a rendere il sistema molto più vincolante, garantendo uno standard di trasparenza, responsabilità immediata e protezione diretta degli utenti.

Tra una Cina che guarda avanti e un'Europa in fase di rallentamento, secondo Lei quale modello ha più chance di "imporsi" a livello globale? 

Sempre all’interno del proprio contesto politico e sociale, differente rispetto al nostro, la Cina sta perseguendo una strategia chiara e coerente nel campo dell’intelligenza artificiale, affiancando allo sviluppo industriale un percorso regolatorio tempestivo, con l’obiettivo di consolidare il proprio posizionamento competitivo nei servizi di IA. Questa impostazione non mira soltanto a rafforzare il mercato interno, ma anche a creare le condizioni per l’esportazione dei propri modelli e delle proprie soluzioni tecnologiche su scala globale, inclusi mercati complessi come quello europeo. Dal mio punto di vista, naturalmente esterno alle istituzioni, auspico che questa scelta possa rappresentare anche un segnale per l’Europa: la dimostrazione che regolamentazione e innovazione possono avanzare in modo coordinato e che un quadro normativo chiaro e applicabile può diventare un fattore abilitante per l’ecosistema, piuttosto che un elemento di freno allo sviluppo.

LEGGI LE NOTIZIE DI ECONOMIA