Legge italiana sull'IA, la Rete per i Diritti Umani Digitali: "scenari da sorveglianza di massa"

Laura Ferrari, responsabile delle relazioni istituzionali della rete: "In futuro possibili abusi dell'AI per controllare la vita pubblica dei cittadini"

Home

Legge italiana sull'IA, la Rete per i Diritti Umani Digitali: "scenari da sorveglianza di massa"

Ieri è stata approvata la prima legge organica italiana sull’intelligenza artificiale. Questa legge è figlia di un lungo iter, ha subito oltre un anno di lavori parlamentari e tre votazioni, e non ha convinto la Rete per i Diritti Umani Digitali, coalizione di organizzazioni della società civile formata da The Good Lobby, Amnesty International Italia, Hermes Center, Period Think Tank, Privacy Network e Strali che commenta così: “La legge italiana sull’intelligenza artificiale appena approvata consegna il controllo dell’IA direttamente al Governo. Le autorità incaricate di regolare l’intelligenza artificiale sono affiliate al Governo. Non sono stati previsti meccanismi di difesa dagli errori dei sistemi di IA. Cosa aspettarsi dal futuro? Tentativi sempre più pressanti di implementare la sorveglianza biometrica e possibili abusi delle tecnologie IA per controllare la vita pubblica dei cittadini”.

I tre difetti della legge sull'AI secondo la rete per i diritti umani digitali

Secondo la Rete, sono tre i fronti che hanno prodotto maggiore delusione: Nessuna autorità indipendente, ma una governance affiliata al governo. Dunque, non sarà istituita alcuna autorità indipendente per l’IA. Tale ipotesi è stata respinta in favore di un controllo diretto dell’esecutivo, che sarà effettuato per mezzo di agenzie governative i cui vertici sono nominati dal Governo stesso (AGID e ACN)."Ci siamo opposti con tutte le nostre forze a qualsiasi affiliazione politica della governance per l’intelligenza artificiale. Con due agenzie governative al posto dell’autorità indipendente non possiamo che aspettarci indebite influenze sui finanziamenti e sugli indirizzi politici in materia di IA. Si sacrifica in tal modo la prospettiva di un’ IA in grado di generare fiducia nella cittadinanza, avvalorando al contrario la sensazione di poter essere sottoposti a sorveglianza di massa e a sfruttamento dei propri dati" dichiara Laura Ferrari, responsabile relazioni istituzionali della Rete per i Diritti Umani Digitali.

Ancora, secondo la rete, non è stato introdotto nessuno strumento di ricorso per rendere effettivo il diritto alla spiegazione. È stata respinta la proposta emendativa avanzata dal Partito Democratico, Alleanza Verdi e Sinistra e Movimento5stelle, che avrebbe assegnato al Garante per la protezione dei dati personali il compito di tutelare il “diritto alla spiegazione” di chi ritiene di aver subito una violazione dei propri diritti umani a causa di un sistema di intelligenza artificiale.

Infine, la rete critica l'assenza di alcun tipo di regolamentazione degli utilizzi dell’IA a scopo di identificazione biometrica: d’ora in poi sarà tutto nelle mani del governo. Nessuna garanzia nemmeno sul fronte dell’utilizzo dell’IA a scopo di riconoscimento facciale. Un pericoloso vuoto normativo, che potrebbe inaugurare una stagione di sorveglianza biometrica senza regole. Si lascia quindi mano libera all’esecutivo di proseguire con il suo ambizioso progetto di sorveglianza biometrica negli stadi italiani, che potrebbe estendersi anche ad altri luoghi della vita pubblica.

“La legge sull'Intelligenza artificiale approvata oggi dal Parlamento conferisce un potere eccessivo al Governo, senza adeguati contrappesi democratici: temiamo importanti risvolti securitari, che ci aspettiamo già nei prossimi mesi, a partire proprio dalla sorveglianza biometrica”, denuncia Laura Ferrari, della Rete per i Diritti Umani Digitali.

Tags:
amnesty international italiahermes centerintelligenza artificialelaura ferrariperiod think tankprivacy networkrete per i diritti umani digitalistralithe good lobby