Tempo di lettura stimato: 7'
“La legge italiana sull’intelligenza artificiale appena approvata consegna il controllo dell’IA direttamente al Governo. Le autorità incaricate di regolare l’intelligenza artificiale sono affiliate al Governo. Non sono stati previsti meccanismi di difesa dagli errori dei sistemi di IA.
Cosa aspettarsi dal futuro? Tentativi sempre più pressanti di implementare la sorveglianza biometrica e possibili abusi delle tecnologie IA per controllare la vita pubblica dei cittadini” denuncia la Rete per i Diritti Umani Digitali, coalizione di organizzazioni della società civile formata da The Good Lobby, Amnesty International Italia, Hermes Center, Period Think Tank, Privacy Network e Strali.
Ieri, 17 settembre 2025, è stata approvata la prima legge organica italiana sull’intelligenza artificiale. Avrebbe dovuto rappresentare il pilastro sul quale costruire un’era normativa, invece si è rivelata un’occasione persa.
Oltre un anno di lavori parlamentari, tre votazioni, per una legge priva di sostanza, con pericolosi vuoti normativi in materia di tutela dei diritti umani. Accanto a un mucchietto di petizioni di principio, infatti, la legge delega approvata oggi in Senato pone le basi legali per i futuri decreti securitari del Governo.
Secondo la Rete, sono tre i fronti che hanno prodotto maggiore delusione.
Nessuna autorità indipendente, ma una governance affiliata al governo. Al contrario di quanto previsto dal Regolamento europeo per l’IA, non sarà istituita alcuna autorità indipendente per l’IA. Tale ipotesi è stata respinta in favore di un controllo diretto dell’esecutivo, che sarà effettuato per mezzo di agenzie governative i cui vertici sono nominati dal governo stesso (AGID e ACN).
Ci siamo opposti con tutte le nostre forze a qualsiasi affiliazione politica della governance per l’intelligenza artificiale. Con due agenzie governative al posto dell’autorità indipendente non possiamo che aspettarci indebite influenze sui finanziamenti e sugli indirizzi politici in materia di IA. Si sacrifica in tal modo la prospettiva di un’IA in grado di generare fiducia nella cittadinanza, avvalorando al contrario la sensazione di poter essere sottoposti a sorveglianza di massa e a sfruttamento dei propri dati dichiara Laura Ferrari, responsabile relazioni istituzionali della Rete per i Diritti Umani Digitali.
Nessuno strumento di ricorso per rendere effettivo il diritto alla spiegazione. È stata respinta la proposta emendativa avanzata dal Partito Democratico, Alleanza Verdi e Sinistra e Movimento5stelle, che avrebbe assegnato al Garante per la protezione dei dati personali il compito di tutelare il “diritto alla spiegazione” di chi ritiene di aver subito una violazione dei propri diritti umani (come il diritto alla salute, alla non discriminazione, alla libertà di opinione ed espressione) a causa di un sistema di intelligenza artificiale. L’AI Act prevede che gli Stati adottino un meccanismo di ricorso, alternativo al giudice, che consenta alle persone di ottenere chiarimenti su come è stata presa una decisione automatizzata. Tuttavia, il fatto che la Legge italiana sull’IA non preveda tale strumento, riduce concretamente le opportunità di tutela previste dal regolamento europeo, penalizzando cittadine, cittadini ed organizzazioni impegnate nella difesa dei diritti umani.
Nessuna regolamentazione degli utilizzi dell’IA a scopo di identificazione biometrica: d’ora in poi sarà tutto nelle mani del governo. Nessuna garanzia nemmeno sul fronte dell’utilizzo dell’IA a scopo di riconoscimento facciale. Un pericoloso vuoto normativo, che potrebbe inaugurare una stagione di sorveglianza biometrica senza regole. Nonostante la strenua lotta condotta dalla Rete per chiedere il divieto dell’utilizzo del riconoscimento biometrico negli spazi aperti al pubblico, e numerosi e significativi emendamenti proposti dalle opposizioni in tal senso, la maggioranza parlamentare ha deliberatamente scelto di non disciplinare la materia, ostacolando il dibattito parlamentare. Si lascia quindi mano libera all’esecutivo di proseguire con il suo ambizioso progetto di sorveglianza biometrica negli stadi italiani, che potrebbe estendersi anche ad altri luoghi della vita pubblica, come piazze, stazioni, supermercati, cinema e ospedali.
In questo contesto, bisogna ricordare la legge che ha convertito il DL Sicurezza, che ha introdotto l’uso delle body-cam da parte delle forze di polizia senza richiamare espressamente l’opinione del Garante per la protezione dei dati personali in merito alle modalità di conservazione dei dati e alle finalità d’uso dei dispositivi. In assenza di una norma che sancisca queste tutele, e di codici identificativi univoci per gli agenti in servizio, ogni persona ripresa potrebbe correre il rischio di essere analizzata, identificata e schedata, anche a distanza di tempo, se ritenuta “rilevante” per un’indagine. Questo approccio espone ogni persona al rischio di sorveglianza generalizzata, con gravi conseguenze per le libertà di espressione, manifestazione e partecipazione alla vita pubblica.
A ciò si aggiunge il fatto che tutti gli emendamenti volti a introdurre obblighi di trasparenza (come report periodici sull’uso dei sistemi biometrici e sulla percentuale di errore dei sistemi di riconoscimento in dotazione alle forze di polizia) sono stati bocciati in tutte le tre fasi di votazione.
“La legge sull’Intelligenza artificiale approvata oggi dal Parlamento conferisce un potere eccessivo al governo, senza adeguati contrappesi democratici: temiamo importanti risvolti securitari, che ci aspettiamo già nei prossimi mesi, a partire proprio dalla sorveglianza biometrica”, denuncia Laura Ferrari, della Rete per i Diritti Umani Digitali.