IT


Il Caso.it, Sez. Articoli e Saggi - Data pubblicazione 25/09/2025 Scarica PDF

La legge italiana sull’intelligenza artificiale ai blocchi di partenza: una prima analisi

Simone Pesucci, Avvocato in Firenze


Sommario: 1. Premessa. – 2. Contesto europeo e principi ispiratori. – 3. Quadro normativo e governance nazionale dell’IA. – 4. Principi generali e tutele fondamentali. – 5. Novità introdotte dalla legge italiana. – 6. Ambiti di applicazione e impatti pratici. – 7. Criticità, opportunità e prospettive. – 8. Conclusioni.

   


1. Premessa

La progressiva pervasività dell’intelligenza artificiale in pressoché ogni ambito della vita sociale ed economica – dall’economia alla giustizia, dalla sanità al mondo del lavoro, fino alle dinamiche della comunicazione e della formazione – ha reso ormai ineludibile l’intervento del legislatore. Non si tratta soltanto di predisporre un insieme di regole tecniche, ma di definire un quadro normativo coerente e sistematico, idoneo a orientare i processi innovativi lungo direttrici compatibili con i valori costituzionali e sovranazionali, in particolare la dignità della persona, la tutela dei diritti fondamentali e la salvaguardia del principio democratico.

In questo contesto, il Disegno di legge n. 1146/2024, approvato in via definitiva dal Senato il 17 settembre 2025, segna un passaggio di rilievo nella strategia nazionale di regolazione dell’IA[1]. L’Italia si è infatti posta come paese pioniere a livello europeo, dotandosi di un sistema normativo organico che, pur muovendo dal Regolamento (UE) 2024/1689 – l’AI Act[2] – non si limita a recepirne le prescrizioni, ma le integra, le rafforza e le adatta alle specificità del tessuto istituzionale, sociale e produttivo nazionale.

La scelta legislativa compiuta dal Parlamento non ha un significato meramente tecnico, bensì politico e strategico: risponde all’esigenza di dare tempestive risposte alle opportunità e ai rischi legati all’impiego delle nuove tecnologie, promuovendo un modello di sviluppo digitale che sia antropocentrico, inclusivo e sostenibile. Tale impostazione appare in linea con le principali iniziative internazionali – dalle raccomandazioni OCSE sui sistemi di IA (2019) ai principi etici elaborati dal Consiglio d’Europa e dall’UNESCO – e colloca l’Italia in una posizione di rilievo nel dibattito europeo e globale sulla governance dell’innovazione.

In definitiva, l’adozione della legge sull’intelligenza artificiale del 2025 non rappresenta soltanto un atto di conformità al diritto europeo, ma l’affermazione di una precisa visione: quella di un’IA al servizio della persona e della collettività, capace di conciliare competitività industriale, sicurezza giuridica e garanzia dei diritti.

 

2. Contesto europeo e principi ispiratori

L’entrata in vigore dell’AI Act europeo ha segnato una svolta epocale nel panorama giuridico dell’Unione, introducendo per la prima volta un quadro regolatorio trasversale e direttamente applicabile in tutti gli Stati membri, fondato sul principio della valutazione del rischio dei sistemi di intelligenza artificiale. La logica sottostante è quella di graduare obblighi e prescrizioni in funzione del potenziale impatto dei sistemi sull’individuo e sulla collettività: un modello normativo ispirato alla proporzionalità e alla prevenzione, che riflette il principio di precauzione proprio del diritto europeo.

In tale scenario, l’Italia ha scelto di non limitarsi a un mero adeguamento passivo alle regole comunitarie, ma di adottare un recepimento rafforzato, arricchendo l’impianto europeo[3] con disposizioni che rispecchiano la tradizione giuridica nazionale e le priorità politiche ed economiche interne. La legge si fonda infatti su una serie di principi irrinunciabili, che ne delineano la fisionomia: la centralità della persona e della dignità umana, la tutela dei diritti fondamentali, la trasparenza degli algoritmi, la responsabilità del fornitore e la garanzia di un livello elevato di cybersecurity esteso a tutto il ciclo di vita dei sistemi e dei modelli di IA.

Un profilo di particolare interesse riguarda l’enfasi posta dal legislatore italiano sull’accessibilità universale: la legge sottolinea la necessità di garantire che tutte le categorie di cittadini – e in particolare le persone con disabilità – possano usufruire delle opportunità offerte dalle nuove tecnologie senza discriminazioni né barriere. Questa scelta normativa stabilisce un collegamento diretto con la Convenzione delle Nazioni Unite sui diritti delle persone con disabilità (ratificata con legge 18/2009) e si coordina con la direttiva (UE) 2019/882 sull’accessibilità dei prodotti e dei servizi, mostrando come l’Italia intenda collocarsi tra i Paesi più attenti all’inclusione digitale.

Accanto all’inclusione, spiccano altri valori-cardine: l’autonomia, intesa come salvaguardia della libertà decisionale della persona di fronte a sistemi automatizzati; la responsabilità, che grava in primis sui fornitori e sugli utilizzatori professionali di IA, chiamati a rispondere delle conseguenze delle proprie scelte tecnologiche; la sussidiarietà, che impone allo Stato di presidiare l’innovazione senza soffocarla, intervenendo con regole e controlli solo nella misura necessaria a tutelare interessi superiori.

La legge, inoltre, non si limita a un approccio difensivo, ma si caratterizza per una chiara vocazione proattiva. Oltre a garantire tutele, promuove l’innovazione con misure concrete: il legislatore ha stanziato oltre un miliardo di euro a sostegno di startup e PMI operanti nel settore, consapevole che l’intelligenza artificiale può divenire motore di competitività industriale e di autonomia strategica nazionale. In questo modo, principi etici e diritti fondamentali si intrecciano con finalità di politica industriale, conferendo alla normativa un carattere duale, al tempo stesso garantista e propulsivo.

Infine, il principio di sovranità tecnologica costituisce un ulteriore elemento distintivo: la legge si prefigge di preservare la capacità dello Stato di controllare lo sviluppo dell’IA sul proprio territorio, evitando interferenze illecite e assicurando che il dibattito democratico non venga inquinato dall’azione di sistemi automatizzati non trasparenti o non supervisionati. Si tratta di una presa di posizione netta, che rispecchia le preoccupazioni diffuse a livello europeo e internazionale circa l’impatto dell’IA sulle dinamiche della partecipazione politica, dell’opinione pubblica e, in ultima analisi, della democrazia costituzionale.

La legge, inoltre, si caratterizza per la promozione dell’innovazione, con la previsione di un sostegno pubblico pari a oltre un miliardo di euro destinato alle startup e alle PMI operanti nel settore, segnando così una forte impronta industriale e competitiva nel tessuto produttivo nazionale.

 

3. Quadro normativo e governance nazionale dell’IA

Il recepimento dell’AI Act in Italia si è tradotto in un modello di governance articolato, che mira a conciliare le esigenze di coordinamento istituzionale con la necessità di assicurare un controllo capillare e settoriale sullo sviluppo e sull’impiego dei sistemi di intelligenza artificiale. La legge prevede infatti la designazione di due autorità di riferimento, ciascuna con funzioni proprie e complementari: l’Agenzia per l’Italia Digitale (AgID) [4] e l’Agenzia per la Cybersicurezza Nazionale (ACN).

All’AgID è affidato il compito di esercitare un ruolo di coordinamento tecnico-normativo e di promozione delle policy relative all’IA. Essa si occupa della gestione delle notifiche, della supervisione delle regole di settore, del monitoraggio dello sviluppo delle tecnologie e del supporto alle pubbliche amministrazioni e alle imprese nell’adeguamento al nuovo quadro regolatorio. Parallelamente, l’ACN è titolare della vigilanza sulla cybersicurezza dei sistemi di intelligenza artificiale: dispone di poteri ispettivi e ha l’onere di segnalare al Governo eventuali rischi emergenti connessi all’uso di IA nei vari ambiti della vita sociale, economica e istituzionale.

Questa ripartizione di competenze costituisce una novità rispetto al modello delineato dall’AI Act, che attribuisce generalmente la supervisione a un’unica autorità nazionale competente. L’Italia ha preferito un sistema a doppio livello, probabilmente nella convinzione che la crescente interconnessione tra IA e cybersicurezza renda necessario un presidio specializzato e distinto rispetto a quello tecnico-regolatorio. Ciò, tuttavia, comporta anche sfide di coordinamento, poiché la coesistenza di più autorità può generare sovrapposizioni, conflitti interpretativi o lentezze procedurali, rendendo indispensabile una costante collaborazione interistituzionale.

La legge, infatti, rafforza esplicitamente i meccanismi di cooperazione con altre autorità e organi di garanzia: in particolare con il Garante per la protezione dei dati personali, cui spetta la supervisione sul rispetto del GDPR e del Codice Privacy, e con la Presidenza del Consiglio dei Ministri, che esercita un ruolo di indirizzo politico-strategico. È proprio alla Presidenza del Consiglio, attraverso il Dipartimento per la trasformazione digitale, che viene attribuito il compito di elaborare la Strategia nazionale per l’intelligenza artificiale. Tale documento, aggiornato ogni due anni e sottoposto a monitoraggio parlamentare annuale, rappresenta lo strumento principale di pianificazione e programmazione, nonché l’occasione per armonizzare le priorità nazionali con quelle europee e internazionali.

Il sistema di governance delineato dal legislatore si caratterizza, dunque, per un forte grado di interconnessione: le autorità tecniche, quelle indipendenti e gli organi di governo politico sono chiamati a operare in un quadro di dialogo costante, con l’obiettivo di garantire la massima trasparenza, efficacia e rapidità nell’adattamento alle evoluzioni tecnologiche. Tale modello, se correttamente implementato, potrebbe assicurare al Paese un vantaggio competitivo, consentendogli di reagire con flessibilità ai rapidi mutamenti del settore; al contempo, richiede un impegno costante nella prevenzione di duplicazioni burocratiche e nella tutela dell’indipendenza effettiva delle autorità coinvolte.

 

4. Principi generali e tutele fondamentali

L’intervento normativo del 17 settembre 2025 si articola attorno a una serie di disposizioni che costituiscono il nucleo sostanziale della disciplina italiana sull’intelligenza artificiale. Esse definiscono i principi generali, gli obblighi specifici e le regole operative per garantire un utilizzo responsabile, trasparente e conforme ai valori costituzionali dei sistemi di IA.

L’articolo 3 della legge ribadisce l’esigenza di agire nel pieno rispetto dell’autonomia personale, del principio di responsabilità e della sussidiarietà. L’obiettivo è evitare che l’automazione tecnologica possa erodere spazi di libertà decisionale o alterare il rapporto tra individuo e collettività. In tale prospettiva, la tutela del dibattito democratico assume un rilievo centrale: il legislatore esclude espressamente qualsiasi interferenza illecita che, attraverso strumenti di manipolazione algoritmica, possa compromettere la genuinità del confronto pubblico, la libertà di formazione dell’opinione e la serenità del processo elettorale.

La cybersicurezza viene trattata come presupposto imprescindibile: la progettazione, l’implementazione e la gestione dei sistemi devono garantire la protezione continua dei diritti fondamentali, evitando vulnerabilità suscettibili di minare la fiducia dei cittadini. Su questo piano, la normativa italiana si colloca in linea con le più recenti raccomandazioni internazionali, sottolineando l’importanza di un approccio “by design” e “by default” alla sicurezza.

Un elemento di particolare innovazione è rappresentato dal riconoscimento del diritto di accesso universale alle tecnologie di intelligenza artificiale da parte delle persone con disabilità. La legge impone la rimozione di ogni barriera tecnologica, configurando l’inclusione digitale come condizione di legittimità stessa dello sviluppo e dell’impiego dei sistemi IA. Questa scelta non solo si pone in continuità con gli obblighi derivanti dalla Convenzione ONU sui diritti delle persone con disabilità, ma amplia la portata delle tutele, ponendo l’Italia in una posizione avanzata nel panorama europeo in tema di inclusione.

Sul versante della protezione dei dati personali, l’articolo 4 della legge rafforza l’applicazione del GDPR e del Codice Privacy, introducendo ulteriori garanzie per le categorie vulnerabili. Particolare attenzione viene rivolta ai minori di anni quattordici: i loro dati possono essere trattati solo previo consenso esplicito di chi esercita la responsabilità genitoriale. L’intento è quello di prevenire rischi di sfruttamento, profilazione indebita e violazioni della riservatezza che potrebbero avere effetti irreversibili sull’identità personale dei più giovani. Inoltre, tutte le informative devono essere rese in modo semplice, completo e accessibile, garantendo un’informazione effettiva e comprensibile anche per i soggetti meno esperti.

La trasparenza degli algoritmi rappresenta un altro punto cardine della disciplina. Le decisioni prodotte dai sistemi automatizzati devono essere comprensibili a chiunque ne subisca gli effetti, superando l’opacità della cosiddetta “black box”. In tale ottica, la legge impone a imprese e pubbliche amministrazioni l’obbligo di approntare meccanismi di opposizione e revisione delle decisioni automatizzate, così da assicurare un controllo umano sostanziale e il rispetto del diritto di difesa.

Dal punto di vista economico e industriale, l’articolo 5 conferma la volontà dello Stato di promuovere l’intelligenza artificiale come fattore di innovazione, produttività e competitività. Particolare attenzione è riservata alle micro, piccole e medie imprese, ossatura del sistema produttivo nazionale, le quali potranno beneficiare di incentivi, agevolazioni fiscali e programmi di sostegno mirati alla digitalizzazione.

Un ulteriore aspetto innovativo è rappresentato dalle disposizioni sulla localizzazione dei dati strategici: il legislatore ha previsto che i dataset fondamentali per la sicurezza nazionale siano conservati e trattati all’interno del territorio italiano. Questa scelta rafforza la sovranità digitale e riduce i rischi connessi alla dipendenza da infrastrutture estere, stimolando al contempo la creazione di filiere tecnologiche nazionali e la crescita di centri di ricerca autoctoni.

La governance si arricchisce inoltre di una novità significativa introdotta dagli articoli 20 e 21, che istituiscono un sistema duale di vigilanza affidato ad AgID e ACN. Tale assetto, in combinazione con la cooperazione con il Garante per la protezione dei dati personali e con la Presidenza del Consiglio, configura un modello di supervisione integrata che mira a coprire tutte le aree critiche dell’innovazione tecnologica, garantendo un equilibrio tra esigenze di sviluppo e presidi di garanzia.

Non meno rilevante è l’attenzione rivolta alla tutela della proprietà intellettuale: l’articolo 25 stabilisce che le opere generate da sistemi di intelligenza artificiale possano godere di protezione autoriale solo se l’apporto umano risulta centrale e riconoscibile. In tal modo si affronta direttamente il dibattito, tuttora aperto a livello europeo e internazionale, sulla natura giuridica dei prodotti dell’IA generativa. Inoltre, la norma introduce obblighi stringenti di trasparenza sulle modalità di addestramento dei modelli, al fine di rispettare i diritti degli autori e prevenire violazioni sistemiche derivanti dall’uso di grandi set di dati.

L’articolo 26, infine, affronta il delicato tema dei deepfake, vietando la diffusione di immagini, video e altri contenuti generati tramite intelligenza artificiale senza il consenso della persona rappresentata. È introdotta una nuova fattispecie di reato, punita con pene fino a cinque anni di reclusione, con aggravanti qualora l’uso illecito sia finalizzato a minaccia, diffamazione o incitamento all’odio. Questa misura colma un vuoto del diritto europeo e rappresenta una risposta alle crescenti preoccupazioni per la manipolazione digitale e la disinformazione, segnando una linea di confine netta tra innovazione lecita e abuso tecnologico.

 

5. Novità introdotte dalla legge italiana

La legge italiana sull’intelligenza artificiale si inserisce pienamente nel quadro tracciato dall’AI Act europeo, ma non si limita a recepire le prescrizioni comunitarie: ne sviluppa alcuni profili in senso più rigoroso, introducendo misure che intendono rafforzare la protezione dei diritti e al tempo stesso favorire la competitività del sistema economico nazionale.

Un primo aspetto di rilievo è rappresentato dalla scelta di richiamare la classificazione dei sistemi di intelligenza artificiale in quattro categorie di rischio – minimo, limitato, elevato e inaccettabile – introdotta dal Regolamento (UE) 2024/1689. La legge italiana ne recepisce la logica, adattando però le prescrizioni al contesto interno. In tal modo, oltre a garantire la conformità al diritto europeo, il legislatore mira a rafforzare le tutele per i cittadini e ad assicurare un’applicazione coerente nei diversi settori produttivi e amministrativi.

Un altro punto centrale riguarda la disciplina dei modelli di intelligenza artificiale generativa (GPAI). Accanto ai requisiti europei di documentazione tecnica, gestione del rischio sistemico, conformità al diritto d’autore e trasparenza dei processi di addestramento, la normativa italiana prevede l’adozione di codici di condotta settoriali. Questi strumenti, aggiornati periodicamente sulla base delle indicazioni della Commissione europea e delle autorità nazionali competenti, hanno la funzione di tradurre i principi generali in regole operative tarate sulle specificità dei singoli comparti economici e sociali. Si tratta di una scelta che valorizza l’autoregolazione responsabile, affiancandola a un solido apparato di vigilanza pubblica.

Di particolare importanza è la pianificazione delle scadenze di implementazione. La legge italiana stabilisce un cronoprogramma che consente di raggiungere la piena conformità entro i termini fissati a livello europeo, ma introduce anche obblighi immediati per i sistemi considerati più rischiosi, assicurando così un livello di tutela anticipata. È inoltre prevista una graduale estensione delle regole a tutti i fornitori di prodotti e servizi basati su IA, così da accompagnare il mercato verso una transizione ordinata.

Il legislatore non si è limitato agli aspetti regolatori, ma ha introdotto strumenti di sostegno economico e fiscale destinati a facilitare l’adeguamento delle imprese. Sono previste agevolazioni per l’adozione di tecnologie avanzate e per la formazione del personale, nella consapevolezza che il rispetto delle nuove regole non deve tradursi in un freno alla competitività, ma in un’occasione per rendere il mercato italiano attrattivo per investimenti interni e stranieri.

Un tratto distintivo della legge è l’attenzione al diritto penale, con l’introduzione di fattispecie specifiche che affrontano i rischi legati all’uso illecito dell’intelligenza artificiale. Oltre al reato di diffusione non autorizzata di deepfake, già menzionato, sono previste incriminazioni per l’impiego fraudolento di sistemi automatizzati in ambito economico e finanziario, nonché per l’utilizzo dell’IA come strumento di commissione di reati comuni. L’aumento delle pene e l’introduzione di aggravanti rafforzano la funzione preventiva della normativa e segnalano la volontà del legislatore di adeguare la giurisdizione penale alle sfide poste dalla digitalizzazione.

La legge interviene anche a rafforzare la tutela delle persone vulnerabili. I minori e le categorie a rischio di esclusione vengono posti al centro di un sistema di garanzie che estende i limiti già previsti dal GDPR[5], introducendo poteri di opposizione più ampi e obblighi di trasparenza rafforzati. Particolare rilievo assumono i meccanismi di revisione e spiegazione delle decisioni automatizzate, che mirano a impedire che individui o gruppi possano subire conseguenze ingiuste o discriminatorie a causa dell’opacità degli algoritmi.

Infine, la legge valorizza la dimensione educativa e culturale. Oltre a prevedere iniziative di informazione e sensibilizzazione sui rischi e le opportunità dell’intelligenza artificiale, vengono promosse attività di formazione continua e di inclusione digitale. In questo modo, la disciplina italiana non solo regola, ma contribuisce a costruire una cultura diffusa della responsabilità tecnologica, ponendo le basi per un ecosistema digitale più consapevole e resiliente.

 

6. Ambiti di applicazione e impatti pratici

L’attuazione della legge italiana sull’intelligenza artificiale produrrà effetti rilevanti in diversi settori strategici, incidendo sia sulle dinamiche istituzionali sia sulle prassi quotidiane delle imprese, delle pubbliche amministrazioni e dei cittadini. La scelta del legislatore non è stata quella di una regolazione astratta e generale, ma di un intervento che individua contesti specifici nei quali l’impiego dell’IA solleva questioni delicate sotto il profilo etico, giuridico ed economico.

In primo luogo, il settore sanitario rappresenta un banco di prova privilegiato. La normativa ammette l’utilizzo dell’intelligenza artificiale solo come strumento di supporto decisionale: le scelte cliniche rimangono prerogativa esclusiva del medico, che mantiene la responsabilità ultima e insostituibile nei confronti del paziente. Questa impostazione, che richiama il principio di non delegabilità delle decisioni fondamentali sulla salute, mira a evitare forme di deresponsabilizzazione e a ridurre i rischi connessi a un affidamento acritico sulle tecnologie. Tutti i sistemi IA destinati alla sanità dovranno inoltre superare rigorose valutazioni etiche e di sicurezza, garantendo standard elevati di affidabilità e trasparenza.

In ambito lavorativo, la legge introduce obblighi stringenti di trasparenza nei confronti dei dipendenti. Ogni utilizzo di sistemi automatizzati per la selezione, la valutazione o il controllo delle prestazioni deve essere comunicato preventivamente al lavoratore, che conserva il diritto di contestare decisioni algoritmiche mediante procedure di revisione umana. Viene inoltre ribadito il principio di tutela della dignità del lavoratore, impedendo che la tecnologia si traduca in strumenti invasivi di sorveglianza o in pratiche discriminatorie. Per monitorare l’impatto delle nuove tecnologie sul mercato del lavoro, è istituito presso il Ministero del Lavoro un osservatorio dedicato, con il compito di analizzare le trasformazioni occupazionali e proporre misure correttive in caso di effetti negativi.

Particolare rilievo assume anche il settore della pubblica amministrazione e della giustizia. La legge stabilisce che nessuna decisione automatizzata possa sostituire integralmente l’intervento umano nelle procedure amministrative e giudiziarie. Ogni processo deve essere tracciato, documentato e sottoposto a controllo, sia nella fase deliberativa sia in quella esecutiva. L’obiettivo è duplice: da un lato garantire la trasparenza e la legalità dell’azione pubblica, dall’altro evitare derive burocratiche opache che potrebbero compromettere la fiducia dei cittadini nelle istituzioni. In particolare, per la giustizia, la norma chiarisce che l’uso di sistemi predittivi o di supporto alla decisione non può mai sostituire il libero convincimento del giudice, riaffermando così il principio di indipendenza della funzione giurisdizionale.

Un ulteriore ambito di applicazione riguarda i diritti digitali e l’inclusione sociale. La legge prevede presidi rafforzati a tutela dei soggetti vulnerabili, come disabili e minori, cui viene garantito un accesso pieno, libero e privo di barriere alle opportunità offerte dall’innovazione tecnologica. A tal fine, sono promossi programmi di alfabetizzazione digitale e iniziative di formazione mirata, con l’obiettivo di ridurre il divario tecnologico e prevenire nuove forme di esclusione sociale.

Infine, gli impatti pratici della normativa si riflettono anche sul tessuto economico-produttivo. Le imprese sono chiamate a integrare nei propri processi aziendali sistemi di gestione del rischio, procedure di valutazione etica e modelli di trasparenza algoritmica. Ciò implica costi di adeguamento iniziali, ma offre al contempo l’opportunità di aumentare la reputazione, la fiducia dei consumatori e la competitività internazionale. Sul medio periodo, il rispetto delle regole potrebbe dunque tradursi in un vantaggio competitivo, consolidando l’Italia come hub affidabile e innovativo nel panorama europeo dell’intelligenza artificiale.

 

7. Criticità, opportunità e prospettive

L’attuazione concreta della legge italiana sull’intelligenza artificiale, pur collocando il Paese in una posizione di avanguardia sul piano europeo, non è esente da criticità. Alcune scelte del legislatore, infatti, se da un lato rafforzano la tutela dei diritti e promuovono l’innovazione, dall’altro pongono interrogativi in ordine alla loro effettiva efficacia e sostenibilità.

Una prima questione riguarda la collocazione istituzionale delle autorità competenti. AgID e ACN, pur dotate di funzioni tecniche e ispettive di rilievo, non godono di un livello di indipendenza pienamente assimilabile a quello delle autorità garanti nei settori tradizionalmente più sensibili, come quello dei dati personali o della concorrenza[6]. La loro prossimità all’esecutivo, se da un lato garantisce rapidità e coerenza con gli indirizzi politici, dall’altro potrebbe esporre le decisioni regolatorie al rischio di interferenze o condizionamenti, in contrasto con le best practices internazionali in materia di supervisione di tecnologie ad alto impatto. La percezione di imparzialità delle autorità è un elemento decisivo per consolidare la fiducia di cittadini e imprese: ogni deficit in tal senso rischia di indebolire la legittimazione stessa del sistema normativo.

Un secondo profilo critico riguarda l’effettività delle tutele procedurali previste per chi sia destinatario di decisioni automatizzate. Sebbene la legge preveda meccanismi di opposizione e revisione, non è ancora chiaro se tali strumenti saranno dotati di sufficiente rapidità e accessibilità. Il rischio è che, in settori delicati come la sanità, il lavoro e la giustizia, eventuali ritardi o complessità procedurali possano tradursi in una tutela meramente formale, priva di reale efficacia.

Un ulteriore elemento problematico è rappresentato dall’assenza di una disciplina dettagliata sull’impiego di sistemi di riconoscimento facciale e di identificazione biometrica da parte delle autorità pubbliche. Si tratta di strumenti ad altissimo rischio, capaci di incidere profondamente sulla privacy e sulla libertà personale. L’AI Act ha scelto un approccio restrittivo e prudenziale, imponendo condizioni rigorose per l’uso di tali tecnologie; la normativa italiana, invece, si limita a un richiamo generico, lasciando aperto un vuoto normativo che potrebbe generare incertezze interpretative e conflitti applicativi.Sul punto si deve ricordare quanto siano strettamente correlate l’uso dell’intelligenza artificiale e la gestione dei dati personali, come hanno rivelato le recenti pronunce della Corte di Giustizia Europea sui casi Schufa[7].

Sul piano sistemico, si segnala inoltre il rischio di gold plating, ossia di un’applicazione di standard più severi rispetto a quelli minimi richiesti dal diritto europeo. Sebbene ciò risponda alla volontà di rafforzare le garanzie, può comportare costi amministrativi e gestionali aggiuntivi per imprese e pubbliche amministrazioni, riducendo la competitività del mercato interno. A questo si aggiunge la complessità di un modello di governance che coinvolge più soggetti – AgID, ACN, Garante privacy, Presidenza del Consiglio, comitati di settore – con il rischio di frammentazioni e sovrapposizioni, che renderebbero necessaria una costante attività di coordinamento.

Tuttavia, a fronte di queste criticità, la legge apre anche significative opportunità. In primo luogo, rafforza l’autonomia strategica nazionale, riducendo la dipendenza tecnologica dall’estero e favorendo la costruzione di filiere interne di ricerca e produzione. In secondo luogo, offre alle imprese italiane la possibilità di collocarsi tra i soggetti più avanzati nel rispetto delle regole europee, trasformando la conformità normativa in un fattore competitivo. In terzo luogo, promuove una cultura giuridica e tecnica dell’innovazione, che potrà orientare non solo il dibattito accademico, ma anche le scelte future del legislatore e delle istituzioni.

In prospettiva, il successo della normativa dipenderà dalla capacità delle autorità di attuare le disposizioni con chiarezza, tempestività e proporzionalità, nonché dalla volontà politica di preservarne l’indipendenza da logiche contingenti. Sarà altresì decisivo lo sviluppo di un dialogo costante con l’Unione europea e con gli altri Stati membri, al fine di evitare conflitti interpretativi e garantire un’armonizzazione effettiva. Solo in questo modo la legge italiana potrà fungere da laboratorio normativo, offrendo un modello di regolazione che, partendo da specificità nazionali, contribuisca alla costruzione di una governance europea e internazionale dell’intelligenza artificiale solida ed equilibrata.

 

8. Conclusioni

La legge italiana sull’intelligenza artificiale del 2025 rappresenta un passaggio di portata storica per l’ordinamento nazionale, non soltanto perché introduce un corpus normativo organico in un settore strategico e in continua evoluzione, ma anche perché colloca l’Italia tra i Paesi pionieri a livello europeo nel governo delle tecnologie emergenti. L’approvazione del disegno di legge 1146/2024 segna la volontà di non limitarsi a un adeguamento formale al Regolamento (UE) 2024/1689, ma di costruire un modello integrato che, pur nel rispetto dell’AI Act, rafforza i presidi di tutela e valorizza le specificità del sistema istituzionale e produttivo italiano.

Il carattere innovativo della normativa si coglie sia sul versante delle garanzie che su quello della promozione. Da un lato, la legge ribadisce la centralità della persona, l’inclusione digitale, la trasparenza degli algoritmi e la tutela dei diritti fondamentali, introducendo strumenti ulteriori rispetto al quadro comunitario, come la disciplina dei deepfake, la protezione rafforzata dei minori e le misure a sostegno delle persone con disabilità. Dall’altro lato, essa affianca a tali presidi un’impronta fortemente proattiva, con investimenti ingenti in ricerca, formazione e sostegno alle imprese, in particolare alle piccole e medie realtà imprenditoriali, così da trasformare la regolazione in leva di sviluppo economico e competitività internazionale.

Il successo della legge non dipenderà tuttavia soltanto dalla bontà delle disposizioni formali, ma soprattutto dalla capacità di attuarle in modo efficace. Le amministrazioni pubbliche e le imprese saranno chiamate ad adeguarsi a un sistema di regole che richiede investimenti organizzativi, culturali e tecnologici, mentre le autorità di vigilanza dovranno garantire un’attività regolatoria coerente, trasparente e tecnicamente aggiornata. Sarà decisivo, in tal senso, il ruolo della Strategia nazionale per l’IA, chiamata a definire priorità e indirizzi chiari, nonché il monitoraggio parlamentare, che dovrà assicurare un costante bilanciamento tra esigenze di sicurezza, diritti fondamentali e libertà economiche.

Sul piano internazionale, la normativa italiana potrà costituire un laboratorio normativo di rilievo, capace di fornire spunti utili al dibattito europeo e globale. L’intreccio tra principi etici, presidi giuridici e politiche industriali offre infatti un modello originale, che potrebbe contribuire a orientare anche le future evoluzioni del diritto europeo dell’intelligenza artificiale. Al tempo stesso, la posizione dell’Italia come Paese capofila comporta la responsabilità di mantenere elevato il livello di coerenza e credibilità del sistema, evitando derive burocratiche e garantendo una costante apertura al dialogo con cittadini, imprese e comunità scientifica.

In definitiva, la legge del 2025 sull’intelligenza artificiale segna una tappa decisiva verso un modello di innovazione antropocentrico, responsabile e sostenibile. Essa non esaurisce il percorso normativo, ma lo inaugura, ponendo le basi per una governance dinamica che dovrà essere continuamente aggiornata in ragione delle rapide trasformazioni tecnologiche. Solo un impegno costante di adattamento, confronto e bilanciamento degli interessi potrà rendere effettivo l’obiettivo di un’IA al servizio della società, della democrazia e dello sviluppo umano integrale.



[1] Testo reperibile sul sito del parlamento al link https://www.senato.it/service/PDF/PDFServer/BGT/01462298.pdf

[3] In particolare, la legge italiana sull’IA si coordina con una serie di fonti europee e internazionali di primaria importanza. Anzitutto, il Regolamento (UE) 2016/679 (GDPR) impone obblighi rigorosi in materia di trattamento, trasparenza e tutela dei dati personali nell’intera Unione, con una particolare attenzione alle categorie vulnerabili (minori, persone fragili, ecc.). Sul punto, l’articolo 4 della legge nazionale crea una sinergia diretta con il GDPR, specificando modalità e garanzie ulteriori per il trattamento dei dati nel contesto delle applicazioni di intelligenza artificiale. Accanto al profilo della protezione dei dati, viene in rilievo la Direttiva (UE) 2016/2102 sull’accessibilità, che obbliga le amministrazioni pubbliche a garantire la piena accessibilità digitale di siti web e applicazioni mobili, in una prospettiva inclusiva rivolta soprattutto alle persone con disabilità. Nella stessa direzione si colloca la Convenzione ONU sui diritti delle persone con disabilità, ratificata dall’Italia con la legge n. 18/2009, esplicitamente richiamata come riferimento fondamentale per assicurare che l’innovazione tecnologica sia sempre orientata all’inclusione. Non meno rilevante è il versante della sicurezza. Il Regolamento (UE) 2019/881 (Cybersecurity Act) ha introdotto un quadro europeo di certificazione della sicurezza informatica di prodotti, servizi e processi, contribuendo a rafforzare la fiducia nel mercato digitale unico. In parallelo, la Direttiva (UE) 2016/1148 (NIS Directive) ha imposto obblighi agli operatori di servizi essenziali e ai fornitori di servizi digitali, imponendo l’adozione di standard adeguati di sicurezza delle reti e dei sistemi ICT: prescrizioni particolarmente significative per le infrastrutture che integrano sistemi di intelligenza artificiale. Infine, il Regolamento (UE) 2022/2557 (DORA) ha disciplinato la resilienza operativa digitale delle entità finanziarie, introducendo requisiti stringenti di gestione del rischio informatico e di continuità operativa, rilevanti anche per le applicazioni di IA in ambito finanziario.

[4] Cfr. Agenzia per l’Italia Digitale (AgID), "Linee guida sull’intelligenza artificiale nella Pubblica Amministrazione", 2024-2025 (https://www.agid.gov.it/it/agenzia/piano-triennale/strumenti/strumento-5).

[5] Sul punto a livello europeo molto si era, infatti, detto e tra le molte segnalazioni si riporta quanto espresso in “Il credit scoring e la protezione dei dati personali: commento alle sentenze della Corte di giustizia dell’Unione europea del 7 dicembre 2023” a cura di V. PIETRELLA e S. RACIOPPI, in Rivista Italiana di Informatica e Diritto, leggibile in https://www.rivistaitalianadiinformaticaediritto.it/index.php/RIID/article/view/240/185

[6] Sul punto si condividono le osservazioni già svolte dal G. RESTA e G.M. RICCIO, Il ddl AI è legge: primi spunti di riflessione, in https://www.altalex.com/documents/2025/09/18/ddl-legge-primi-spunti-riflessione.


Scarica Articolo PDF