Poco più di un anno fa, nell’agosto del 2024, l’Europa ha fatto il primo passo verso la regolamentazione dell’Intelligenza Artificiale. E oggi, 10 ottobre 2025, entra in vigore la legge italiana sull’intelligenza artificiale.
fra i tanti aspetti trattati la legge, un’enfasi particolare sembra essere stata data all’introduzione del reato di deepfake.
Prima di lanciarci nell’analisi della nuova legislazione, è opportuno notare come la creazione di norme sull’AI sia una missione difficile e molto ambiziosa. La galassia di tecnologie e modelli che ruotano attorno all’Intelligenza Artificiale è estremamente dinamica. Il che significa che qualunque sforzo legislativo deve tenere conto della fisiologica arretratezza che finirà molto presto per affliggere qualunque legge. I legislatori tuttavia, in Italia come in Europa e nel resto del mondo, lo sanno bene. E infatti hanno fatto, e continueranno a fare, del proprio meglio per mettere a punto regole capaci di astrarsi dalle tecnologie specifiche, focalizzandosi sui diritti dei cittadini.
La legge italiana sull’intelligenza artificiale: un quadro generale
La legge italiana sull’intelligenza artificiale, pur arrivando in un momento di grande fermento normativo a livello europeo e globale, si pone l’obiettivo di tracciare una via nazionale che, pur in linea con i principi generali condivisi, cerca di adattarsi alle specificità del tessuto economico e sociale italiano. Al centro del dibattito, come sottolineato da più parti, vi è la necessità di bilanciare la promozione dell’innovazione e lo sviluppo di un settore strategico con la tutela dei diritti fondamentali dei cittadini, la garanzia della sicurezza e la prevenzione di utilizzi distorti o dannosi dell’AI.
A differenza dell’AI Act europeo, che adotta un approccio basato sul rischio e impone obblighi stringenti per i sistemi di AI considerati ad alto rischio, la legge italiana sembra privilegiare un approccio più morbido, basato su linee guida, incentivi e autoregolamentazione. Questo approccio, da un lato, potrebbe favorire la sperimentazione e l’innovazione, evitando di soffocare un settore ancora in fase di sviluppo. Dall’altro, rischia di lasciare scoperti alcuni ambiti particolarmente sensibili, come il riconoscimento facciale, la profilazione automatizzata e l’utilizzo dell’AI nel settore pubblico.
i pilastri della nuova legge
Promozione Dell’Innovazione: La legge prevede una serie di misure per sostenere la ricerca e lo sviluppo nel settore dell’AI, tra cui incentivi fiscali, finanziamenti pubblici e la creazione di centri di competenza. Si punta a favorire la nascita e la crescita di startup innovative e ad attrarre investimenti esteri.
Definizione Di Principi Etici: La legge enuncia una serie di principi etici che devono guidare lo sviluppo e l’utilizzo dell’AI, tra cui la trasparenza, l’equità, la responsabilità, la non-discriminazione e la tutela della dignità umana. Questi principi, pur essendo importanti, non sono vincolanti e non prevedono sanzioni in caso di violazione.
Creazione Di Un’Agenzia Nazionale Per L’AI: La legge italiana sull’intelligenza artificiale istituisce un’agenzia nazionale per l’AI, con compiti di coordinamento, promozione, supervisione e valutazione delle politiche sull’Intelligenza Artificiale. L’agenzia avrà anche il compito di rappresentare l’Italia in sede europea e internazionale.
Sviluppo Di Competenze: La legge prevede misure per promuovere la formazione e lo sviluppo di competenze nel campo dell’AI, sia a livello scolastico che universitario, per favorire l’occupazione e la crescita del settore.
Sperimentazione Controllata: La legge prevede la possibilità di istituire “sandbox regolamentari”, ovvero ambienti controllati in cui le imprese possono testare tecnologie innovative in deroga alle norme esistenti, sotto la supervisione delle autorità competenti.
il confronto con l’AI act europeo
Come anticipato, il principale punto di divergenza tra la legge italiana sull’intelligenza artificiale e l’AI Act europeo riguarda l’approccio alla regolamentazione. Mentre l’AI Act adotta un modello basato sul rischio, che impone obblighi specifici per i sistemi di AI considerati ad alto rischio, la legge italiana sembra privilegiare un approccio più flessibile e meno vincolante. Questo approccio potrebbe essere giustificato dalla volontà di non ostacolare l’innovazione e di adattarsi alle specificità del contesto italiano, ma solleva anche alcune preoccupazioni.
L’AI Act, ad esempio, prevede requisiti stringenti per i sistemi di AI utilizzati in settori critici come la sanità, i trasporti e la giustizia, in termini di trasparenza, accuratezza, sicurezza e supervisione umana. La legge italiana, al contrario, si limita a enunciare principi generali, senza prevedere meccanismi di controllo e sanzioni efficaci. Questo potrebbe lasciare scoperti alcuni ambiti particolarmente sensibili, in cui l’utilizzo dell’AI potrebbe comportare rischi significativi per i diritti e le libertà dei cittadini.
Un altro aspetto critico riguarda la definizione di “sistema di AI”. L’AI Act fornisce una definizione precisa e legalmente vincolante, mentre la legge italiana sembra adottare una definizione più ampia e generica, che potrebbe rendere difficile l’applicazione delle norme. Questo potrebbe creare incertezza giuridica e ostacolare l’innovazione.
Tuttavia, è importante sottolineare che la legge italiana sull’intelligenza artificiale non è destinata a sostituire l’AI Act, ma a integrarlo e a specificarlo nel contesto nazionale. L’Italia dovrà comunque rispettare le disposizioni dell’AI Act, che sarà direttamente applicabile nel nostro ordinamento giuridico. La legge italiana può quindi svolgere un ruolo importante nel definire le modalità di applicazione dell’AI Act a livello nazionale e nel promuovere l’innovazione e lo sviluppo del settore dell’AI, nel rispetto dei diritti e delle libertà dei cittadini.
Occasioni mancate e prospettive future
Alcuni osservatori criticano la legge italiana sull’intelligenza artificiale per aver perso l’occasione di affrontare in modo più deciso alcune questioni etiche e sociali cruciali, come la responsabilità per i danni causati dall’AI, la tutela dei dati personali e la prevenzione delle discriminazioni. La mancanza di una disciplina specifica in questi ambiti potrebbe comportare incertezza giuridica e ostacolare l’adozione responsabile dell’AI.
Inoltre, la legge non affronta in modo adeguato la questione dell’impatto dell’AI sul mercato del lavoro. L’automazione e l’Intelligenza Artificiale potrebbero comportare la perdita di posti di lavoro in alcuni settori, creando nuove sfide sociali ed economiche. La legge dovrebbe prevedere misure per favorire la riqualificazione professionale dei lavoratori e per sostenere la transizione verso un’economia basata sull’AI.
Nonostante queste critiche, la legge italiana sull’AI rappresenta un passo importante verso la regolamentazione di un settore in rapida evoluzione. La creazione di un’agenzia nazionale per l’AI e la promozione di incentivi per la ricerca e lo sviluppo sono segnali positivi che indicano la volontà del governo di sostenere l’innovazione. Tuttavia, è fondamentale che la legge venga integrata e rafforzata nel tempo, per affrontare in modo più efficace le sfide etiche e sociali poste dall’AI e per garantire un futuro digitale inclusivo e sostenibile.
Guardando al futuro, è probabile che la legge italiana sull’intelligenza artificiale venga modificata e integrata per armonizzarsi con l’AI Act europeo e per affrontare le nuove sfide poste dallo sviluppo tecnologico. Sarà importante monitorare attentamente l’evoluzione del dibattito europeo e internazionale sull’AI e adottare un approccio flessibile e adattabile, in grado di rispondere alle nuove esigenze e di tutelare i diritti e le libertà dei cittadini.
In definitiva, il successo della legge italiana sull’intelligenza artificiale dipenderà dalla capacità di creare un ecosistema favorevole all’innovazione, promuovendo al contempo un utilizzo responsabile e etico dell’Intelligenza Artificiale, a beneficio di tutta la società.

