Dal 10 ottobre 2025 l’Italia ha una legge nazionale dedicata all’intelligenza artificiale: la Legge 23 settembre 2025, n. 132. È un passo importante, perché per la prima volta viene introdotto un quadro organico che disciplina l’uso dei sistemi di IA nei diversi settori, dal lavoro alla sanità, dalla pubblica amministrazione alla ricerca scientifica. Il testo si colloca nel solco dell’AI Act europeo, approvato nel 2024, ma stabilisce principi e obblighi specifici a livello nazionale.
Tra i temi centrali della legge c’è anche l’utilizzo dell’intelligenza artificiale nei luoghi di lavoro. Negli ultimi anni, infatti, molte imprese hanno introdotto tecnologie basate su algoritmi di analisi predittiva, visione artificiale o monitoraggio automatico, anche in ambito antinfortunistico e di prevenzione dei rischi.
La nuova normativa non impone alle aziende di adottare sistemi di IA, ma regola in modo preciso come devono essere utilizzati quando vengono introdotti, con particolare attenzione alla tutela dei lavoratori, alla trasparenza e alla sicurezza. Per questo motivo, la Legge 132/2025 interessa da vicino anche i responsabili della sicurezza, gli RSPP e i consulenti ambientali e HSE che devono integrare le innovazioni tecnologiche nei modelli di prevenzione.
Contenuti
La Legge 132/2025: obiettivi e ambito di applicazione
La Legge 132/2025 nasce con l’obiettivo di accompagnare l’adozione dell’intelligenza artificiale in Italia verso un modello etico, sicuro e centrato sulla persona. Il principio di fondo è quello di garantire che ogni tecnologia impiegata a supporto dell’attività umana rispetti i valori costituzionali di dignità, libertà, non discriminazione e tutela della salute.
La legge si applica a una vasta gamma di settori: lavoro e relazioni industriali, sanità e assistenza, pubblica amministrazione, giustizia, ricerca e istruzione superiore.
Nel contesto lavorativo, la norma si intreccia con due pilastri del nostro ordinamento:
- il D.Lgs. 81/2008 (Testo Unico sulla salute e sicurezza sul lavoro), che impone al datore di lavoro di valutare e prevenire tutti i rischi connessi all’attività lavorativa, compresi quelli derivanti da nuove tecnologie;
- l’articolo 2087 del Codice Civile, che obbliga l’imprenditore ad adottare tutte le misure tecniche e organizzative necessarie a tutelare l’integrità fisica e morale dei lavoratori.
La legge italiana, dunque, non introduce un nuovo apparato di regole autonome, ma integra e aggiorna il sistema esistente, estendendo le tutele già previste alla sfera dell’intelligenza artificiale.
L’articolo 11 è quello che riguarda più da vicino la sicurezza nei luoghi di lavoro: stabilisce che, quando l’IA è impiegata nei processi aziendali, il datore di lavoro deve garantire informazione, trasparenza e supervisione umana. L’adozione di un algoritmo o di un sistema automatizzato non può in nessun caso ridurre il livello di tutela della salute e della sicurezza dei lavoratori.
Cosa cambia per le imprese e per la sicurezza sul lavoro
L’impatto più rilevante della legge per le aziende riguarda la gestione dei sistemi di IA già presenti nei processi produttivi o organizzativi. Negli ultimi anni, molte imprese hanno iniziato a utilizzare software di monitoraggio intelligente, algoritmi che analizzano i dati dei sensori di produzione, telecamere che riconoscono movimenti anomali o sistemi di previsione del rischio di guasto.
Con la nuova legge, queste tecnologie rientrano formalmente in un quadro regolatorio che le riconosce come “sistemi di intelligenza artificiale”, e ne definisce le responsabilità d’uso.
Il datore di lavoro, in particolare, deve:
- informare i lavoratori in modo chiaro e comprensibile quando un’attività è svolta o controllata da un sistema di IA;
- garantire che i sistemi utilizzati siano affidabili, verificabili e sotto controllo umano;
- vigilare affinché l’IA non introduca rischi aggiuntivi, come errori di analisi, discriminazioni o interpretazioni errate dei dati;
- documentare le misure di sicurezza adottate e mantenere la tracciabilità delle decisioni automatizzate.
Per la sicurezza sul lavoro, questo significa rivedere alcuni aspetti fondamentali della gestione del rischio. Un software predittivo che segnala la possibilità di un guasto, un algoritmo che valuta l’attenzione del personale attraverso sensori o una telecamera intelligente che rileva posture scorrette non possono essere considerati semplici strumenti ausiliari: devono essere inseriti nel sistema di prevenzione aziendale e gestiti con le stesse cautele riservate alle macchine o agli impianti tradizionali.
Adempimenti pratici per aziende e consulenti
L’applicazione della Legge 132/2025 richiede alle imprese un approccio metodico e documentato. Non è necessario adottare nuove tecnologie, ma è indispensabile comprendere come gestire in sicurezza quelle già in uso.
Il primo passo consiste nella mappatura dei sistemi di intelligenza artificiale presenti in azienda, anche indirettamente. Molti software di gestione, piattaforme di videosorveglianza o strumenti IoT integrano moduli di IA senza che l’utente finale ne sia pienamente consapevole. Identificarli è fondamentale per poterli inquadrare correttamente ai fini della valutazione dei rischi.
Il secondo passaggio riguarda l’aggiornamento del Documento di Valutazione dei Rischi (DVR). Il D.Lgs. 81/2008, agli articoli 17 e 28, impone di considerare tutti i rischi derivanti da nuove tecnologie e processi produttivi. Nel DVR, quindi, dovranno essere inclusi i potenziali rischi derivanti dall’uso di algoritmi: errori decisionali, perdita di controllo umano, malfunzionamenti o problemi di interpretazione dei dati.
Parallelamente, il datore di lavoro dovrà informare e formare i lavoratori sull’utilizzo dell’IA, spiegando con linguaggio comprensibile:
- quali attività sono gestite o supportate da sistemi intelligenti;
- quali dati vengono raccolti e con quali finalità;
- come vengono garantiti i principi di trasparenza, privacy e sicurezza.
Un altro elemento chiave riguarda la verifica della conformità dei fornitori.
Le aziende che acquistano o utilizzano soluzioni di IA devono accertarsi che i produttori siano conformi ai requisiti dell’AI Act europeo, soprattutto nel caso di sistemi classificati come “ad alto rischio”, come quelli impiegati per la gestione della sicurezza dei lavoratori o il monitoraggio del comportamento.
Infine, la legge introduce la necessità di tracciare e documentare le misure adottate. Ogni impresa deve poter dimostrare di aver analizzato i rischi, aggiornato il DVR, informato il personale e adottato procedure di controllo e revisione periodica.
L’Osservatorio nazionale e i decreti attuativi
Un aspetto innovativo della legge è la creazione di un Osservatorio nazionale sull’intelligenza artificiale nel lavoro, istituito presso il Ministero del Lavoro entro 90 giorni dall’entrata in vigore del provvedimento. Questo organismo avrà il compito di monitorare l’impatto delle tecnologie intelligenti sull’organizzazione del lavoro e sulla salute dei lavoratori.
L’Osservatorio raccoglierà dati, proporrà linee guida operative e promuoverà attività formative rivolte a datori di lavoro, RSPP e professionisti della sicurezza. Nel medio periodo potrà anche contribuire alla definizione di standard tecnici per la valutazione dei rischi legati all’IA, stabilendo criteri uniformi per la certificazione e la gestione dei sistemi ad alto rischio.
Sono inoltre previsti decreti attuativi che disciplineranno aspetti più specifici, come:
- le modalità di informazione ai lavoratori;
- la definizione dei livelli di rischio associati ai diversi sistemi di IA;
- i protocolli di verifica e validazione dei software intelligenti.
Si tratta di strumenti che renderanno progressivamente più chiaro e operativo il quadro regolatorio, con effetti diretti sull’organizzazione interna delle imprese.
L’IA come opportunità per la prevenzione infortuni
Oltre al piano normativo, la Legge 132/2025 apre una prospettiva di innovazione concreta per la sicurezza nei luoghi di lavoro. L’intelligenza artificiale, se gestita in modo corretto, può diventare un alleato strategico nella prevenzione degli infortuni, trasformando la gestione della sicurezza da reattiva a predittiva.
I sistemi basati su IA sono già in grado di analizzare grandi quantità di dati provenienti da sensori, impianti e dispositivi indossabili, individuando in anticipo segnali di pericolo o comportamenti anomali. Nei cantieri, per esempio, possono rilevare movimenti pericolosi o l’assenza di dispositivi di protezione; negli impianti industriali, possono prevedere un guasto prima che causi un incidente; nei magazzini o nelle linee produttive, possono ottimizzare i flussi per ridurre il rischio ergonomico e di collisione.
La vera sfida è far sì che queste tecnologie non sostituiscano l’uomo, ma lo supportino, rafforzando la cultura della sicurezza. Un sistema predittivo non elimina la responsabilità del datore di lavoro né il ruolo dell’RSPP: al contrario, li aiuta a prendere decisioni più informate, a pianificare meglio la manutenzione e a individuare le criticità in tempo reale.
Per sfruttare appieno il potenziale dell’IA, è però necessario garantire la supervisione umana costante, la validazione dei dati e la piena trasparenza delle logiche algoritmiche. Solo così l’IA potrà essere considerata un vero strumento di prevenzione e non un rischio aggiuntivo.
Cosa non è previsto dalla legge
Un punto frainteso riguarda l’interpretazione secondo cui l’intelligenza artificiale sarebbe “obbligatoria per legge” nell’antinfortunistica. Questo non è vero. La Legge 132/2025 non impone alle imprese di adottare sistemi di IA, né sostituisce gli obblighi già stabiliti dal D.Lgs. 81/2008.
La normativa si applica solo quando un’impresa decide di utilizzare tecnologie intelligenti, e in quel caso stabilisce regole precise su come impiegarle in modo sicuro, trasparente e nel rispetto dei diritti dei lavoratori. Il legislatore ha voluto evitare che l’introduzione di sistemi automatizzati avvenga senza un adeguato controllo umano, riconoscendo che la prevenzione non può essere delegata a un algoritmo.
In sostanza, la legge non impone un obbligo di innovazione, ma un obbligo di consapevolezza: le aziende che usano l’IA devono sapere come funziona, quali rischi comporta e come gestirla in conformità alle normative vigenti.
Verifica se la tua azienda è in linea con la nuova Legge 132/2025 e con l’AI Act europeo.
Contattaci per una consulenza personalizzata

