Home » Aziende » Legge 132/2025: come funziona la prima legge su AI in Italia

Legge 132/2025: come funziona la prima legge su AI in Italia

Legge 132/2025: come funziona la prima legge su AI in Italia
Photo by Pexels – Pixabay
Lettura: 3 minuti

Un nuovo intervento normativo ridefinisce l’uso degli algoritmi nei contesti produttivi: al centro emergono trasparenza, controllo umano e responsabilità delle imprese per tutelare salute e diritti dei lavoratori.

Legge 132/2025: come funziona la prima legge su AI in Italia
Photo by Pexels – Pixabay

L’Italia accelera sulla trasformazione digitale, ma lo fa tracciando confini precisi. L’ingresso dell’intelligenza artificiale nei processi aziendali smette di essere solo una leva di efficienza e diventa una questione di sicurezza e diritto. Il Governo punta a costruire un modello in cui l’innovazione non proceda da sola, ma resti ancorata alla supervisione umana, evitando rischi operativi e possibili derive discriminatorie.

Il principio è chiaro: gli algoritmi possono supportare, non sostituire. In un contesto dove le decisioni automatizzate incidono sempre di più sull’organizzazione del lavoro, entrano in gioco responsabilità, controllo e prevenzione degli incidenti. La vera sfida? Trovare un punto di equilibrio credibile tra progresso tecnologico e diritti fondamentali, senza trasformare l’automazione in un fattore di vulnerabilità.

Un quadro normativo più chiaro per le imprese

Il nuovo disegno di legge interviene su un panorama finora frammentato, introducendo regole più definite sull’uso dell’IA nei luoghi di lavoro. L’obiettivo non è rallentare l’innovazione, ma renderla compatibile con la tutela della persona e con la struttura produttiva italiana, fatta in gran parte di PMI.

Al centro della riforma emergono criteri di trasparenza nei processi decisionali automatizzati: non conta solo ciò che una macchina fa, ma come prende le decisioni e quali effetti produce sui lavoratori. Le aziende sono quindi chiamate ad adottare strumenti concreti e applicabili, aggiornando anche le procedure di valutazione dei rischi. Non più solo pericoli fisici, ma anche quelli legati all’interazione tra uomo e tecnologia.

Persona al centro e stop alla discriminazione algoritmica

Tra i pilastri della nuova disciplina spicca la centralità del lavoratore. Il principio del “human-in-the-loop” impone una presenza umana costante nelle decisioni più delicate: salute, sicurezza e condizioni contrattuali non possono essere lasciate esclusivamente a un software.

Questo controllo deve essere reale, non formale. Serve competenza, capacità di intervento e possibilità di correggere eventuali errori dell’algoritmo. Accanto a questo, prende forza il divieto di discriminazione algoritmica: i sistemi utilizzati nella gestione del personale devono evitare bias e trattamenti ingiustificati.

La trasparenza diventa quindi un obbligo concreto. Le imprese devono spiegare in modo chiaro funzionamento, dati utilizzati e criteri decisionali. Solo così si evita che la tecnologia si trasformi in una “scatola nera”, difficile da comprendere e contestare.

Legge 132/2025: come funziona la prima legge su AI in Italia
Photo by OleksandrPidvalnyi – Pixabay

Responsabilità, dati e sistema di controlli

Il datore di lavoro resta il principale garante della sicurezza. La normativa rafforza gli obblighi legati al Documento di Valutazione dei Rischi (DVR), che ora deve includere anche l’impatto degli strumenti digitali. Non solo rischi fisici: entrano in gioco anche quelli psicosociali, come stress, isolamento o sovraccarico cognitivo legati all’uso continuo di sistemi intelligenti.

Fondamentale anche la formazione: introdurre tecnologia senza preparazione adeguata espone a errori e inefficienze. I lavoratori devono essere messi nelle condizioni di comprendere e utilizzare correttamente l’IA, mentre le rappresentanze interne devono poter partecipare in modo consapevole. Sul fronte dei dati, il rispetto del GDPR resta imprescindibile. L’uso di informazioni personali, anche sensibili o biometriche, richiede limiti rigorosi per proteggere dignità e riservatezza. I sistemi di monitoraggio devono restare proporzionati, evitando controlli invasivi o occulti.