Intelligenza artificiale nel mondo del lavoro: le linee guida del Ministero

Pubblicato il



Pubblicate il 23 giugno 2025 dal Ministero del lavoro, in collaborazione con il Dipartimento della Funzione Pubblica della Presidenza del Consiglio dei Ministri e con il supporto operativo di Formez, le “Linee guida per l’implementazione dell’intelligenza artificiale nel mondo del lavoro, documento pensato per orientare l’introduzione delle tecnologie basate su intelligenza artificiale (IA) nei contesti lavorativi pubblici e privati, secondo principi di sicurezza, equità e responsabilità.

L’avvento dell’intelligenza artificiale nei luoghi di lavoro rappresenta infatti una delle trasformazioni più rilevanti della contemporaneità, con impatti trasversali su organizzazione, produttività, diritti e sicurezza dei lavoratori.

In tale scenario, l’elaborazione di un quadro di riferimento normativo e operativo assume una importanza rilevante per evitare effetti distorsivi, diseguaglianze o rischi per i diritti fondamentali.

Le Linee guida per l’implementazione dell’IA nel lavoro nascono dunque proprio con l’intento di offrire indicazioni concrete, aggiornate e coerenti con il panorama regolatorio europeo e internazionale (in particolare con l’AI Act dell’Unione Europea, i principi OCSE e le raccomandazioni UNESCO), mirando all’adozione dell’IA in modo etico, sicuro e antropocentrico, assicurando che il progresso tecnologico non comprometta la dignità, la libertà e il benessere dei lavoratori.

Vediamo di seguito nel dettaglio.

I punti della proposta ministeriale

Il cuore della proposta ministeriale è un modello di adozione responsabile dell’IA, fondato su cinque pilastri.

  1. Centralità della persona: la tecnologia deve essere al servizio dell’individuo, non sostituirlo o marginalizzarlo.
  2. Supervisione umana effettiva: ogni decisione algoritmica che incida su diritti o carriere deve essere monitorata da operatori qualificati.
  3. Prevenzione della discriminazione algoritmica: mediante controlli ex ante, audit etici e gestione dei bias nei dati.
  4. Trasparenza dei processi automatizzati: per garantire spiegabilità, tracciabilità e accountability delle decisioni.
  5. Equità e inclusività: con un’attenzione specifica alle PMI, ai lavoratori autonomi, ai soggetti più vulnerabili e alle microimprese.

Questi principi, esplicitati sin dalle prime fasi del documento, costituiscono la base per una governance multilivello dell’intelligenza artificiale nel lavoro.

Obiettivi

Il Ministero ha definito obiettivi chiari per rendere operativa la transizione digitale.

  • Fornire supporto pratico alle imprese e ai lavoratori nella comprensione, adozione e gestione delle tecnologie IA.
  • Garantire la coerenza normativa con gli strumenti giuridici esistenti (es. GDPR, D.Lgs. 231/2001, Statuto dei Lavoratori).
  • Sviluppare una cultura del lavoro digitale basata su fiducia, trasparenza e partecipazione.
  • Promuovere la formazione continua e la riqualificazione professionale come strumenti centrali di adattamento al cambiamento tecnologico.

Coinvolgimento degli stakeholder

Uno degli aspetti più innovativi dell’iniziativa è il coinvolgimento diretto di attori chiave del sistema produttivo e sociale. Alla consultazione pubblica sono stati infatti invitati a partecipare:

  • imprese, in particolare le PMI;
  • lavoratori autonomi e professionisti;
  • organizzazioni sindacali e associazioni di categoria;
  • enti del Terzo Settore;
  • istituti di formazione e università;
  • centri di ricerca e esperti di tecnologie digitali.

ParteciPa: la piattaforma digitale per la consultazione pubblica

Per garantire la massima trasparenza e accessibilità, il Ministero si è avvalso della piattaforma ParteciPa (www.partecipa.gov.it), sviluppata dalla Presidenza del Consiglio dei Ministri con il supporto di Formez, strumento innovativo di democrazia partecipativa digitale concepito per raccogliere contributi della cittadinanza su proposte normative o programmatiche.

Le funzionalità principali includono:

  • pubblicazione del documento in consultazione;
  • questionari a risposta aperta e guidata;
  • accesso tramite SPID, CIE o CNS per garantire l’identificazione;
  • tracciabilità del contributo individuale;
  • visualizzazione dei risultati e dei report di sintesi.

Chi ha partecipato alla consultazione pubblica

Nel periodo compreso tra il 14 aprile e il 21 maggio 2025, attraverso la piattaforma digitale ParteciPa, sono stati raccolti 70 questionari compilati da utenti identificati tramite SPID, CIE o CNS. Il questionario includeva domande a risposta aperta, pensate per favorire la libera espressione di opinioni, suggerimenti e osservazioni da parte dei partecipanti.

A questi si aggiungono oltre 30 contributi strutturati pervenuti tramite posta elettronica all’indirizzo ufficiale del Ministero, un canale messo a disposizione per facilitare l’invio di documenti articolati, con allegati tecnici o proposte formali da parte di organizzazioni, imprese e associazioni.

I 70 partecipanti che hanno compilato il questionario online provengono da quasi tutte le regioni italiane, a conferma della diffusione capillare dell’iniziativa. Le regioni con la maggiore partecipazione sono:

  • Lazio: 22 partecipanti;
  • Lombardia: 14 partecipanti;
  • Emilia-Romagna: 9 partecipanti.

Altre regioni rappresentate includono Abruzzo, Calabria, Campania, Piemonte, Toscana, Veneto, Sicilia, Sardegna, Basilicata e Puglia, con numeri più contenuti (da unp a tre partecipanti ciascuna).

Questa distribuzione geografica eterogenea suggerisce un interesse trasversale al tema dell’intelligenza artificiale nel lavoro, coinvolgendo territori caratterizzati sia da forti concentrazioni industriali e tecnologiche (es. Lombardia, Emilia-Romagna), sia da regioni con un tessuto imprenditoriale più frammentato

Analisi dei contributi: punti di forza e criticità

Punti di forza

I contributi ricevuti evidenziano un generale apprezzamento per la struttura teorica e l’impostazione valoriale delle Linee guida, che vengono giudicate coerenti con il quadro normativo internazionale e attente ai diritti dei lavoratori. In particolare, sono stati evidenziati i seguenti aspetti positivi:

  • coerenza normativa: Le Linee guida fanno riferimento esplicito all’AI Act dell’Unione Europea, alle raccomandazioni OCSE e alle linee guida dell’UNESCO, segnalando una piena consapevolezza dell’ecosistema regolatorio globale in materia di intelligenza artificiale;
  • centralità della persona e tutela dei diritti: Molti partecipanti hanno espresso consenso rispetto all’approccio antropocentrico ed etico, sottolineando l’importanza attribuita alla supervisione umana, alla trasparenza algoritmica, alla non discriminazione e alla dignità lavorativa;
  • inclusività: Le Linee guida sono state apprezzate anche per l’attenzione dedicata alle Piccole e Medie Imprese (PMI), ai lavoratori autonomi, ai soggetti vulnerabili e per la promozione di una transizione digitale equa e accessibile;
  • formazione e competenze: Un punto particolarmente valorizzato è la previsione di percorsi di formazione continua e aggiornamento delle competenze digitali, fondamentali per un’adozione efficace e sostenibile delle tecnologie IA.

Criticità

Accanto agli apprezzamenti, i partecipanti hanno segnalato alcune criticità strutturali del documento, proponendo soluzioni migliorative.

  • Mancanza di strumenti operativi concreti: una delle segnalazioni più ricorrenti riguarda l’eccessiva genericità delle raccomandazioni. I partecipanti hanno chiesto integrazioni pratiche come checklist, template, schede di valutazione del rischio, audit tecnici ed etici, nonché modelli precompilati da adattare ai contesti aziendali. Questa esigenza riflette una domanda di applicabilità immediata delle Linee guida nel quotidiano gestionale e operativo.
  • Ambiguità nei ruoli e nella governance: è stata evidenziata la necessità di definire in modo più chiaro e sistematico i ruoli e le responsabilità dei soggetti coinvolti nell’adozione dell’IA in ambito lavorativo (es. datore di lavoro, sviluppatore, team HR, responsabili della compliance). In particolare, è emersa l’importanza di prevedere meccanismi di supervisione, comitati etici aziendali e strumenti di controllo indipendenti.
  • Linguaggio tecnico poco accessibile: alcuni partecipanti hanno lamentato l’eccessivo tecnicismo del documento, che ne riduce la comprensibilità per utenti non esperti. Tra le proposte: semplificazione del linguaggio, creazione di glossari, inserimento di casi d’uso pratici, uso di infografiche e versioni “light” per una consultazione rapida.
  • Formulazioni non vincolanti: le Linee guida, pur offrendo indicazioni preziose, sono percepite da molti come prive di forza applicativa. Si suggerisce quindi l’adozione di norme-quadro di riferimento, standard minimi obbligatori, o la promozione di modelli di regolazione soft law che possano essere integrati nei contratti collettivi nazionali di lavoro.

Strumenti, governance, formazione, incentivi e diritti

Nel corso della consultazione sono emerse diverse aree tematiche prioritarie che hanno orientato le riflessioni e i suggerimenti dei partecipanti in merito alle Linee guida per l’implementazione dell’intelligenza artificiale nel mondo del lavoro.

Gli oltre 100 contributi raccolti (tra questionari online e invii via e-mail) hanno evidenziato con chiarezza i principali ambiti di intervento richiesti da imprese, lavoratori, esperti e stakeholder istituzionali. Le cinque macro-aree qui descritte rappresentano il cuore delle proposte: strumenti operativi, governance etica, formazione e competenze, finanziamenti, tutela della sicurezza e dei diritti.

Strumenti

Uno dei temi più sentiti dagli operatori coinvolti riguarda l’esigenza di dotarsi di strumenti pratici e standardizzati per l’adozione dell’intelligenza artificiale nei contesti aziendali: la transizione tecnologica non può avvenire senza supporti concreti, capaci di guidare le organizzazioni nella valutazione, implementazione e monitoraggio dei sistemi IA. Ecco alcune proposte.

  • AI Readiness Toolkit: uno strumento diagnostico modulare, composto da checklist e questionari autovalutativi per misurare il livello di preparazione all’introduzione dell’IA in ambiti chiave come governance, cultura aziendale, risorse umane e gestione dei dati.
  • Schede di rischio: moduli standardizzati per l’analisi dei potenziali impatti dei sistemi IA su processi organizzativi, diritti fondamentali, conformità normativa e sicurezza sul lavoro.
  • Audit tecnico ed etico: meccanismi di controllo integrati, orientati alla verifica della robustezza tecnologica, della trasparenza degli algoritmi, della protezione dei dati e del rispetto dei diritti dei lavoratori. L’audit dovrebbe coprire dimensioni tecniche, giuridiche, etiche e organizzative.
  • Dashboard open source: strumenti digitali per il monitoraggio delle decisioni automatizzate, che consentano di tracciare le logiche algoritmiche e garantire la trasparenza dei processi decisionali.

Governance, etica e responsabilità nell’uso dell’IA

La seconda area tematica emersa con forza riguarda la necessità di definire modelli chiari di governance dell’IA, con una distribuzione trasparente delle responsabilità e l’inserimento di meccanismi etici e partecipativi nei processi decisionali. Le principali proposte riguardano:

  • supervisione umana qualificata: per ogni decisione automatizzata che incida sui diritti, le condizioni di lavoro o le opportunità di carriera, deve essere garantita la presenza di un operatore umano competente (“human-in-the-loop”) con diritto di intervento e controllo;
  • comitati etici aziendali: organi interni multidisciplinari con funzione di valutazione, controllo e supervisione degli algoritmi utilizzati. Si propone l’integrazione di questi comitati nei sistemi di governance aziendale, in sinergia con le rappresentanze sindacali e gli organismi di vigilanza;
  • audit multidimensionali: controlli periodici su sistemi IA che integrino tre dimensioni principali:
  1. tecnica: valutazione della correttezza algoritmica, della qualità dei dati e della sicurezza informatica.
  2. etica: analisi dei rischi di discriminazione, bias, opacità e impatti psicosociali.
  3. giuridica: verifica della conformità a normative nazionali ed europee.

Tutti questi strumenti devono essere proporzionati alla scala dell’organizzazione e accessibili anche per realtà meno strutturate. I partecipanti suggeriscono modelli scalabili e strumenti semplificati per le PMI.

Formazione e sviluppo delle competenze

Altro tema trasversale emerso con chiarezza riguarda la formazione continua come fattore abilitante per l’adozione dell’IA. I contributi hanno sottolineato come la transizione digitale non sia sostenibile senza un massiccio investimento in educazione digitale, aggiornamento professionale e cultura dell’IA. Le proposte includono:

  • moduli formativi per PMI e lavoratori autonomi: corsi brevi, flessibili, accessibili anche in modalità asincrona, mirati alle esigenze concrete dei soggetti meno strutturati;
  • percorsi manageriali ed executive: formazione strategica per dirigenti e figure apicali (HR, IT, compliance) sui temi della governance, della trasparenza e del valore etico dell’IA;
  • piattaforme digitali adaptive: strumenti di e-learning personalizzati basati su intelligenza artificiale, che adattano i contenuti formativi al livello di partenza dell’utente;
  • formazione etica: moduli specifici per la comprensione dei rischi associati all’IA, come discriminazione algoritmica, sorveglianza e opacità;
  • badge digitali e passaporti di competenze: strumenti di riconoscimento delle competenze acquisite, utili per il mercato del lavoro e per la mobilità professionale.

Tutti i partecipanti concordano sull’importanza di voucher formativi pubblici, fondi interprofessionali e albi nazionali di esperti per facilitare l’accesso alla formazione anche nei contesti meno digitalizzati.

Finanziamenti e incentivi per l’adozione dell’IA

Il tema dei finanziamenti per l’adozione responsabile dell’intelligenza artificiale è stato affrontato con numerose proposte operative. Le imprese - in particolare PMI, cooperative e Terzo Settore - segnalano una difficoltà nell’accesso agli incentivi esistenti, spesso frammentati o tecnici. Le soluzioni suggerite includono:

  • voucher tecnologici e consulenziali: per supportare le imprese nelle fasi di selezione, test e integrazione di soluzioni IA;
  • crediti d’imposta mirati: estensione dei meccanismi previsti da Transizione 4.0 e 5.0 per coprire anche le spese in consulenza, formazione e sviluppo etico dell’IA;
  • sportelli territoriali di supporto: presidi regionali per orientare le imprese sui bandi disponibili, offrire accompagnamento alla candidatura e verificare la sostenibilità dei progetti;
  • portale unico per gli incentivi: una piattaforma nazionale con filtri per settore, area geografica e dimensione aziendale, schede sintetiche degli incentivi disponibili e strumenti interattivi (es. chatbot, newsletter, calendario scadenze);
  • premialità per progetti inclusivi ed etici: incentivi maggiorati per iniziative che abbiano un impatto positivo in termini di sostenibilità ambientale, sicurezza sul lavoro, inclusione sociale o coinvolgimento di soggetti fragili.

Il concetto di condizionalità etica degli incentivi - già presente in altri ambiti europei - è stato proposto come criterio guida per garantire l’utilizzo responsabile dei fondi pubblici.

Sicurezza, diritti e benessere lavorativo nell’era dell’intelligenza artificiale

Infine, la consultazione ha fatto emergere con forza il tema della tutela dei diritti fondamentali dei lavoratori nell’ambito dei sistemi automatizzati. L’intelligenza artificiale, se mal gestita, può infatti generare effetti negativi in termini di stress, sorveglianza, perdita di autonomia e rischio discriminazione. Le principali criticità evidenziate e le relative proposte sono:

  • stress da automazione: la pressione generata da ritmi imposti da algoritmi, monitoraggio continuo e mancanza di controllo umano è riconosciuta come rischio psicosociale emergente. Si propone di:

    • inserire lo stress da automazione nei documenti di valutazione dei rischi (DVR);

    • introdurre strumenti di rilevazione periodica (es. semafori di stress, questionari);

    • fornire supporto psicologico e percorsi formativi sulle competenze digitali.

  • Sorveglianza digitale e privacy: forte preoccupazione per pratiche invasive come il monitoraggio biometrico, l’analisi emotiva, l’eye-tracking. Si chiede di:

    • applicare i principi di necessità, proporzionalità e minimizzazione;

    • vietare tecnologie intrusive prive di base giuridica solida;

    • istituire comitati etici e audit regolari per verificare il rispetto della privacy.

  • Diritto alla disconnessione: riaffermato come diritto fondamentale, in linea con la normativa europea sul work-life balance.
  • Whistleblowing algoritmico: canali sicuri e anonimi per segnalare abusi, discriminazioni o malfunzionamenti nei sistemi automatizzati.
  • Figura dell’“AI Officer” o Responsabile della Trasparenza: proposta di introdurre una nuova figura professionale incaricata di vigilare sull’uso etico e trasparente dell’IA nei luoghi di lavoro.

Verso un piano nazionale per il lavoro e l’intelligenza artificiale

Al termine della fase di consultazione pubblica e dell’elaborazione del report finale pubblicato il 23 giugno 2025, il Ministero ha tracciato una chiara direzione evolutiva per trasformare le Linee guida per l’implementazione dell’intelligenza artificiale nel mondo del lavoro in uno strumento operativo, applicabile e condiviso.

Una delle proposte principali contenute nel documento conclusivo della consultazione è l’elaborazione di un Piano nazionale per il lavoro e l’intelligenza artificiale, strumento programmatico con la funzione di coordinare le azioni istituzionali, legislative e operative relative all’adozione dell’IA nel mercato del lavoro, con un’attenzione specifica alla sicurezza, alla trasparenza e alla sostenibilità occupazionale.

Il piano si articolerà su diversi assi di intervento, in linea con le principali indicazioni emerse dai partecipanti alla consultazione.

  • Norme e standard applicativi: il Ministero si impegna a tradurre i principi delle Linee guida in modelli operativi e regolatori, capaci di orientare le imprese nell’attuazione pratica. Questo include l’integrazione con le normative vigenti e l’elaborazione di documenti tecnici di supporto (template, audit, checklist).
  • Formazione e competenze digitali: il piano prevede un’azione sistemica per il potenziamento delle competenze digitali, con percorsi formativi ad hoc per lavoratori, manager, HR, consulenti del lavoro e funzionari pubblici. L’obiettivo è creare una cultura diffusa dell’IA, accessibile anche a PMI e soggetti vulnerabili.
  • Strumenti di supporto e finanziamento: saranno individuate linee di intervento economico a sostegno di progetti che promuovano l’adozione etica dell’IA, con attenzione ai territori meno digitalizzati e alle imprese di minori dimensioni.
  • Monitoraggio e valutazione: la definizione di indicatori di impatto e meccanismi di controllo pubblico consentirà di verificare l’effettiva efficacia delle politiche adottate. Il Ministero intende promuovere un approccio basato su trasparenza, rendicontazione e miglioramento continuo.

Questo piano nazionale sarà concepito in coerenza con le strategie europee sull’IA (AI Act, Digital Decade, Agenda europea delle competenze) e si inserirà nella cornice più ampia della transizione digitale e green dell’economia italiana.

L’ultimo obiettivo - ma non meno importante - dichiarato nel documento di sintesi della consultazione è infine quello di trasformare le Linee guida in un manuale realmente utilizzabile da parte di imprese, professionisti, lavoratori e pubbliche amministrazioni. A tal fine, il Ministero si propone di:

  1. produrre una versione aggiornata ed estesa delle Linee guida, arricchita con allegati tecnici, glossari, schede esplicative e buone pratiche;
  2. creare una piattaforma digitale dedicata, integrata nel portale del Ministero, da cui sia possibile scaricare strumenti operativi (modelli, cruscotti, check list), accedere a contenuti formativi, inviare quesiti e ricevere assistenza normativa, consultare esempi di implementazione reali;
  3. definire standard minimi per i diversi settori produttivi, sulla base della classificazione del rischio degli impieghi IA prevista dall’AI Act. promuovere un nuovo equilibrio tra innovazione e diritti, fondato su trasparenza, responsabilità condivisa e partecipazione attiva. Le Linee guida non saranno solo uno strumento normativo, ma anche un patto sociale per l’innovazione etica del lavoro;
  4. monitorare l’impatto delle Linee guida sul campo, attraverso l’attivazione di un osservatorio permanente, incaricato di raccogliere dati, elaborare report e formulare proposte correttive in caso di criticità applicative.

Le linee guida, in breve

Normativa e regolazione

Integrazione delle Linee guida con normative esistenti (AI Act, GDPR, Statuto dei Lavoratori, ecc.)

Coerenza giuridica e applicabilità nei contesti aziendali

Formazione e competenze

Sviluppo di percorsi formativi per lavoratori, dirigenti e consulenti

Diffusione della cultura digitale e dell’etica dell’IA

Strumenti pratici

Pubblicazione di checklist, schede di rischio, audit etico e tecnico

Supporto operativo alle imprese, in particolare PMI e microimprese

Finanziamenti e incentivi

Voucher, crediti d’imposta, sportelli territoriali, premialità per progetti etici

Rimozione delle barriere economiche all’adozione dell’IA

Tavoli di confronto con stakeholder

Creazione di gruppi di lavoro settoriali con imprese, sindacati, enti di ricerca

Governance partecipata e costruzione condivisa delle policy

Piattaforma digitale

Portale dedicato per accesso a strumenti, FAQ, esempi e assistenza tecnica

Centralizzazione e semplificazione dell’accesso alle risorse operative

Monitoraggio e valutazione

Istituzione di un osservatorio permanente

Verifica continua dell’efficacia e aggiornamento delle Linee guida

Versione aggiornata del documento

Ampliamento delle Linee guida con allegati tecnici, glossari e buone pratiche

Chiarezza applicativa e accessibilità per tutti gli attori

Standard settoriali minimi

Definizione di requisiti minimi per settori a rischio (es. sanità, HR, logistica)

Tutela specifica e differenziata secondo il livello di rischio IA

Trasparenza e diritti dei lavoratori

Introduzione di codici etici, supervisione umana, strumenti di segnalazione

Salvaguardia della dignità, sicurezza e privacy nei contesti automatizzati


 

Allegati

Ricevi GRATIS la nostra newsletter

Ogni giorno sarai aggiornato con le notizie più importanti, documenti originali, anteprime e anticipazioni, informazioni sui contratti e scadenze.

Richiedila subito