Intelligenza artificiale: in vigore il nuovo Regolamento europeo

Pubblicato il 02 agosto 2024

In vigore, dal 1° agosto 2024, il nuovo Regolamento UE n. 2024/1689 del 13 giugno 2024 che stabilisce regole armonizzate sull'intelligenza artificiale e modifica i precedenti regolamenti e le direttive in materia (Regolamento sull'intelligenza artificiale).

Il provvedimento è stato pubblicato nella Gazzetta Ufficiale dell'Unione Europea del 12 luglio 2024.

Il Regolamento era stato approvato dal Parlamento europeo nella seduta del 13 marzo 2024.

La nuova legge, frutto dell'accordo raggiunto con gli Stati membri nel dicembre 2023, è stata formalmente approvata dal Consiglio dell'Unione europea il 21 maggio 2024.

Si tratta della prima normativa al mondo a regolare il funzionamento dell’IA.

Intelligenza artificiale: le nuove regole europee

L'obiettivo del testo Ue è quello di garantire il rispetto dei diritti fondamentali e la sicurezza, promuovendo, contestualmente, l'innovazione dei sistemi.

Questo, attraverso un quadro giuridico uniforme per quanto riguarda lo sviluppo, l'immissione sul mercato, la messa in servizio e l'uso di sistemi di intelligenza artificiale nell'Unione europea, in conformità dei valori comunitari.

L'intento è di promuovere la diffusione di un'intelligenza artificiale "antropocentrica e affidabile", garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali (democrazia, stato di diritto e protezione dell'ambiente), e incoraggiando l'innovazione.

In esso sono stabiliti alcuni obblighi per l'intelligenza artificiale, in funzione dei possibili rischi e del livello d'impatto degli strumenti utilizzati.

E' previsto, infatti, un approccio basato sul rischio definito in modo chiaro, in cui la tipologia e il contenuto delle regole sono adattate tenendo conto dell'intensità e della portata dei rischi che possono essere generati dai sistemi di IA.

Sistemi IA di uso generale: gli obblighi da rispettare

In primo luogo, i modelli dei sistemi di IA per finalità generali dovranno:

I modelli a maggiore impatto, invece, vale a dire quelli che potrebbero comportare dei rischi sistemici, saranno tenuti a rispettare anche altri obblighi, come quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti.

NOTA BENE: In ogni caso, è stabilito che le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti "deepfake") dovranno essere chiaramente indicati come tali.

Sistemi IA ad alto rischio: obblighi più stringenti

Specifici obblighi sono previsti per i sistemi di IA definiti ad alto rischio, quei sistemi, ossia, che potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all'ambiente, alla democrazia e allo Stato di diritto.

Rientrano nel novero dei predetti sistemi gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base, alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici.

Per i sistemi ad alto rischio, così, sono previsti obblighi più stringenti, quali quelli:

E' fatto salvo il diritto dei cittadini di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.

Controlli di massa e identificazioni biometriche: le applicazione vietate

Nella normativa sono individuate anche alcune applicazioni di IA espressamente vietate, in considerazione della loro idoneità a minacciare i diritti dei cittadini.

Il divieto riguarda:

Eccezioni per forze dell'ordine

Le forze dell’ordine, in linea generale, non potranno fare ricorso ai sistemi di identificazione biometrica, salvo che in alcune situazioni specifiche, espressamente previste dalla legge.

L'identificazione in tempo reale, così, è ammessa esclusivamente in presenza di garanzie rigorose (uso limitato nel tempo e nello spazio, previa autorizzazione giudiziaria o amministrativa).

L'utilizzo in questione è possibile, ad esempio, nelle ipotesi di ricerca di una persona scomparsa o per prevenire un attacco terroristico.

In ogni caso, l'autorizzazione giudiziaria per l'uso di questi sistemi a posteriori, considerati ad alto rischio, dovrà essere collegata a un reato.

Sostegno a innovazione e Pmi

Nel testo sono contenute anche misure a sostegno dell'innovazione e delle PMI.

Gli Stati membri, a tal fine, saranno tenuti ad istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (sandbox).

In questo modo, le PMI e start-up potranno sviluppare sistemi di IA innovativi e addestrarli prima della relativa immissione sul mercato.

Prossimi passaggi per operatività delle nuove regole

Ai sensi di quanto disposto, il nuovo regolamento entra in vigore 20 giorni dopo la relativa pubblicazione nella Gazzetta ufficiale dell'UE, vale a dire dal 1° agosto 2024.

Il provvedimento, tuttavia, inizierà ad applicarsi dopo 24 mesi, ossia il 2 agosto 2026, salvo per quel che riguarda:

Allegati
Condividi l'articolo
Potrebbe interessarti anche

CCNL Porti - Accordo di rinnovo del 18/11/2024

22/11/2024

CCNL Comunicazione artigianato - Ipotesi di accordo del 18/11/2024

22/11/2024

Ccnl Porti. Rinnovo

22/11/2024

Comunicazione artigianato. Rinnovo

22/11/2024

CCNL Terziario Confesercenti - Accordo integrativo del 4/11/2024

22/11/2024

Società di ingegneria: validi i contratti con soggetti privati post 1997

22/11/2024

Ai sensi dell'individuazione delle modalità semplificate per l'informativa e l'acquisizione del consenso per l'uso dei dati personali - Regolamento (UE) n.2016/679 (GDPR)
Questo sito non utilizza alcun cookie di profilazione. Sono invece utilizzati cookie di terze parti legati alla presenza dei "social plugin".

Leggi informativa sulla privacy