AI ACT: Approvato Il Testo Del Regolamento UE Sulla Intelligenza Artificiale

Il testo definitivo dell'AI Act è stato approvato e pubblicato nella Gazzetta Ufficiale dell'Unione Europea. In questo articolo vediamo chi sono i soggetti tenuti al rispetto del Regolamento e gli obblighi che la normativa pone a loro carico. Quali sono le applicazioni dell'intelligenza artificiale soggette all'AI Act, come vengono classificate e disciplinate. Vedremo quali usi dell'intelligenza artificiale sono considerati ad alto rischio, e quali sono invece vietati del tutto perché ritenuti eccessivamente rischiosi.

Premessa: l'AI Act è un regolamento lungo e complesso. Con questo articolo ci cimentiamo con l'obiettivo non facile di fornire una visione di insieme della nuova normativa sull'intelligenza artificiale. Cercheremo di conciliare l'esigenza di completezza con quella di non scendere troppo nel dettaglio: alcuni degli aspetti qui introdotti saranno oggetto di trattazioni dedicate in futuro sul nostro blog.




Introduzione

Obiettivi dell'AI ACT

Gli obiettivi dell'AI Act possono essere così riassunti:

  1. introdurre un quadro normativo uniforme che favorisca il buon funzionamento del mercato unico digitale e lo sviluppo di tecnologie e prodotti basati sull'intelligenza artificiale;
  2. garantire la sicurezza e la conformità dei sistemi di intelligenza artificiale immessi sul mercato con la normativa europea in materia di diritti fondamentali;
  3. predisporre una governance che garantisca la puntuale applicazione ed esecuzione dell'AI Act.

Ambito di applicazione

L'AI Act si applica a:

  • fornitori di sistemi di IA, o di modelli di IA per finalità generali;
  • deployer di sistemi di IA
  • importatori e distributori
  • fabbricanti di prodotti che immettono sul mercato un sistema di IA unitamente al loro prodotto, apponendo il loro nome o marchio
  • rappresentanti autorizzati di fornitori non stabiliti in UE
  • le persone interessate che si trovano in UE: le persone in vario modo coinvolte dall'impiego di un sistema di IA.

Tali soggetti sono pertanto tenuti al rispetto del Regolamento, come specificato dall'articolo 2.

Chi è il deployer?

Il testo definitivo dell'AI Act introduce tra i soggetti tenuti al rispetto del Regolamento il deployer, così definito dall'articolo 3.

"deployer": una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un'attività personale non professionale;

Articolo 3

Struttura dell'AI Act

Per conseguire gli obiettivi normativi appena menzionati, l'AI Act introduce norme che disciplinano l'immissione sul mercato, la messa in servizio e l'uso dei sistemi di IA nell'Unione, e in particolare:

  • divieto di impiegare l'intelligenza artificiale per alcune finalità (Capo II);
  • classificazione di alcuni sistemi di IA come ad alto rischio : per tali sistemi vengono previsti requisiti ed obblighi ulteriori (Capo III);
  • obblighi di trasparenza per determinati sistemi di IA (Capo IV);
  • norme specifiche per modelli di IA per finalità generali (Capo V);
  • norme su governance (Capo VIII), monitoraggio e vigilanza del mercato, esecuzione (Capo IX)
  • misure a sostegno dell'innovazione, spazi di sperimentazione normativa (regulatory sandbox) (Capo VI).

Approccio basato sul rischio

L'AI Act segue un approccio basato sul rischio : questo vuol dire che la regolamentazione è calibrata sul rischio che le varie applicazioni dell'AI Act possono comportare, in particolare per la salute, la sicurezza e i diritti fondamentali. A tal fine, l'AI Act prevede 3 livelli di rischio e stabilisce requisiti più stringenti per gli usi e applicazioni dell'intelligenza artificiale considerati più rischiosi.

I tre livelli di rischio dell'AI Act

L'AI Act individua i seguenti 3 livelli di rischio:

  1. rischio inaccettabile : alcune pratiche vengono vietate tout court;
  2. rischio alto : per alcune applicazioni vengono previsti dei requisiti particolarmente stringenti;
  3. rischio minimo (limitato) : per gli usi dell'IA diversi da quelli ad alto rischio vengono previsti obblighi di trasparenza.

Un ulteriore profilo di rischio è quello posto dai modelli di IA per finalità generali con rischio sistemico che affronteremo in seguito nell'articolo.


schema sull'approccio basato sul rischio seguito dall'AI Act
Dal sito della Commissione UE

Entrata in vigore dell'AI Act

L'AI Act è in vigore dal 2 Agosto del 2024 e sarà pienamente applicabile dal 2 Agosto del 2026. L'applicazione di alcune parti del Regolamento è però anticipata al 2025: le disposizioni di carattere generale (capi I e II) dal 2 Febbraio, mentre governance, obblighi per fornitori di modelli di IA per finalità generali e sanzioni, dal 2 Agosto.

Gli usi vietati dell'intelligenza artificiale

L'AI Act vieta l'impiego dell'intelligenza artificiale per i seguenti scopi (articolo 5):

  • manipolare le persone in maniera da provocare, o rischiare di provocare, danni fisici o psicologici alla persona vittima di manipolazione o ad altri;
  • sfruttare le vulnerabilità delle persone, dovute ad età o disabilità, al fine di alterarne il comportamento producendo o rendendo possibile un danno fisico o psicologico per queste stesse persone o altri.
  • social scoring : valutare la condotta degli individui ed assegnare loro un punteggio da cui derivano conseguenze sfavorevoli, che siano:
    • sproporzionate rispetto alle condotte tenute oppure
    • scollegate rispetto ai contesti in cui i dati sono stati originariamente generati o raccolti
  • raccogliere dati sulle persone al fine di valutare la possibilità che queste commettano un reato;
  • creare o ampliare banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso;
  • intepretare le emozioni delle persone sul luogo di lavoro e negli istituti di istruzione, a meno che ciò non avvenga per motivi medici o di sicurezza.
  • classificare le persone sulla base dei loro dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale.
  • alcuni usi della identificazione biometrica remota "in tempo reale"; su questo argomento sono necessarie alcune distinzioni cui dedichiamo il prossimo paragrafo.

L'identificazione biometrica remota

Secondo la definizione fornita dall'articolo 3, l'identificazione biometrica è il riconoscimento automatizzato delle caratteristiche umane fisiche, fisiologiche, comportamentali o psicologiche allo scopo di determinare l'identità di una persona fisica confrontando i suoi dati biometrici con quelli di individui memorizzati in una banca dati;.

Un sistema di identificazione biometrica remota è invece un sistema di IA finalizzato all'identificazione di persone fisiche, senza il loro coinvolgimento attivo, tipicamente a distanza mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento

L'identificazione biometrica può essere effettuata:

  • in tempo reale : il rilevamento dei dati biometrici, il confronto e l'identificazione avvengono senza ritardi significativi;
  • a posteriori : confronto ed identificazione avvengono in un tempo successivo a quello in cui sono stati raccolti i dati biometrici.

Quando è vietata l'identificazione biometrica remota?

L'AI Act vieta l'identificazione biometrica remota quando questa avviene in tempo reale e per finalità di contrasto, ossia a fini di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse, se non nei seguenti casi:

  1. ricerca di persone scomparse, vittime di sottrazione o tratta di esseri umani;
  2. la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l'incolumità fisica delle persone fisiche o di una minaccia reale e attuale o reale e prevedibile di un attacco terroristico;
  3. la localizzazione o l'identificazione di una persona sospettata di aver commesso un reato, ai fini dello svolgimento di un'indagine penale, o dell'esercizio di un'azione penale o dell'esecuzione di una sanzione penale per i reati di cui all'allegato II, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno quattro anni. Si tratta dei reati elencati dalla decisione quadro 2002/584/GAI del Consiglio relativa al mandato d'arresto europeo.

In tali casi, espressamente elencati dall'Articolo 5, l'uso di sistemi di intelligenza artificiale per l'identificazione biometrica remota in tempo reale per finalità di contrasto è consentita, a patto di rispettare le seguenti condizioni:

  1. è necessario solo per confermare l'identità della persona specificamente interessata;
  2. è preceduto da una autorizzazione rilasciata da una autorità giudiziaria o amministrativa indipendente; questo, a meno che non ricorra una situazione di urgenza debitamente giustificata, nel qual caso il sistema di IA può essere utilizzata a patto che l'autorizzazione sia richiesta entro 24 ore.
  3. l'autorità di contrasto ha eseguito una valutazione di impatto sui diritti fondamentali ai sensi dell'articolo 27, e ha registrato il sistema nella banca dati UE prevista dall'articolo 49.

Inoltre, ogni impiego di un sistema di IA per l'identificazione biometrica remota in tempo reale a finalità di contrasto dovrebbe essere notificata alla competente autorità di vigilanza del mercato e all'autorità nazionale per la protezione dei dati. Tali autorità sono tenute a presentare alla Commissione una relazione annuale sugli usi dei sistemi di IA oggetto di notifica.

Infine, l'impiego dell'intelligenza artificiale per la finalità in argomento è possibile sempre quando lo Stato membro la consenta: ben potrebbe uno Stato vietarla del tutto, così come potrebbe anche consentirla a condizioni più restrittive di quelle previste dal Regolamento.

Identificazione biometrica remota a posteriori

L'AI Act all'articolo 26 disciplina l'impiego di un sistema di IA ad alto rischio per identificazione biometrica remota a posteriori a finalità di contrasto: è necessaria una preventiva autorizzazione, o al massimo entro 48 ore, da parte dell'autorità giudiziaria la cui decisione sia vincolante e soggetta a controllo giurisdizionale. L'uso del sistema per tali finalità è limitato a quanto strettamente necessario per indagare su uno specifico reato.

Se l'autorizzazione è negata, l'uso del sistema è precluso e i dati eventualmente personali eventualmente raccolti sono cancellati.

In nessun caso tale sistema di IA ad alto rischio per l'identificazione biometrica remota a posteriori è utilizzato a fini di contrasto in modo non mirato, senza alcun collegamento con un reato, un procedimento penale, una minaccia reale e attuale o reale e prevedibile di un reato o la ricerca di una determinata persona scomparsa.

Articolo 26 (10)

I sistemi di IA ad alto rischio

L'AI Act definisce alcuni sistemi di intelligenza artificiale come ad alto rischio e prevede per questi dei requisiti ulteriori.
Secondo l'articolo 6 dell'AI Act i sistemi di IA ad alto rischio sono quelli che costituiscono componenti di sicurezza di prodotti, o sono essi stessi prodotti, soggetti a:

  • la normativa di armonizzazione elencata dall'ALLEGATO I al Regolamento;
  • valutazione di conformità da parte di terzi per l'immissione sul mercato, come previsto dalla normativa di armonizzazione elencata dall'ALLEGATO I al Regolamento.

I sistemi ad alto rischio: l'Allegato III all'AI Act

Inoltre, sono sistemi di IA ad alto rischio anche quelli che l'ALLEGATO III elenca e raggruppa in base al settore cui sono destinati:

  1. Biometria
  2. Infrastrutture critiche
  3. Istruzione e formazione professionale
  4. Occupazione, gestione dei lavoratori e accesso al lavoro autonomo
  5. Accesso ai servizi privati essenziali e a prestazioni e servizi pubblici essenziali e fruizione degli stessi
  6. Attività di contrasto
  7. Migrazione, asilo e gestione delle frontiere
  8. Amministrazione della giustizia e processi democratici.

Tuttavia, un sistema di IA, per quanto ricompreso nell'elenco dell'ALLEGATO III, non viene classificato come ad alto rischio se non rappresenta alcun rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche: tale assenza di rischio è presunta se il sistema di IA è impiegato per almeno una delle seguenti finalità:

  • eseguire un compito procedurale limitato;
  • migliorare il risultato di un'attività umana precedentemente completata;
  • rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non è finalizzato a sostituire o influenzare la valutazione umana precedentemente completata senza un'adeguata revisione umana
  • eseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d'uso elencati nell'ALLEGATO III

I requisiti dei sistemi di IA ad alto rischio

In ragione del maggior rischio che comportano, i sistemi di IA classificati ad alto rischio sono soggetti a requisiti più stringenti.

Sistema di gestione dei rischi

Il primo dei requisiti per i sistemi di IA ad alto rischio consiste nella elaborazione di un sistema di gestione dei rischi volto ad identificare ed attenuare i rischi che il sistema pone per la salute, la sicurezza e i diritti fondamentali (articolo 9).

Il sistema di gestione dei rischi è inteso come un processo iterativo continuo pianificato ed eseguito nel corso dell'intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un riesame e un aggiornamento costanti e sistematici.

Articolo 9 (2)

In altre parole, il sistema di gestione dei rischi consiste in un processo continuo che mira ad individuare e ad attenuare gli eventuali rischi che dovessero emergere con l'uso del sistema. Vanno considerati i rischi noti, derivanti da un uso del sistema IA in maniera conforme alle sue finalità, ma anche quelli dovuti ad un uso improprio benché ragionevolmente prevedibile del sistema.

Registrazione presso la banca dati UE di sistemi IA ad alto rischio

Prima della immissione sul mercato, un sistema di IA classificato ad alto rischio in base all'ALLEGATO III, ad eccezione di quelli impiegati nelle infrastrutture critiche, deve essere registrato presso la apposita banca dati disciplinata dall'articolo 71. L'obbligo di registrazione sussiste anche per i sistemi che, sebbene ricompresi nell'elenco dell'ALLEGATO III, non sono stati classificati come ad alto rischio.

L'obbligo di registrazione nella banca dati UE è disciplinato dall'articolo 49.

Altri requisiti

Altri requisiti per i sistemi di IA ad alto rischio sono previsti dagli articoli dal 10 al 15 e riguardano:

  1. Dati e governance dei dati. Il corretto funzionamento e la sicurezza di un sistema di IA dipendono in buona misura dalla qualità dei dati; vengono dunque previste apposite pratiche di governance e gestione dei dati. I set di dati di addestramento...dovrebbero essere pertinenti, sufficientemente rappresentativi e, nella misura del possibile, esenti da errori e completi nell'ottica della finalità prevista dal sistema. Così il considerando n° 67.
  2. Documentazione tecnica. Da redigere prima dell'immissione sul mercato o messa in servizio del sistema, deve essere idonea a dimostrare la conformità del sistema ai requisiti e consentire il monitoraggio del sistema una volta entrato in produzione.
  3. Conservazione delle registrazioni (log). I sistemi ad alto rischio devono consentire la registrazione automatica degli eventi, noti come log, per tutta la durata del ciclo di vita del sistema.
  4. Trasparenza e fornitura di informazioni ai deployer. I sistemi di IA vanno progettati in maniera da consentire al deployer di comprendere il funzionamento del sistema di IA (considerando 72), e accompagnati ad istruzioni per l'uso, chiare e complete.
  5. Sorveglianza umana. Il sistema è progettato per consentire la sorveglianza e l'intervento da parte di un operatore umano, dunque soggetto a dei limiti che il sistema non può annullare o aggirare.
  6. Accuratezza, robustezza e cibersicurezza. Al sistema si richiede un adeguato livello di accuratezza, robustezza e cibersicurezza; alla Commissione spetterà di promuovere, in collaborazione con organizzazioni ed esperti del settore, l'adozione di parametri e metodologie per misurare e valutare il possesso di tali requisiti.

Obblighi per i fornitori di sistemi di intelligenza artificiale ad alto rischio

Gli obblighi per i fornitori di sistemi di intelligenza artificiale ad alto rischio sono elencati dall'articolo 16 e disciplinati nel dettaglio dagli articoli dal 17 al 22.

Il fornitore deve:

  1. garantire la conformità ai requisiti previsti per i sistemi ad alto rischio;
  2. adottare un sistema di gestione della qualità che elenchi le politiche e le procedure seguite per assicurare che il sistema di intelligenza artificiale sia conforme al Regolamento;
  3. conservazione dei documenti, tra cui la documentazione tecnica di cui all'articolo 11 e la documentazione relativa al sistema di gestione della qualità di cui all'articolo 17
  4. conservare i log generati automaticamente dal sistema, se questi sono nelle disponibilità del fornitore, per almeno 6 mesi;
  5. misure correttive e dovere di informazione per il caso in cui il fornitore realizzi che il sistema di IA messo sul mercato non è conforme al Regolamento. Adottare misure correttive ed informare distributori, deployer, rappresentante autorizzato ed importatori.
  6. cooperare con le autorità competenti e fornire su richiesta le informazioni e la documentazione per dimostrare la conformità del sistema al Regolamento;
  7. nomina di rappresentanti autorizzati in UE per fornitori stabiliti in paesi terzi.

Agli obblighi appena elencati, si aggiungono quelli cui accenniamo di seguito.

Valutazione della conformità

I fornitori sottopongono il sistema di IA ad alto rischio alla pertinente procedura di valutazione della conformità di cui all'articolo 43 prima che sia immesso sul mercato o messo in servizio..

Dichiarazione di conformità per i sistemi di IA ad alto rischio

Il fornitore di un sistema di IA ad alto rischio deve poi produrre una dichiarazione di conformità che attesti il possesso da parte del sistema dei requisiti previsti per i sistemi di IA ad alto rischio. Tale documento deve contenere le informazioni elencate dall'ALLEGATO V e deve essere conservato e reso disponibile alle autorità competenti per un periodo di 10 anni dal momento in cui il sistema viene messo in servizio. Così dispone l'articolo 47.

Monitoraggio successivo alla immissione sul mercato del sistema IA ad alto rischio

L'articolo 72 richiede al fornitore di predisporre un sistema di monitoraggio del sistema ad alto rischio una volta che questo è stato immesso sul mercato. Il sistema raccoglie ed analizza durante tutto il ciclo di vita del sistema i dati sulle performance, consentendo al fornitore di valutare la conformità nel tempo del sistema.

Il monitoraggio è necessario in ragione del fatto che il sistema di IA continua l'apprendimento, e si evolve, dopo essere stato messo in servizio; possono dunque emergere rischi non previsti in fase di progettazione o nel momento in cui il sistema è stato immesso sul mercato.

Segnalazione di incidenti gravi

I fornitori di sistemi di IA classificati ad alto rischio sono tenuti a predisporre anche un sistema per segnalare alle autorità competenti eventuali gravi incidenti che si dovessero verificare con l'uso del sistema di IA. Così dispone l'articolo l'articolo 73.

Secondo l'AI Act un incidente è grave quando causa il decesso o gravi danni alla salute, perturbazioni gravi e irreversibili della gestione o del funzionamento delle infrastrutture critiche, violazioni degli obblighi ai sensi del diritto dell'Unione intesi a proteggere i diritti fondamentali o gravi danni alle cose o all'ambiente. Questa la definizione fornita dal considerando 155; v. anche articolo 3(49).


L'immissione sul mercato di un sistema di IA ad alto rischio (infografica)

infografica sulla immissione sul mercato di un sistema di IA ad alto rischio
Dal sito della Commissione UE

Obblighi degli importatori

L'articolo 23 elenca gli obblighi degli importatori dei sistemi di IA ad alto rischio. In primo luogo, gli importatori garantiscono che il sistema sia conforme al Regolamento e tal fine verificano che il sistema:

  1. rechi la marcatura CE (articolo 48)
  2. sia dotato della dichiarazione di conformità (articolo 47) ed
  3. istruzioni per l'uso

Inoltre, l'importatore è tenuto a verificare che il fornitore abbia:

  1. eseguito la procedura di valutazione di conformità prevista dall'articolo 43;
  2. redatto la documentazione tecnica;
  3. nominato un rappresentante autorizzato, se il fornitore è stabilito in un paese non UE.

Infine, gli importatori:

  • indicano il loro nome, denominazione commerciale registrata o marchio e indirizzi di contatto presso cui essere contattati;
  • conservano per un periodo di 10 anni una copia del certificato fornito dall'organismo notificato, (l'ente che certifica la conformità del sistema di IA) istruzioni per l'uso e la dichiarazione di conformità prevista dall'articolo 47.
  • forniscono su richiesta dell'autorità competente tutte le informazioni utili a dimostrare il possesso del sistema di IA ad alto rischio dei requisiti previsti dal Regolamento.

Obblighi dei distributori

Secondo l'articolo 24 i distributori

  • verificano che il sistema rechi la marcatura CE, sia dotato della dichiarazione di conformità prevista dall'articolo 47 e delle istruzioni per l'uso. Il distributore è inoltre tenuto a verificare che fornitore ed importatore abbiano indicato le proprie denominazioni commerciali e i loro contatti.
  • evitano di mettere sul mercato un sistema di IA ad alto rischio che ritengano non in possesso dei requisiti richiesti;
  • nel caso la non conformità del sistema di IA emerga dopo l'immissione sul mercato, il distributore adotta le misure correttive volte a garantire la conformità, richiama il sistema e garantisce che il fornitore, l'importatore...adotti tali misure correttive.
  • mettono a disposizione delle autorità competenti, su richiesta, la documentazione attestante il rispetto degli obblighi a loro carico per garantire conformità del sistema.

Responsabilità lungo la catena del valore dell'IA

La catena del valore dei sistemi di IA può risultare complessa, e vari soggetti, quali importatori e distributori, possono contribuire allo sviluppo di un sistema di IA. Che ruolo giocano tali soggetti e in che misura sono tenuti al rispetto del Regolamento?

In determinate situazioni tali operatori potrebbero agire contemporaneamente in più di un ruolo e dovrebbero pertanto adempiere cumulativamente tutti gli obblighi pertinenti associati a tali ruoli. Ad esempio, un operatore potrebbe agire contemporaneamente come distributore e importatore.

Considerando 83

L'articolo 25 prevede che in alcuni casi, qualsiasi distributore, importatore, deployer o altro terzo viene considerato un fornitore e assume gli obblighi a questo assegnati dall'AI Act.

Ciò avviene se una parte:

  1. appone il proprio nome o marchio su un sistema di IA ad alto rischio già immesso sul mercato, a meno che non vi siano accordi contrattuali che già abbiano disciplinato la ripartizione di obblighi;
  2. applica una modifica sostanziale ad un sistema ad alto rischio. Una modifica è sostanziale quando viene apportata dopo la messa in servizio del sistema e
    1. non è prevista nella valutazione di conformità presentata all'inizio dal fornitore;
    2. incide sulla conformità del sistema ad alto rischio ai requisiti per questo previsti;
    3. comporta una modifica della finalità prevista per la quale il sistema di IA è stato valutato.
  3. modifica la finalità di un sistema di IA già immesso sul mercato e classificato NON ad alto rischio rendendolo ad alto rischio.

In tali casi, i fornitori si avvicendano e il nuovo subentra al vecchio, assumendone gli obblighi previsti dal Regolamento. Il fornitore uscente collabora con il nuovo e mette a disposizione le informazioni necessarie nonché fornisce l'accesso tecnico ragionevolmente atteso e qualsiasi altra forma di assistenza che sono richiesti per l'adempimento degli obblighi di cui al presente Regolamento.

Come abbiamo detto, allo sviluppo di un sistema di IA possono partecipare vari soggetti fornendo contributi di tipo tecnico, come componenti e servizi, che il fornitore poi integra all'interno del sistema. Secondo l'articolo 25, il terzo che fornisce un sistema di IA, strumenti, servizi, componenti o processi utilizzati o integrati in un sistema di IA ad alto rischio è tenuto a stipulare un accordo scritto con il fornitore avente ad oggetto le informazioni, le capacità, l'accesso tecnico e qualsiasi altra forma di assistenza necessari, sulla base dello stato dell'arte generalmente riconosciuto per permettere al fornitore del sistema di IA ad alto rischio di adempiere pienamente agli obblighi previsti dal Regolamento.

Tuttavia, tale disposizione non si applica, e non sussiste l'obbligo del terzo nei confronti del fornitore, se strumenti, servizi, processi o componenti, diversi dai modelli di IA per finalità generali, vengono forniti con licenza libera e open source. (Articolo 25, paragrafo 4).

A tal proposito, l'articolo 25 prevede la possibilità che l'ufficio per l'IA elabori e raccomandi l'adozione di clausole contrattuali volontarie tra i fornitori di sistemi di IA ad alto rischio e i terzi che forniscono strumenti, servizi, componenti o processi utilizzati o integrati in sistemi di IA ad alto rischio.

Obblighi dei deployer di sistemi di IA ad alto rischio

L'articolo 26 prevede obblighi specifici per i deployer di sistemi di IA ad alto rischio:

  • adottare misure tecniche ed organizzative che garantiscano l'impiego del sistema di IA ad alto rischio in maniera conforme alle istruzioni d'uso;
  • impiegare personale qualificato per la sorveglianza umana del sistema;
  • monitorare il funzionamento del sistema di IA affinché questo sia coerente con le istruzioni per l'uso;
  • informare fornitore, distributore e autorità di vigilanza ove si accorga che il sistema rappresenti un rischio per la salute, la sicurezza o per i diritti fondamentali delle persone; in tal caso, il deployer sospende l'uso del sistema in questione.
  • conservare i log per almeno 6 mesi;

Casi particolari: se il deployer è:

  • istituto finanziario: gli obblighi di monitoraggio si considerano soddisfatti con l'osservanza delle regole previste per i dispositivi, i processi e i meccanismi di governance interna disposti dalla normativa in materia di servizi finanziari;
  • datore di lavoro: informa i lavoratori che saranno soggetti all'uso di un sistema di IA ad alto rischio;
  • autorità pubbliche o istituzioni UE : si accerta che il sistema è stato registrato nella banca dati prevista dall'articolo 71 e, in mancanza, si astengono dall'utilizzarlo e informano il fornitore e il distributore.
  • organismi di diritto pubblico o oppure
    • enti privati che forniscono servizi pubblici,
    • soggetti che impiegano i sistemi per valutare l'affidabilità creditizia delle persone o il rischio da cui far dipendere il premio da pagare per assicurazioni sulla vita e sanitarie:
    tali soggetti hanno l'obbligo di redigere una valutazione di impatto sui diritti fondamentali per il sistema ad alto rischio (articolo 27). La valutazione serve al deployer per individuare i rischi specifici per persone o gruppi di persone, ed elaborare le relative misure da adottare al concretizzarsi di tali rischi.

Obblighi di trasparenza

Per alcuni sistemi di IA, l'AI Act prevede obblighi di trasparenza a carico di fornitori e deployer. (CAPO IV, artt. 50 e ss.)

Interazione tra persone ed intelligenza artificiale

In primo luogo, il fornitore di un sistema di IA destinato ad interagire con le persone deve garantire che il sistema sia progettato in maniera da consentire all'utente di essere informato del fatto che sta interagendo un sistema di IA. Questo, a meno che ciò non risulti già evidente per una persona ragionevolmente informata, considerato il contesto in cui il sistema viene impiegato. Tale obbligo non sussiste nel caso di sistemi di IA autorizzati dalla legge per accertare, prevenire, indagare o perseguire reati.

Deep fake

L'intelligenza artificiale consente la generazione di contenuti sintetici, difficilmente o per nulla distinguibili da contenuti autentici prodotti da esseri umani, come i deep fake. Come è noto, questo consente attività di manipolazione su larga scala e può tradursi in frode, impersonificazione ed inganno dei consumatori. L'AI Act richiede che tali sistemi rendano evidente che i contenuti prodotti sono frutto dell'intelligenza artificiale.

Come sottolineato dal considerando 120, l'obbligo di dichiarare l'origine artificiale di un contenuto risulta funzionale a quanto richiede il Digital Services Act alle piattaforme e motori di ricerca molto grandi in materia di rischio sistemico: individuare ed attenuare i rischi sistemici che possono derivare dalla diffusione di contenuti generati o manipolati artificialmente.

Modelli di IA per finalità generali

Che cos'è un modello di IA per finalità generali?

«modello di IA per finalità generali»: un modello di IA, anche laddove tale modello di IA sia addestrato con grandi quantità di dati utilizzando l'autosupervisione su larga scala, che sia caratterizzato una generalità significativa e sia in grado di svolgere con competenza un'ampia gamma di compiti distinti,.

Articolo 3 (63)

Sebbene i modelli di IA siano componenti essenziali dei sistemi di IA, essi non costituiscono di per sé sistemi di IA. I modelli di IA necessitano dell'aggiunta di altri componenti, ad esempio un'interfaccia utente, per diventare sistemi di IA. I modelli di IA sono generalmente integrati nei sistemi di IA e ne fanno parte

Considerando 97

Pertanto, i modelli di IA per finalità generali non sono sistemi di IA, ma sono in questi integrati come singole componenti, e ne rappresentano spesso la base. Per tale ragione, l'AI Act prevede degli obblighi specifici per i fornitori di sistemi di IA per finalità generali e prevede una apposita disciplina per i modelli di IA per finalità generali che presentano un rischio sistemico.

Obblighi per i fornitori di modelli di IA per finalità generali

L'articolo 53 pone alcuni obblighi in capo ai fornitori di modelli di IA per finalità generali, in particolare in fatto di trasparenza, tra cui:

  • redigere ed aggiornare la documentazione tecnica sul modello e rendere disponibili tali informazioni ai fornitori che intendano integrare tali modelli nei loro sistemi di IA.
  • l'addestramento dei modelli deve avvenire nel rispetto del diritto d'autore: il fornitore è tenuto a redigere e rendere pubblica una sintesi che illustri i contenuti utilizzati per l'addestramento del modello di IA per finalità generali.

Sono esenti da tali obblighi di trasparenza i fornitori che rilasciano i modelli di IA con licenza opensource, a meno che non si tratti di modelli con rischi sistemici.

I modelli di IA per finalità generali con rischio sistemico

L'AI Act prevede una disciplina specifica per i modelli di IA che comportano, o meglio è probabile che comportino, rischi sistemici.

Che cos'è un rischio sistemico?

"rischio sistemico": un rischio specifico per le capacità di impatto elevato dei modelli di IA per finalità generali, avente un impatto significativo sul mercato dell'Unione a causa della sua portata o di effetti negativi effettivi o ragionevolmente prevedibili sulla salute pubblica, la sicurezza, i diritti fondamentali o la società nel suo complesso, che può propagarsi su larga scala lungo l'intera catena del valore.

Articolo 3 (65)

Il rischio sistemico è dunque un rischio determinato dalla capacità di un modello di produrre un impatto significativo sul mercato e che pone dei rischi specifici per salute pubblica, sicurezza, diritti fondamentali e la società nel suo complesso.

Tale capacità di produrre un impatto elevato viene valutata in base ad un parametro: l'importo cumulativo del calcolo utilizzato per l'addestramento del modello misurato in operazioni in virgola mobile.

In altre parole, ciò che porta a presumere la capacità del modello di avere un impatto elevato, tale da renderlo potenzialmente rischioso, è dato dalla quantità di risorse di calcolo impiegate per addestrare e perfezionare il modello: la soglia è individuata dall'articolo 51:

Si presume che un modello di IA per finalità generali abbia capacità di impatto elevato a norma del paragrafo 1, lettera a), quando la quantità cumulativa di calcolo utilizzata per il suo addestramento misurata in operazioni in virgola mobile è superiore a 1025.

La Commissione potrà modificare tale soglia ed aggiungere altri parametri di riferimento in considerazione dello sviluppo tecnologico del settore.

La Commissione può designare un modello di IA come modello a rischio sistemico quando, a prescindere dal raggiugimento della soglia, il modello presenta comunque capacità di impatto equivalenti. La Commissione in tal caso si serve dei criteri elencati dall'ALLEGATO XIII, tra i quali vi sono:

  • la quantità di calcolo utilizzata per addestrare il modello;
  • l'impatto elevato sul mercato, che viene presunto nel caso il modello sia stato messo a disposizione di almeno 10000 utenti commerciali registrati nella UE.
  • il numero di utenti finali registrati.

Infine, al fornitore di un modello designato come a rischio sistemico è data la possibilità di dimostrare che, nonostante i parametri, per le caratteristiche specifiche del modello, questo non pone rischi sistemici e non merita dunque la relativa classificazione.

Obblighi dei fornitori di modelli di IA con rischio sistemico

Il fornitore di un modello di IA per finalità generali con rischio sistemico ha degli obblighi ulteriori volti ad individuare ed attenuare i rischi:

  • valutazione preventiva del modello alla luce degli standard e protocolli disponibili;
  • testare il modello con adversarial testing e documentarne i risultati.
  • adozione di misure adeguate per la protezione della cybersecurity del modello e delle relative infrastrutture.

Se nonostante il rispetto di tali obblighi si verificano incidenti gravi, il fornitore informa la Commissione, le autorità nazionali competenti, e adotta le misure necessarie a contenere l'incidente.

Best practices: codici di buone pratiche

L'AI Act incoraggia l'elaborazione di codici di buone pratiche al livello europeo allo scopo di contribuire alla corretta applicazione del Regolamento. Il Regolamento richiede che i codici di buone pratiche riservino particolare attenzione alla individuazione dei rischi sistemici al livello dell'Unione, alla loro valutazione e alla elaborazione di misure di attenuazione.

L'elaborazione dei codici di buone pratiche è promossa dall'Ufficio per l'AI, il quale:

  • garantisce che i codici includano almeno gli obblighi che il Regolamento pone a carico dei fornitori di modelli di IA per finalità generali, con e senza rischio sistemico, previsti dagli articoli 53 e 55.
  • garantisce che i codici definiscano chiaramente gli obiettivi ed impegni che questi comportano per coloro che li adottano e, se del caso, indicatori atti a valutare il rispetto di tali impegni.
  • valuta il raggiungimento degli obiettivi posti dai codici da parte dei partecipanti.
  • può invitare i fornitori e le autorità nazionali competenti a partecipare ai lavori. È previsto l'eventuale coinvolgimento e supporto anche di organizzazioni della società civile, l'industria, il mondo accademico e altri pertinenti portatori di interessi, quali i fornitori a valle e gli esperti indipendenti..

L'applicazione dei codici di buone pratiche è limitata ai fornitori che vi partecipano; l'Ufficio per l'IA può invitare tutti i fornitori di modelli di IA per finalità generali ad adottare i codici. Tuttavia, la Commissione può approvare, mediante atto di esecuzione, un codice di buone pratiche e conferire ad esso una validità generale all'interno dell'Unione.

Infine: I codici di buone pratiche sono pronti al più tardi entro il 2 maggio 2025. L'ufficio per l'IA adotta le misure necessarie, incluso l'invito, rivolto a tutti fornitori, alla adozione dei codici.

Spazi di sperimentazione normativa

All' articolo 57 l'AI Act prevede l'istituzione da parte degli Stati membri di spazi di sperimentazione normativa, o regulatory sandbox, entro il 2 Agosto 2026. Si tratta di ambienti che promuovono l'innovazione e facilitano lo sviluppo, l'addestramento, la sperimentazione e la convalida di sistemi di IA, assicurando che questi risultino poi conformi al Regolamento.

In altre parole, lo scopo degli spazi di sperimentazione normativa è quello di favorire lo sviluppo di sistemi di IA nel rispetto della normativa applicabile. Secondo il considerando 138: agevolare lo sviluppo e le prove di sistemi di IA innovativi, sotto una rigorosa sorveglianza regolamentare, prima che tali sistemi siano immessi sul mercato.

Le autorità competenti seguono gli spazi di sperimentazione normativa e supportano i fornitori che vi partecipano

  • fornendo orientamenti finalizzati ad individuare i rischi che il sistema in fase di sviluppo pone, in particolare per diritti fondamentali, salute, sicurezza, e le relative misure volte ad attenuare tali rischi.
  • indicando gli obiettivi di conformità da raggiungere e le modalità per soddisfare i requisiti e gli obblighi posti dall'AI Act.
  • su richiesta del fornitore, rilasciano una relazione sulle attività svolte e i test superati con successo nello spazio di sperimentazione normativa. Con questa relazione i fornitori possono provare la propria conformità al Regolamento nel corso della procedura di valutazione della conformità o con le autorità di vigilanza del mercato.

Il Regolamento disciplina nel dettaglio il funzionamento degli spazi di sperimentazione normativa per l'IA all'articolo 58.

Prove di sistemi ad alto rischio in condizioni reali

L'articolo 60 prevede e disciplina i test su sistemi di IA ad alto rischio in condizioni reali, al di fuori di un laboratorio o degli spazi di sperimentazione normativa che abbiamo appena visto.

«prova in condizioni reali»: la prova temporanea di un sistema di IA per la sua finalità prevista in condizioni reali al di fuori di un laboratorio o di un ambiente altrimenti simulato al fine di raccogliere dati affidabili e solidi e di valutare e verificare la conformità del sistema di IA ai requisiti del presente regolamento e che non è considerata immissione sul mercato o messa in servizio del sistema di IA ai sensi del presente regolamentoArticolo 3 (57)

Tale previsione riguarda in particolare i sistemi di IA ad alto rischio elencati dall'ALLEGATO III. Alla possibilità di svolgere test in condizioni reali si accompagnano cautele e requisiti aggiuntivi in ragione del carattere "rischioso" dei sistemi in esame, in particolare a tutela delle persone coinvolte nel test.

Tra gli obblighi del fornitore che intende effettuare una prova in condizioni reali vi è quello di redigere un piano relativo ai test da svolgere e presentarlo all'autorità di vigilanza del mercato dello Stato membro in cui verranno eseguite le prove. Il piano è soggetto ad approvazione e si considera approvato se l'Autorità non risponde entro 30 giorni.

Inoltre, le persone coinvolte nel test in condizioni reali prestano un consenso informato sulla natura, le modalità e gli obiettivi del test, oltre che sui propri diritti. Il consenso prestato è documentato per iscritto e fornito ai soggetti che partecipano al test.

Governance

Per l'attuazione del Regolamento l'AI Act prevede l'istituzione di autorità al livello dell'Unione e al livello nazionale. In questa sede ci limitiamo ad introdurre le singole autorità, tralasciando gli aspetti procedurali e gli elementi di maggior dettaglio relativi al loro funzionamento: argomenti su cui potremo tornare con un articolo dedicato in futuro.

Autorità competenti per l'AI Act al livello dell'Unione

Il Capo VII dell'AI Act (art. 64 e ss.) è dedicato al quadro di governance al livello dell'Unione, che comprende:

  1. Ufficio per l'IA. Istituito con la decisione della Commissione del 24 Gennaio 2024 C/2024/390:La Commissione sviluppa le competenze e le capacità dell'Unione nel settore dell'IA attraverso l'ufficio per l'IA (articolo 64).
  2. Consiglio per l'IA. Costituito da un rappresentante per ogni Stato membro, fornisce consulenza e assistenza alla Commissione e agli Stati membri al fine di agevolare l'applicazione coerente ed efficace del presente Regolamento. (articolo 66).
  3. Forum consultivo. Ha il compito di fornire consulenza tecnica al Consiglio per l'IA ed è composto da una selezione di portatori di interessi di vari settori quali industria, startup, PMI, università. La composizione dell'istituendo forum consultivo dovrà essere equilibrata e rappresentare interessi commerciali e non.
  4. Gruppo di esperti scientifici indipendenti. Fornisce consulenza all'Ufficio per l'IA in particolare con riferimento all'attività di monitoraggio che l'Ufficio svolge su modelli e sistemi di IA per finalità generali. Al gruppo di esperti possono rivolgersi anche gli Stati membri alle prese con le loro attività di esecuzione del Regolamento (articolo 68).

Autorità nazionali competenti

Agli Stati membri spetta invece la nomina di autorità nazionali, competenti per l'attuazione ed esecuzione del Regolamento (articolo 74 e ss.).

Ogni Stato membro nomina almeno:

  1. una autorità di notifica;
  2. una autorità di vigilanza del mercato.

Tra i compiti delle autorità nazionali competenti c'è quello di prestare consulenza sulla attuazione del Regolamento, in particolare alle PMI, comprese le start-up, tenendo conto degli orientamenti e della consulenza del consiglio per l'IA e della Commissione.

Autorità di notifica

Ciascuno Stato membro designa o istituisce almeno un'autorità di notifica responsabile della predisposizione e dell'esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio. Tali procedure sono sviluppate nell'ambito della collaborazione tra le autorità di notifica di tutti gli Stati membri.

Articolo 28

Conviene ricordare che:

  • Gli organismi di valutazione della conformità sono organismi cui spetta, per conto terzi,attività di valutazione della conformità, incluse prove, certificazioni e ispezioni.
  • per valutazione della conformità si intende la procedura atta dimostrare se un sistema di IA ad alto rischio soddisfa i requisiti per questo posti dal Regolamento.

Vigilanza del mercato

L'articolo 74 estende l'applicazione del Regolamento UE 2019/1020 sulla vigilanza del mercato e la conformità dei prodotti ai sistemi di intelligenza artificiale disciplinati dall'AI Act. Pertanto:

  • le disposizioni destinate agli operatori economici a norma del Regolamento 2019/1020 si applicano anche ai soggetti cui si applica l'AI Act, elencate dall'articolo 2, ossia, fornitori, deployer, importatori e distributori.
  • ogni riferimento normativo ad un prodotto, fatto dal Regolamento 2019/1020, si applica anche ai sistemi di IA cui si applica l'AI Act.

Vediamo quali sono le autorità di vigilanza del mercato competenti per i vari sistemi di IA.

1 - IA e prodotti disciplinati dalla normativa di armonizzazione

i sistemi di IA ad alto rischio collegati a prodotti disciplinati dalla normativa di armonizzazione dell'Unione elencata nell'allegato I, sezione A: l'Autorità di vigilanza del mercato competente per l'esecuzione dell'AI Act è quella individuata dalla normativa di settore dedicata a tali prodotti. Gli Stati membri possono designare un'autorità diversa, a patto che questa garantisca il coordinamento con le autorità di vigilanza proprie a tali prodotti, come definite dalla normativa di armonizzazione.

2 - Servizi finanziari

Per i sistemi di IA ad alto rischio messi in servizio o impiegati da istituti finanziari soggetti al Diritto Ue sui servizi finanziari, la'autorità di vigilanza del mercato è quella nazionale responsabile per gli istituti finanziari nella misura in cui l'immissione sul mercato, la messa in servizio o l'uso del sistema di IA siano direttamente collegati alla fornitura di tali servizi finanziari.

In altre parole: se l'impiego dei sistemi di IA è strumentale alla fornitura dei servizi finanziari, l'autorità di vigilanza del mercato esercita i propri poteri anche in relazione a tali sistemi di IA.

Anche in tal caso è prevista la possibilità di nominare una diversa autorità di vigilanza, a patto di garantire il coordinamento tra le autorità.

3 - Attività di contrasto

Per i sistemi di IA ad alto rischio impiegati per:

  • attività di contrasto;
  • migrazione, asilo, controllo delle frontiere;
  • amministrazione della giustizia e processi democratici

la autorità di vigilanza del mercato è quella competente per la protezione dati a norma del Regolamento UE 2016/679 (GDPR), o della Direttiva UE 2016/680, relativa al trattamento dei dati personali da parte delle autorità competenti a fini di contrasto.

Infine: per i casi in cui siano le istituzioni e organismi UE ad essere soggetti al Regolamento, perché ad esempio deployer di sistemi di IA, il Garante europeo della protezione dei dati agisce in qualità di autorità di vigilanza del mercato, tranne nei confronti della Corte di giustizia dell'Unione europea nell'esercizio delle sue funzioni giurisdizionali.

Codici di condotta volontari

L'AI Act prevede i codici di condotta come uno strumento per estendere su base volontaria l'applicazione dei requisiti previsti per i sistemi di IA ad alto rischio ai sistemi NON ad alto rischio. Il fornitore o deployer di un sistema di IA che adotta un codice di condotta si vincola al rispetto di requisiti più severi, innalzando così gli standard di sicurezza e affidabilità del sistema.

I codici di condotta possono riprodurre in tutto o in parte i requisiti per i sistemi di IA ad alto rischio, in considerazione delle soluzioni tecniche disponibili e delle migliori pratiche del settore che consentono l'applicazione di tali requisiti (articolo 95).

I codici di condotta sono elaborati da singoli fornitori o deployer di sistemi di IA o da organizzazioni che li rappresentano o da entrambi, anche con la partecipazione di qualsiasi portatore di interessi e delle sue organizzazioni rappresentative, comprese le organizzazioni della società civile e il mondo accademico.

Sanzioni

Le sanzioni per l'inosservanza del Regolamento sono stabilite dagli Stati membri; l'articolo 99 fissa dei limiti massimi alle sanzioni amministrative pecuniarie irrogabili per alcune violazioni.

Usi vietati

Per la violazione del divieto di impiegare l'intelligenza artificiale per le finalità indicate dall'articolo 5 (usi vietati dell'IA) gli Stati membri possono prevedere sanzioni pecuniarie fino a 35 milioni di € o fino al 7% del fatturato mondiale annuo dell'esercizio precedente, se superiore.

Violazione di obblighi

Per le violazioni degli obblighi previsti per

  • fornitori (art. 16)
  • rappresentanti autorizzati (art. 22)
  • distributori (art. 24)
  • deployer (art. 26)
  • e gli obblighi di trasparenza per fornitori e deployer previsti dall'articolo 50

le sanzioni possono essere fino a 15 milioni di € o fino al 3% del fatturato mondiale annuo dell'esercizio precedente, se superiore.

Per le violazioni compiute dai fornitori di modelli di IA per finalità generali, è la Commissione che può infliggere sanzioni: queste possono andare fino a 15 milioni di € o fino al 3% del fatturato mondiale annuo dell'esercizio precedente (articolo 101)

Informazioni inesatte

Sanzioni sono previste anche per il caso in cui vengano fornite, su richiesta delle autorità nazionali competenti, informazioni inesatte o incomplete: le sanzioni pecuniarie in questo caso possono andare fino a 7.5 milioni di €, o fino all'1% del fatturato mondiale annuo dell'esercizio precedente, se superiore.

Violazioni da parte di istituzioni ed organismi UE

Per le violazioni compiute da istituzioni e organismi UE soggetti al Regolamento, l'irrogazione delle sanzioni spetta al Garante europeo della protezione dei dati (articolo 100).

Conclusioni

Entrata in vigore dell'AI Act

Il Regolamento AI Act è in vigore dal 20 Agosto 2024 e sarà applicabile dal 2 Agosto del 2026; tuttavia, l'applicazione di alcune disposizioni è anticipata:

Riesame periodico dell'AI Act

L'AI Act è soggetto a riesame periodico, a scadenze regolari, da parte della Commissione:

  • un primo riesame entro il 2 Agosto 2029, successivamente ogni 4 anni con relazione al Parlamento e Consiglio UE;
  • valutare ogni anno la necessità di modificare l'elenco dei sistemi di IA ad alto rischio e degli usi vietati.
  • entro il 2 Agosto 2028, successivamente ogni 3 anni: valutazione dell'efficacia dei codici di condotta volontari


Vincenzo Lalli

Vincenzo Lalli

Di formazione legale, appassionato da sempre di tecnologia ed informatica; esperienza professionale acquisita a cavallo tra i due mondi, finora piuttosto lontani tra loro. Mi dedico ad esplorare le crescenti interazioni tra il Diritto e la tecnologia, e a dare il mio contributo alla causa dell'innovazione nel settore legale; a tal fine, ho dato vita ad Avvocloud.net.

Contatti

Creative Commons License