Fonte: Conferenza sull’intelligenza artificiale Bruxelles 28-29 gennaio 2024
Nel corso del complesso negoziato in seno al Consiglio, il Governo italiano si è sempre dichiarato a favore dell’introduzione di un quadro comune di regole sull’intelligenza artificiale, sottolineando l’importanza che il nuovo regolamento tutelasse i diritti fondamentali, imponesse obblighi e sanzioni commisurati al rischio e allo stesso tempo permettesse di mantenere il passo tecnologico e lo slancio verso l’innovazione di altri competitor globali, come Stati Uniti e Cina.
La posizione negoziale italiana, inoltre, si è basata su una visione “umano-centrica”, volta a promuovere pertanto la semplificazione e la chiarezza delle definizioni a partire da quelle di IA, sistemi generativi, foundation model.
Sulla base di questa impostazione, il Governo italiano ha insistito per la compartimentazione di alcuni perimetri e settori esclusi dall’ambito di applicazione della originaria proposta di regolamento, oltre che sulla maggior chiarezza rispetto al coordinamento con le normative di settore, in particolare bancario e assicurativo.
Si è espresso inoltre a favore di un sistema di self-assessment da parte delle aziende dei sistemi di IA, attraverso linee guida o un archivio di esempi. Quanto agli obblighi, ha supportato la definizione di oneri e obblighi lungo la catena del valore dei sistemi IA e insistito affinché quest’ultimi non risultino troppo gravosi soprattutto per le PMI.
Sempre per quanto concerne le definizioni, l’Italia ha chiesto chiarezza relativamente ai sistemi a finalità generale in quanto vi è il rischio di rapida obsolescenza di definizioni troppo ristrette.
Ha altresì espresso apertura rispetto alla possibilità per gli Stati membri di integrarsi attraverso sandbox a livello unionale. Ha chiesto pertanto di estendere la presunzione di conformità con la normativa UE anche ai risultati delle sandbox, per accelerare il processo di integrazione dei medesimi risultati nel contesto normativo.
L’Italia ha manifestato anche apertura con riferimento alle valutazioni di impatto sui diritti fondamentali, in linea con le richieste del Parlamento europeo e nazionale di maggiore attenzione ai profili etici.
Infine, il nostro Paese ha chiesto di includere tra i sistemi ad alto rischio i sistemi di ausilio e supporto al giudice nella ricerca e nell’interpretazione dei fatti e della legge, nonché i sistemi di ADR (metodi alternativi di risoluzione delle controversie).
Per definire la convergenza su alcuni dei punti più complessi del negoziato, Italia, Francia e Germania il 30 ottobre scorso avevano tenuto un incontro trilaterale a Roma (comunicato stampa) durante il quale sono state discusse soprattutto le tematiche relative alla regolamentazione dei modelli fondativi, l’esclusione delle forze dell’ordine e della sicurezza nazionale e la classificazione dei sistemi ad alto rischio.
In esito all’incontro, i tre Paesi avevano sottoscritto un documento di posizione congiunto che si opponeva, con riferimento ai modelli di fondazione, all’approccio graduale della Presidenza spagnola basato su criteri e regole più rigorosi per i modelli ad alto impatto. I tre paesi avevano invece chiesto che nella prima fase i modelli in questione siano disciplinati da un codice di condotta e che le future sanzioni europee non vengano imposte in prima istanza.
In sostanza, i tre paesi hanno chiesto di non applicare regole troppo stringenti ai sistemi di intelligenza artificiale generativa, ma che le imprese possano sviluppare i modelli di fondazione, ossia i sistemi alla base dei prodotti di IA, come ChatGPT, semplicemente autocertificandone le caratteristiche e adeguandosi alle migliori pratiche.
Add a Comment