The Sunday Prompt #27 – 28/01/2024
Oggi non parliamo di prompt.
Da qualche giorno, infatti, sta circolando il testo consolidato dell’AI Act (ossia il testo uscito dal trilogo e che dovrebbe essere votato ad aprile nell’ultima plenaria di questa legislatura europea) e può essere utile vedere insieme quali sono le nuove regole per i sistemi generativi.
Chi ricorda le versioni originali della proposta del Regolamento pubblicata dalla Commissione Europea rammenterà che, con riferimento ai sistemi non rientranti nella classificazione ad alto rischio, venivano previsti degli obblighi di trasparenza sostanzialmente volti a far sì che gli utenti fossero messi in grado di sapere che stavano interagendo con un sistema di intelligenza artificiale.
In questa ultima versione dell’AI Act, complice la rapida diffusione dei modelli generativi come ChatGPT, Midjourney, Stable Diffusion, Bard, Gemini, etc., sono state ampliate e maggiormente dettagliate nel Capo V tali regole, includendo anche norme specifiche per quei sistemi generativi che potrebbero comportare dei “rischi sistemici” all’interno dell’Unione Europea (sulla falsariga della regolamentazione del DIgital Service Act, relativamente alle Very Large Online Platform (VLOP) e ai Very Large Online Search Engines (VLOSE)).
Gli obblighi generali per i fornitori e gli utenti dei sistemi AI
Per i fornitori e gli utilizzatori dei sistemi sono stati ampliati gli obblighi che consistono in:
- l’obbligo di contrassegnare i contenuti sintetici audio, immagini, video o testi, devono garantire che i risultati del sistema di IA siano contrassegnati in un formato leggibile dalla macchina e rilevabili come generati o manipolati artificialmente
- l’obbligo di informare gli utenti per i sistemi di riconoscimento delle emozioni o di categorizzazione biometrica
- l’obbligo di dichiarare che il contenuto è stato generato o manipolato artificialmente per quei contenuti che costituiscono deep fake
- l’obbligo di dichiarare che un testo pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico è stato generato o manipolato artificialmente
Questi sono obblighi che riguardano in generale sia i fornitori dei sistemi sia (per i punti 2, 3 e 4 sopra citati) gli utilizzatori (quindi chiunque utilizzi un sistema AI) e riguardano sia i sistemi per così dire “normali” sia i sistemi fondazionali (general-purpose).
Non vi nascondo che leggere un obbligo per i produttori di “deep fake” di catalogare i contenuti come generati o manipolati con la AI fa un pò sorridere; ma cerchiamo di capire le altre novità soprattutto sui sistemi general-purpose.
Adempimenti per i sistemi General Purpose
Cosa è un modello general-purpose? Secondo le nuove definizioni per General Purpose AI (abbreviato in GenAI) oosia “modello di intelligenza artificiale per scopi generali” si intende un modello di intelligenza artificiale, anche se addestrato con un’ampia quantità dati utilizzando meccanismi di auto-apprendimento, che mostra una significativa capacità generale ed in grado di eseguire con competenza un’ampia gamma di compiti distinti, a prescindere dal modo in cui il modello viene immesso sul mercato e che può essere integrato in una serie di sistemi o applicazioni a valle.
Per i fornitori di modelli GenAi sono previsti una serie di obblighi aggiuntivi:
- predisporre la documentazione tecnica del modello che comprende i processi di addestramento e test;
- predisporre le informazioni e la documentazione per l’utilizzo del modello in altre applicazioni, consentendo di conoscere la capacità ed i limiti del modello e con una serie di elementi minimi indicati in un allegato del Regolamento;
- adottare una politica per il rispetto del diritto d’autore;
- redigere e rendere pubblica una sintesi dei dati di addestramento del modello.
E’ importante sottolineare che questi obblighi non saranno applicati ai fornitori di modelli GenAI che sono rilasciati con licenza open-source quando sono resi pubblici i parametri, le informazioni sull’architettura e l’utilizzo del modello (salvo che non siano modelli a rischio sistemico).
I modelli con rischi sistemici
Il nuovo testo introduce la classificazione di “rischio sistemico” per i modelli general-purpose, che si verifica quando:
(a) il modello ha elevate capacità di impatto valutate sulla base di strumenti e metodologie tecniche adeguate, compresi indicatori e parametri di riferimento (che dovranno essere definiti con atti delegati della Commissione Europea);
(b) vi è una una decisione della Commissione, d’ufficio o a seguito di una segnalazione da parte del gruppo scientifico, secondo cui un modello di AI per uso generale ha capacità o impatto equivalenti a quelli di cui alla lettera a).
Le nuove norme introducono anche una presunzione basata su criteri tecnici: se la capacità computazionale utilizzata per addestrare il modello è superiore a 10^25 FLOPs (ossia numero di operazioni in virgola mobile per secondo) il modello si considera a rischio sistemico.
La designazione come sistema GenAI a rischio sistemico viene svolta dalla Commissione Europea o sulla base della dichiarazione del produttore o d’ufficio secondo una procedura che ricalca quelle già disciplinate nel DSA e nel DMA.
Nel momento in cui il modello è classificato come a rischio sistemico sono inseriti ulteriori obblighi per i fornitori:
(a) eseguire la valutazione del modello al fine di identificare e mitigare il rischio sistemico;
(b) valutare e mitigare i possibili rischi sistemici a livello dell’Unione, comprese le loro fonti;
(c) tenere traccia, documentare e riferire senza indebiti ritardi all’Ufficio AI e, se del caso, alle autorità nazionali competenti, le informazioni pertinenti sugli incidenti gravi e le possibili misure correttive per affrontarli;
(d) garantire un livello adeguato di protezione della cybersecurity per il modello e per l’infrastruttura fisica del modello.
Queste in sintesi le novità dell’ultima versione dell’AI Act che riguardano i modelli fondazionali. Sono previsti nel testo una serie di rinvii ad atti, allegati e norme secondarie che dovranno essere attuate nel tempo dalla Commissione e dal nuovo Ufficio dell’AI.
Quali impatti avranno queste norme sul settore dell’intelligenza artificiale in Europa è ancora presto per dirlo. Alcuni dubbi può generare il fatto di legare una definizione per così dire “giuridica” ad un requisito tecnico (il numero di FLOPs utilizzati per l’addestramento) che rischia di porre eccessiva rigidità in un settore in rapida evoluzione tecnologica.
Anche gli obblighi di disclosure previsti nelle nuove norme sembrano in realtà eccessivamente generici ed è evidente che dovranno essere “riempiti” con delle indicazioni più dettagliate e specifiche.
Vedremo se il testo subirà altre modifiche e quale sarà la versione plenaria che verrà licenziata (se sarà licenziata) dal Parlamento Europeo ad aprile.
Come sempre fatemi sapere cosa ne pensate 🚀🧠
… e sempre Happy Prompting!!