Il framework USA per la governance e la gestione del rischio AI nella sicurezza nazionale

L'approccio USA alla Trustworthy AI

13 Min Read

#The Sunday Prompt #45 – 27/10/2024

Questa settimana parliamo meno di prompting (rimane comunque il suggerimento della settimana) perchè c’è una novità abbastanza rilevante dall’altro lato dell’oceano.

Il 24 ottobre il Presidente Biden ha emanato il primo memorandum (National Security Memorandum – NSM) sull’intelligenza artificiale, con specifico riferimento alla sicurezza nazionale e alla politica estera futura.

Il Memorandum è attuativo della direttiva presente alla sezione 4.8 dell’Executive Order 14110 del 30 ottobre 2023 (trovate l’analisi che ne avevamo fatto qua (https://www.thesundayprompt.com/intelligenza-artificiale-in-una-settimana-regole-per-tutti/).

L’NSM indica alle agenzie federali degli Stati Uniti di attuare misure concrete e di impatto per (1) garantire che gli Stati Uniti guidino lo sviluppo mondiale di un’IA sicura, protetta e affidabile; (2) sfruttare le tecnologie di IA all’avanguardia per portare avanti la missione di sicurezza nazionale del governo degli Stati Uniti; e (3) far progredire il consenso e la governance internazionale sull’IA.

Il testo integrale è reperibile a questo link

Secondo il Memorandum l’obiettivo è quello adottare misure attive per sostenere i diritti umani, i diritti civili, le libertà civili, la privacy e la sicurezza; garantire che l’IA sia utilizzata in modo coerente con l’autorità del Presidente, in qualità di comandante in capo, di decidere quando ordinare operazioni militari per la difesa della nazione; e garantire che l’uso militare delle capacità dell’IA sia responsabile, anche attraverso una catena di comando e controllo a responsabilità umana nelle operazioni militari.

Nel Memorandum:

  • Si identificano i casi d’uso dell’IA vietati e ad “alto impatto” in base al rischio che rappresentano per la sicurezza nazionale, le norme internazionali, i valori democratici, i diritti umani, i diritti civili, le libertĂ  civili, la privacy o la sicurezza, nonchĂ© i casi d’uso dell’IA che hanno un impatto sul personale federale. 
  • Creare pratiche di gestione del rischio sufficientemente solide per le categorie di IA identificate come ad alto impatto, comprese le valutazioni del rischio prima dell’implementazione.
  • Catalogare e monitorare l’uso dell’IA ad alto impatto. 
  • Garantire meccanismi efficaci di formazione e responsabilitĂ .

Vi ricorda qualche cosa? In effetti sembra che gli Stati Uniti stiano adottando il medesimo approccio dell’Europa, classificando i rischi derivanti dall’intelligenza artificiale e introducendo delle procedure di valutazione dei sistemi di intelligenza artificiale, ciò includendo anche il settore militare, che invece è espressamente escluso dal Regolamento Europeo.

Vediamo insieme i “Pillar” del Documento.

Pillar I: Restrizioni sull’utilizzo dell’IA

1. Casi d’uso proibiti dell’IA

Per prevenire potenziali abusi, il Framework stabilisce specifici casi in cui l’uso dell’IA è proibito. Gli utilizzi vietati includono attività che:

  • Profilano o monitorano individui utilizzando come filtro quello relativo all’esercizio dei diritti protetti costituzionalmente, come la libertĂ  di espressione e di associazione.
  • Violano il diritto alla privacy o il diritto all’assistenza legale o mirano a sopprimere il diritto alla libertĂ  di parola.
  • Discriminano individui in base all’etnia, origine, sesso, orientamento sessuale, status di disabilitĂ , religione    
  • Rilevano lo stato emotivo di un individuo senza giustificazione, a meno che non sia per scopi di salute
  • Calcolano danni collaterali o vittime civili in contesti di azioni militari senza una supervisione umana adeguata e senza procedure di test rigorose.
  • Prendono decisioni sull’immigrazione incluso lo status di rifugiato o asilo, senza l’intervento umano necessario.
  • Producono e diffondono report o analisi basate unicamente su output dell’IA senza un avvertimento chiaro per i lettori, rendendo trasparente l’origine dei dati.

Come si può vedere alcuni dei sistemi proibiti coincidono con quelli individuati dal Regolamento europeo, a cui si aggiunge le specifiche ipotesi dell’uso militare.

Interessante notare che il tema della trasparenza degli output generati dall’AI è preso talmente in considerazioni da arrivare a proibire la produzione o diffusione di contenuti generati senza avvertimento per gli utenti.

2. Casi d’uso ad Alto Impatto dell’IA

Il framework identifica i cosiddetti “casi d’uso ad alto impatto” per l’IA, ossia situazioni in cui l’impiego dell’intelligenza artificiale potrebbe comportare rischi significativi per la sicurezza nazionale o i diritti individuali. 

Tali casi sono considerati particolarmente delicati perché, in caso di errore o uso improprio, potrebbero compromettere i diritti umani, la privacy o persino la stabilità nazionale. Esempi includono:

  •  Identificazione o tracciamento in tempo reale di individui attraverso dati biometrici, specialmente in contesti militari o di sicurezza pubblica.
  • Classificazione di individui come potenziali minacce, come terroristi o insider threats, il che potrebbe influenzare la loro libertĂ  personale o accesso a servizi cruciali.
  •  Decisioni su immigrazione e sicurezza, che incidono direttamente sullo status di rifugiati o su processi d’ingresso negli Stati Uniti.

3. Casi d’Uso che Impattano sul Personale Federale

Essendo destinato alle agenzie e istituzioni federali il framework contiene specifiche previsioni per l’utilizzo dell’IA che potrebbe incidere sui dipendenti di tali enti, stabilendo che le Agenzie devono monitorare i possibili usi assicurandosi che non generino discriminazioni o impatti negativi,  ciò con riferimento a decisioni che riguardano:

  • Valutazioni di performance o diagnosi di salute del personale, sia fisica che mentale, con conseguenze legali o vincolanti.
  • Assunzione, promozione o licenziamento di personale federale, con impatti diretti sulla loro carriera e stabilitĂ  economica.

Pillar II: Requisiti ed obblighi per l’utilizzo dell’IA

Il secondo pilastro del framwork specifica i requisiti chiave come valutazioni del rischio, supervisione umana e trasparenza, oltre a prevedere le circostanze in cui possono essere concessi esoneri temporanei.

1. Valutazioni del Rischio e Supervisione Umana

Uno dei principi centrali del framework è la necessità di condurre valutazioni dei rischi associati all’IA. Prima dell’implementazione di un sistema IA per i casi d’uso ad alto impatto, le agenzie devono:

  • Effettuare un’analisi dei rischi e degli impatti che identifichi chiaramente lo scopo previsto, i benefici attesi e i rischi potenziali dell’IA.
  • Valutare la qualitĂ  dei dati utilizzati per addestrare e operare il sistema IA, assicurandosi che i dati siano rilevanti e privi di bias significativi che possano compromettere l’equitĂ  e l’efficacia del sistema.
  •  Eseguire test del sistema in un contesto realistici per verificarne l’efficacia e l’affidabilitĂ , assicurandosi che i rischi siano gestiti adeguatamente prima del dispiegamento.

In aggiunta, è previsto che vi sia una supervisione umana continua, richiedendo che gli operatori dell’IA siano formati adeguatamente e che vi sia sempre una chiara responsabilità umana per le decisioni supportate dall’IA. 

2. Obblighi di Salvaguardia per l’IA ad Alto Impatto

Il framework impone l’adozione di misure specifiche per i sistemi IA classificati come ad alto impatto, includendo:

  • Valutazioni indipendenti e revisioni continue: le agenzie devono coinvolgere autoritĂ  di revisione indipendenti per valutare il sistema IA in relazione al suo scopo d’uso, specialmente nelle fasi di test.
  • Analisi e mitigazione del bias e della discriminazione: è obbligatorio identificare e mitigare fattori che possano condurre a discriminazioni, garantendo che il sistema fornisca prestazioni consistenti e affidabili su diversi gruppi demografici.
  • Addestramento specifico per gli operatori dell’IA: il personale incaricato deve comprendere le limitazioni, i rischi e gli errori potenziali del sistema, in modo da poter intervenire correttamente.

3. Individuazione di un Chief AI Officer

Ogni agenzia deve nominare un Chief AI Officer responsabile della supervisione dell’adozione e gestione dell’IA. Il “CAIO” ha il compito di:

  • Valutare e monitorare continuamente le attivitĂ  IA dell’agenzia di appartenenza, garantendo che ogni utilizzo sia conforme al framework e rispetti i diritti fondamentali.
  • Promuovere la consapevolezza e la formazione tra il personale sulla gestione e i rischi dell’IA
  • prevedere processi di escalation per garantire che i rischi associati all’uso dell’IA siano comunicati ai livelli piĂą alti dell’ente in caso di criticitĂ .

Formazione

L’ultimo Pillar del Framework di Governance e Gestione del Rischio per l’IA della Casa Bianca definisce i requisiti e gli obblighi della formazione e l’accountability all’interno delle agenzie federali, garantendo che il personale sia adeguatamente preparato e responsabile nell’uso e sviluppo dell’intelligenza artificiale. Questo pilastro stabilisce linee guida chiare per la formazione, la documentazione e i processi di segnalazione. 

In estrema sintesi questa parte del framework prevede che venga erogata apposita formazione per il rispetto della privacy e delle libertĂ  civili, che il personale che utilizza i sistemi di intelligenza artificiale sia formato in maniera specifica, e la necessitĂ  di promuovere la consapevolezza dei rischi associati, con le conseguenti misure di mitigazione degli stessi.

E’ inoltre prevista l’istituzione di un sistema di governance tramite politiche e processi, per rendere il personale più responsabile nella gestione dei sistemi, con un set di reportistica e documentazione obbligatoria.

Devono, infine, essere istituiti appositi canali per la segnalazione degli incidenti, abusi o problemi legati all’utilizzo dei sistemi di intelligenza artificiale, con procedure di escalation nei casi più gravi.


Tutto ciò è molto interessante per un osservatore europeo. Dopo l’AI Act gli USA, anche se non con una legge federale, si muovono accogliendo l’impostazione ed i principi che abbiamo visto emergere nel corso di questi anni in Europa. Certo, il framework è rivolto alle agenzie amministrative e non al mercato, ma evidentemente, dato che comunque il Governo è anche un grande acquirente di tecnologia, finanziamento così indirettamente gli operatori di mercato, tali principi e l’impostazione del framework inciderà sicuramente sui produttori dei sistemi di intelligenza artificiale.


Il prompt della settimana

Continua il nostro esame degli acronimi di tecniche di prompting metodologie di prompting 

R-I-S-E (Role – Input – Steps – Expection)

Questa tecnica riassume una costruzione di un prompt in cui si indica il ruolo, si inseriscono i dati di input o un contesto specifico (come un file), si chiedono i passi da svolgere, e si indicano le aspettative che si intendono raggiungere.

L’obiettivo, quindi, è quello di ottenere la descrizione delle azioni che si dovranno compiere per raggiungere il risultato.

Ecco qui sotto un esempio:

RISEINPUTSTEPSEXPETACTION
Agisci come seDescrivi (o inserisci) l’inputChiedi i passiDescrivi le aspettative
Sei un content strategist Ho raccolto informazioni dettagliate sul nostro pubblico target, inclusi i loro interessi e le domande più comuni relative al settore della nostra attivitàFornisci un content strategy plan che indichi passo per passo igli argomenti chiave in base alle informazioni sul nostro pubblico, e che predispone dei contenuti coinvolgenti che si allineano con il nostro brandVogliamo incrementare i visitatori mensili del nostro sito del 40% e aumentare la nostra riconoscibilità come tra le aziende leader nel nostro settore
R-I-S-E

Gli iscritti alla newsletter via email ricevono invece un diverso contenuto con strumenti e tool – massimo 4 a settimana – che possono essere utilizzati e che usano l’AI per ottimizzare il lavoro. 

Per ricevere la newsletter via email iscrivetevi su https://the-sunday-prompt.ck.page/f260e8dd80

Happy Prompting! 👋🏻

Share This Article