Intelligenza artificiale: in una settimana regole per tutti!

In pochi giorni sono state adottate proposte di regole e regole vere e proprie. Vediamo quali sono e confrontiamole insieme

9 Min Read

The Sunday Prompt #22 – 5/12/2023

Executive order, Codice di condotta di Hiroshima e Dichiarazione di Bletchley: un compendio per capire cosa è successo

Oggi non parliamo di prompt, perchè questa è stata una settimana a dir poco frizzante nel settore dell’intelligenza artificiale, dato che, in pochissimo tempo, tutti quanti sembrano essersi accorti dell’esigenza di introdurre delle regole per questa tecnologia.

Così mentre in Europa nelle stanze dove si svolgono le riunioni del trilogo si discute degli avanzamenti dell’AI Act, da più parti ci si è mossi per garantire una maggior cooperazione e dei principi “condivisi” per avanzare nella ricerca e nell’uso dell’IA.

Per la verità hanno aperto le danze gli accademici, tra cui il premio Nobel Daniel Kahneman, con un paper pubblico dal titolo “Managing AI Risk in an Era of Rapid Progress” in cui hanno sottolineato l’importanza, ed urgenza, di introdurre delle regole per contrastare  i danni sociali su larga scala e gli usi dannosi, nonché la perdita irreversibile del controllo umano sui sistemi di intelligenza artificiale autonomi, che potrebbe derivare in assenza delle stesse.

Quasi contemporaneamente alcune delle grandi societĂ  tecnologiche che stanno lavorando su questi sistemi (OpenAI, Microsoft, Google ed Anthropic) hanno annunciato delle iniziative

https://openai.com/blog/frontier-risk-and-preparedness

https://blog.google/outreach-initiatives/public-policy/google-microsoft-anthropic-open-ai-frontier-model-forum-executive-director

Tra cui la costituzione del “Frontier Model Forum” il quale, prendendo atto del fatto che 

“I governi e l’industria concordano sul fatto che, sebbene l’intelligenza artificiale avanzata offra enormi promesse a beneficio del mondo, sono necessarie misure di protezione adeguate per mitigare i rischi” vuole essere un veicolo per discussioni e azioni interorganizzative sulla sicurezza e la responsabilità dell’IA.

Parallelamente in questa settimana sono stati pubblicati tre importanti documenti: 

Questi documenti, pur avendo origine da differenti giurisdizioni e gruppi di stakeholder, riflettono l’esigenza condivisa di stabilire principi guida per l’IA che promuovano l’innovazione, proteggano i diritti umani e minimizzino i rischi. Attraverso una panoramica di questi provvedimenti, questo articolo intende fornire una visione chiara delle diverse prospettive e iniziative intraprese per navigare il complesso territorio dell’IA.

Vediamo nel dettaglio.


L’Ordine Esecutivo della Casa Bianca

L’Ordine Esecutivo della Casa Bianca si propone come una mappa stradale per guidare lo sviluppo e l’uso dell’IA negli Stati Uniti, ponendo un forte accento sulla necessità di promuovere l’innovazione e la concorrenza, tutelare i consumatori, e mantenere alti standard di sicurezza e privacy. Il documento sottolinea l’importanza di una gestione attenta dell’IA in settori critici come la cybersicurezza e le infrastrutture essenziali, con un occhio di riguardo alla riduzione dei rischi associati ai contenuti sintetici (ossia a quelli generati dall’IA) e alle minacce CBRN.

Ecco alcuni punti salienti dell’Ordine Esecutivo:

1. Sviluppo di Linee guida, Standard e Best Practices per la Sicurezza informatica  e la Sicurezza dell’IA.

2. Promozione della Sicurezza e dell’Affidabilità dell’IA.

3. Gestione dell’IA nelle Infrastrutture Critiche e nella Cybersicurezza.

4. Riduzione dei Rischi di utilizzo dell’IA e per finalità CBRN (rischi chimici, biologici, radioattivi e nucleari)

5. Riduzione dei Rischi derivanti dai Contenuti Sintetici (quelli generati dall’IA).

6. Promozione dell’Innovazione e della Concorrenza.

7. Sostegno ai Lavoratori.

8. Avanzamento dell’Equità e dei Diritti Civili.

9. Protezione dei Consumatori, Pazienti, Passeggeri e Studenti.

10. Protezione della Privacy.

11. Promozione dell’Uso dell’IA nel Governo Federale.

12. Rafforzamento della Leadership Americana all’Estero.

13. Implementazione.

L’ordine incoraggia un approccio multilaterale per affrontare le sfide poste dall’IA, promuovendo la collaborazione tra settori pubblici e privati, e sottolineando l’importanza di un’azione concertata per garantire che l’IA sia sviluppata e utilizzata in modo responsabile.

E’ necessario notare che l’ordine coinvolge varie agenzie federali, delegando le stesse ad una serie di azioni tra cui la predisposizione di standard, linee guida e linee di intervento sulla base di quanto previsto nello stesso.


Il Codice di Condotta internazionale del processo di Hiroshima – G7

Il Codice di Condotta Hiroshima si presenta come una guida volontaria per le organizzazioni impegnate nello sviluppo di sistemi IA avanzati, con un’enfasi particolare sulla promozione di un’IA sicura, affidabile e di fiducia a livello globale. Ecco alcuni punti chiave del codice:

  1. dottare misure appropriate per identificare, valutare e mitigare i rischi attraverso il ciclo di vita dell’IA.
  2. Identificare e mitigare le vulnerabilitĂ , anche dopo la distribuzione dei sistemi IA.
  3. Rendere noti al pubblico le capacitĂ , le limitazioni e i domini di utilizzo appropriati e inappropriati dei sistemi IA.
  4. Lavorare verso la condivisione responsabile delle informazioni e la segnalazione degli incidenti tra le organizzazioni.
  5. Sviluppare, implementare e divulgare politiche di governance e gestione del rischio basate sull’IA.
  6. Investire in controlli di sicurezza robusti attraverso il ciclo di vita dell’IA.
  7. Sviluppare meccanismi affidabili di autenticitĂ  e provenienza dei contenuti.
  8. Priorizzare la ricerca per mitigare i rischi sociali, di sicurezza e investire in misure di mitigazione efficaci.

Dichiarazione di Bletchley dei paesi partecipanti al vertice sulla sicurezza dell’intelligenza artificiale, del 1-2 novembre 2023

La Dichiarazione di Bletchley, sottoscritta da 28 Paesi, riconosce le opportunità globali offerte dall’IA, ma anche i rischi significativi associati, soprattutto dell’IA “di frontiera”.

Ecco alcuni punti salienti:

  1. Identificare i rischi di sicurezza dell’IA e costruire una comprensione condivisa e basata su prove scientifiche.
  2. Costruire politiche basate sul rischio per assicurare la sicurezza in relazione a tali rischi, collaborando a livello internazionale.
  3. Sostenere una rete inclusiva internazionale di ricerca scientifica sulla sicurezza dell’IA di frontiera.
  4. Sviluppare metriche di valutazione appropriate, strumenti per i test di sicurezza e aumentare la capacitĂ  del settore pubblico e la ricerca scientifica.

Un Confronto tra i Tre Documenti

Confrontando l’Ordine Esecutivo della Casa Bianca, il Codice di Condotta di Hiroshima e la Dichiarazione di Bletchley, emerge un quadro complesso ma al contempo illuminante sul panorama internazionale dell’IA. Questi documenti, pur provenendo da differenti sfere geopolitiche, riflettono una consapevolezza comune dell’importanza di indirizzare lo sviluppo dell’IA in modo responsabile.

Convergenze:

  1. Necessità di un approccio centrato sull’uomo nello sviluppo dell’IA.
  2. Enfasi sulla sicurezza, la trasparenza, l’accountability e la mitigazione dei bias.
  3. Riconoscimento dei rischi associati all’IA, inclusi quelli per la sicurezza e i diritti umani.
  4. Importanza della cooperazione internazionale per affrontare i rischi transnazionali dell’IA.

Divergenze:

  1. L’Ordine Esecutivo si concentra maggiormente su aspetti operativi e governativi specifici degli Stati Uniti, mentre gli altri due documenti hanno un approccio più globale.
  2. Il Codice di Condotta di Hiroshima e la Dichiarazione di Bletchley enfatizzano maggiormente l’importanza della cooperazione multilaterale e della condivisione delle informazioni tra diverse nazioni e stakeholders.
  3. La Dichiarazione di Bletchley mette in evidenza i rischi associati all’IA di frontiera, un punto non fortemente sottolineato nell’Ordine Esecutivo.

Sembra quindi che si stia andando in una direzione di principi comuni di regolazione dell’IA, anche se rimangono significative differenze di approccio soprattutto tra gli Stati Uniti ed il modello Europeo. Vedremo se questi documenti influenzeranno le discussioni ancora in corso per il testo finale dell’AI Act europeo.

Contatta lo studio Qubit Law Firm & Partners per approfondire questi temi ! 🤖

👋🏻 Happy Prompting

TAGGED:
Share This Article