Innovazione

Autore: Massimiliano Talarico
ASSINEWS 367 – Ottobre 2024

L’Unione Europea si è posta all’avanguardia nella regolamentazione dell’intelligenza artificiale (IA) con l’approvazione dell’AI Act1, un ambizioso quadro normativo destinato a
stabilire standard globali per lo sviluppo e l’utilizzo responsabile di questa tecnologia trasformativa. Questo articolo esamina in dettaglio l’AI Act, dalla sua genesi come proposta
della Commissione Europea fino alla sua approvazione formale il 21 maggio 2024, analizzando i suoi principali contenuti, le implicazioni per diversi settori e gli impatti previsti
sul panorama tecnologico europeo e globale.

Genesi e sviluppo dell’AI Act

La proposta originale dell’AI Act, presentata dalla Commissione, ha segnato l’inizio di un percorso legislativo complesso e articolato. L’obiettivo dichiarato era quello di creare un quadro giuridico armonizzato per l’IA all’interno dell’Unione Europea, bilanciando la necessità di promuovere l’innovazione con l’imperativo di tutelare i diritti fondamentali dei cittadini europei. Il testo iniziale ha attraversato numerose fasi di negoziazione e revisione, coinvolgendo il Parlamento Europeo, il Consiglio dell’UE e vari stakeholder del settore pubblico e privato. Questo processo ha portato a significative modifiche e affinamenti della proposta originale, culminando nell’accordo provvisorio tra il Parlamento europeo e il Consiglio dell’UE. L’approvazione formale da parte del Parlamento europeo ha rappresentato un passo decisivo verso l’adozione finale del regolamento con il voto del Consiglio dell’UE.

Principi fondamental i dell’AI Act

L’AI Act si basa su alcuni principi fondamentali che riflettono i valori e le priorità dell’Unione Europea:

  1. Approccio basato sul rischio: il regolamento classifica le applicazioni di IA in base al livello di rischio che presentano per i diritti fondamentali e la sicurezza dei cittadini.
  2. Trasparenza e responsabilità: viene posta grande enfasi sulla necessità di rendere i sistemi di IA comprensibili e verificabili, con obblighi di trasparenza per gli sviluppatori e i deployer.
  3. Tutela dei diritti fondamentali: l’AI Act mira a proteggere i diritti umani, la privacy e la non discriminazione nell’uso dell’IA.
  4. Promozione dell’innovazione: pur imponendo regole stringenti, il regolamento cerca di creare un ambiente favorevole all’innovazione nel campo dell’IA in Europa.
  5. Governance e supervisione: viene istituito un sistema di governance a livello europeo e nazionale per garantire l’applicazione e il monitoraggio delle norme.

Classificazione dei sistemi di IA in base al rischio

Uno degli aspetti più innovativi dell’AI Act è la sua classificazione dei sistemi di IA in quattro categorie di rischio:

  1. Rischio inaccettabile: sistemi di IA considerati una chiara minaccia ai diritti fondamentali sono vietati. Questi includono sistemi di punteggio sociale, manipolazione del comportamento umano e identificazione biometrica remota in tempo reale in spazi pubblici per scopi di law enforcement (con alcune eccezioni limitate).
  2. Alto rischio: sistemi di IA che hanno un impatto significativo sulla vita delle persone, come quelli usati in infrastrutture critiche, istruzione, occupazione, servizi essenziali privati e pubblici, law enforcement, gestione della migrazione e amministrazione della giustizia. Questi sistemi sono soggetti a requisiti stringenti prima di poter essere immessi sul mercato.
  3. Rischio limitato: sistemi di IA come chatbot o deepfake, che devono rispettare obblighi minimi di trasparenza, permettendo agli utenti di prendere decisioni informate sul loro utilizzo.
  4. Rischio minimo: la maggior parte delle applicazioni di IA, come i videogiochi o i filtri spam, che possono essere sviluppate e utilizzate senza restrizioni aggiuntive.

Requisiti per i sistemi di IA ad alto rischio

Per i sistemi di IA classificati come ad alto rischio, l’AI Act impone una serie di requisiti rigorosi:

  1. Valutazione e mitigazione dei rischi: i fornitori devono effettuare valutazioni approfondite dei rischi e implementare misure di mitigazione adeguate.
  2. Qualità dei set di dati: i dati utilizzati per addestrare i sistemi di IA devono essere di alta qualità, rappresentativi e privi di bias discriminatori.
  3. Documentazione e registrazione: è richiesta una documentazione dettagliata del sistema, inclusi i suoi scopi, funzionamento e limitazioni.
  4. Trasparenza e informazioni per gli utenti: gli utenti devono essere informati chiaramente quando interagiscono con un sistema di IA e delle sue capacità e limitazioni.
  5. Supervisione umana: deve essere garantito un adeguato livello di supervisione umana sul funzionamento del sistema.
  6. Robustezza, accuratezza e sicurezza: i sistemi devono dimostrare elevati livelli di robustezza tecnica, accuratezza e sicurezza informatica.
  7. Conformità continua: i fornitori devono implementare sistemi di gestione della qualità e monitorare continuamente le prestazioni dei loro sistemi di IA sul mercato.

Divieti e restrizioni specifiche

L’AI Act stabilisce divieti espliciti per alcune pratiche considerate particolarmente pericolose:

  1. Sistemi di punteggio sociale: l’uso di sistemi di IA per valutare o classificare l’affidabilità delle persone basandosi sul loro comportamento sociale o caratteristiche personali è vietato nel settore pubblico.
  2. Manipolazione del comportamento: sistemi di IA progettati per manipolare il comportamento umano, sfruttando vulnerabilità o causando danni fisici o psicologici, sono proibiti.
  3. Identificazione biometrica remota in tempo reale: l’uso di questi sistemi in spazi accessibili al pubblico per finalità di law enforcement è generalmente vietato, con alcune eccezioni strettamente definite e soggette ad autorizzazione giudiziaria.
  4. Sistemi di categorizzazione biometrica: l’uso di sistemi di IA per dedurre caratteristiche sensibili (come orientamento sessuale, convinzioni religiose o politiche) da dati biometrici è fortemente limitato.
  5. Scraping di immagini facciali: la raccolta massiva di immagini facciali da internet o da sistemi di videosorveglianza per creare database di riconoscimento facciale è vietata.

Governance e applicazione

L’AI Act istituisce un sistema di governance a più livelli per garantire l’effettiva applicazione delle sue disposizioni:

  1. Autorità nazionali di vigilanza: ogni Stato membro deve designare una o più autorità nazionali competenti per supervisionare l’applicazione del regolamento.
  2. Comitato europeo per l’intelligenza artificiale: viene istituito un organismo a livello UE per coordinare e armonizzare le pratiche tra gli Stati membri.
  3. Sandbox regolamentari: gli Stati membri sono incoraggiati a creare “sandbox” per testare sistemi di IA innovativi in un ambiente controllato prima del loro lancio sul mercato.
  4. Sistema di enforcement: sono previste sanzioni significative per le violazioni del regolamento, che possono arrivare fino al 7% del fatturato globale annuo di un’azienda o 40 milioni di euro, a seconda di quale sia l’importo maggiore.

Impatto sui diversi settori

L’AI Act avrà un impatto significativo su numerosi settori:

  1. Tecnologia e innovazione: le aziende tecnologiche dovranno adattare i loro processi di sviluppo e implementazione dell’IA per conformarsi ai nuovi requisiti, potenzialmente rallentando l’innovazione a breve termine ma promuovendo soluzioni più affidabili e sicure nel lungo periodo.
  2. Servizi finanziari: il settore finanziario, che fa ampio uso di sistemi di IA per valutazione del credito, rilevamento delle frodi e trading algoritmico, dovrà garantire che questi sistemi soddisfino i requisiti per i sistemi ad alto rischio.
  3. Sanità: l’uso dell’IA in diagnostica, pianificazione del trattamento e dispositivi medici sarà soggetto a controlli rigorosi, potenzialmente ritardando l’adozione di alcune tecnologie, ma aumentando la fiducia dei pazienti.
  4. Trasporti: lo sviluppo di veicoli autonomi e sistemi di gestione del traffico basati sull’IA dovrà conformarsi a standard elevati di sicurezza e affidabilità.
  5. Istruzione: l’uso di sistemi di IA per valutazione degli studenti o personalizzazione dell’apprendimento sarà soggetto a requisiti di trasparenza e equità.
  6. Risorse umane: l’utilizzo dell’IA nei processi di selezione e gestione del personale dovrà garantire la non discriminazione e la trasparenza.
  7. Law enforcement: l’uso di tecnologie di IA come il riconoscimento facciale sarà soggetto a restrizioni significative, richiedendo un ripensamento delle strategie di sicurezza pubblica.

Sfide e criticità

Nonostante l’ampio consenso sull’importanza di regolamentare l’IA, l’AI Act ha suscitato anche alcune critiche e preoccupazioni:

  1. Complessità e costi di conformità: molte aziende, specialmente PMI, potrebbero trovare difficile e costoso conformarsi ai requisiti dettagliati del regolamento.
  2. Potenziale freno all’innovazione: alcuni sostengono che regole troppo rigide potrebbero soffocare l’innovazione e mettere le aziende europee in svantaggio competitivo rispetto a concorrenti globali meno regolamentati.
  3. Definizione e classificazione dei rischi: la categorizzazione dei sistemi di IA in base al rischio potrebbe rivelarsi problematica in pratica, con possibili zone grigie e interpretazioni divergenti.
  4. Applicazione extraterritoriale: l’applicazione del regolamento a fornitori di IA al di fuori dell’UE potrebbe creare tensioni geopolitiche e sfide di enforcement.
  5. Adattabilità al rapido progresso tecnologico: c’è il rischio che il regolamento diventi rapidamente obsoleto di fronte all’evoluzione accelerata delle tecnologie di IA.
  6. Bilanciamento tra protezione e utilizzo dei dati: il requisito di utilizzare set di dati di alta qualità potrebbe entrare in conflitto con le normative sulla protezione dei dati, creando una tensione tra qualità dell’IA e privacy.

Implicazioni globali

L’AI Act è destinato ad avere un impatto ben oltre i confini dell’Unione Europea:

  1. Effetto Bruxelles: l’AI Act potrebbe diventare un modello globale de facto per la regolamentazione dell’IA, influenzando le pratiche aziendali a livello mondiale.
  2. Standard globali: le aziende che vorranno operare nel mercato europeo dovranno adeguarsi agli standard dell’UE, potenzialmente elevando gli standard globali per lo sviluppo e l’utilizzo dell’IA.
  3. Competizione tecnologica: il regolamento potrebbe influenzare la competizione tecnologica globale, in particolare nei rapporti tra UE, USA e Cina.
  4. Cooperazione internazionale: l’AI Act potrebbe stimolare una maggiore cooperazione internazionale sulla governance dell’IA, promuovendo approcci armonizzati a livello globale.
  5. Innovazione etica: l’enfasi dell’UE su un’IA affidabile e centrata sull’uomo potrebbe incoraggiare un approccio più etico all’innovazione tecnologica a livello globale.

Prossimi passi e implementazione

ll Consiglio dell’UE ha approvato, il 21 maggio 2024, l’Artificial intelligence (AI) act, il regolamento entrerà in vigore 20 giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE, con un periodo di transizione di 24 mesi prima della piena applicabilità. Durante questo periodo di transizione, saranno necessarie diverse azioni chiave:

  1. Elaborazione di linee guida: la Commissione Europea e il Comitato europeo per l’intelligenza artificiale dovranno elaborare linee guida dettagliate per l’interpretazione e l’applicazione del regolamento.
  2. Istituzione di autorità nazionali: gli Stati membri dovranno designare o creare le autorità nazionali competenti per la supervisione e l’applicazione dell’AI Act.
  3. Adeguamento delle imprese: le aziende che sviluppano o utilizzano sistemi di IA dovranno valutare il loro livello di conformità e implementare le necessarie modifiche ai loro processi e prodotti.
  4. Formazione e sensibilizzazione: sarà neces sario un ampio sforzo di formazione e sensibilizzazione per garantire che tutti gli attori coinvolti comprendano i loro obblighi ai sensi del nuovo regolamento.
  5. Creazione di sandbox regolamentari: gli Stati membri dovranno istituire ambienti controllati per testare e sviluppare sistemi di IA innovativi in conformità con il regolamento.
  6. Monitoraggio e revisione: la Commissione Europea dovrà monitorare l’implementazione del regolamento e preparare relazioni periodiche sulla sua efficacia, con la possibilità di proporre modifiche se necessario.

L’AI Act rappresenta un passo significativo verso la creazione di un quadro normativo globale per l’intelligenza artificiale. Bilanciando la necessità di promuovere l’innovazione con l’imperativo di proteggere i diritti fondamentali, l’UE si pone come leader globale nella regolamentazione etica e responsabile dell’IA. Tuttavia, il successo dell’AI Act dipenderà dalla sua effettiva implementazione e dalla capacità di adattarsi al rapido progresso tecnologico. Sarà cruciale monitorare attentamente gli impatti del regolamento sull’innovazione, sulla competitività delle imprese europee e sulla protezione dei diritti dei cittadini. Inoltre, sarà importante osservare come altri paesi e regioni risponderanno all’approccio dell’UE.

L’AI Act potrebbe stimolare una convergenza globale verso standard più elevati per lo sviluppo e l’utilizzo dell’IA, o potrebbe portare a una frammentazione normativa che complica il panorama globale dell’innovazione tecnologica. L’AI Act segna l’inizio di una nuova era nella governance dell’intelligenza artificiale, ponendo le basi per un futuro in cui le potenzialità trasformative dell’IA possano essere pienamente realizzate nel rispetto dei valori e dei diritti fondamentali. Il suo successo o fallimento avrà profonde implicazioni non solo per l’Europa, ma per il futuro globale dell’innovazione tecnologica e della società digitale.

_______

1 https://data.consilium.europa.eu/doc/document/PE-24-2024-INIT/it/pdf

© Riproduzione riservata