L’avvento dell’intelligenza artificiale sta trasformando il panorama tecnologico mondiale, introducendo innovazioni e sfide inedite. Nel cuore dell’Europa, la proposta del Regolamento UE sull’intelligenza artificiale (European AI Act) segna un passo cruciale verso la regolamentazione di questa tecnologia emergente.
Questo regolamento, pionieristico nel suo genere, mira a garantire un corretto funzionamento del mercato interno dell’UE attraverso l’armonizzazione delle regole per lo sviluppo, l’immissione sul mercato e l’utilizzo dei sistemi di IA, evitando così frammentazioni e ostacoli al mercato unico.
Al centro di questo nuovo orizzonte regolamentare si trovano non solo le aziende private, ma anche le pubbliche amministrazioni (PA), che sono chiamate a un ruolo fondamentale nell’adattamento e nell’applicazione delle nuove normative.
Le PA, in particolare, si trovano di fronte a una doppia sfida: da un lato, devono assicurarsi che i sistemi di IA utilizzati nelle loro operazioni rispettino i nuovi standard europei. Dall’altro, devono essere pronte a monitorare e regolamentare l’uso di tali sistemi nel settore privato.
Indice
- L’accordo europeo del 6/9 dicembre 2023
- Definizioni di IA
- Pratiche di IA vietate
- Sistemi di IA ad alto rischio
- Obblighi e responsabilità
- Trasparenza e informazione
- Governance ed attuazione
- Promozione dell’innovazione e valutazione periodica
- Implicazioni per le Pubbliche Amministrazioni
- Ai Act e Pubblica Amministrazioni: quali prospettive?
L’accordo europeo del 6/9 dicembre 2023
La proposta di Regolamento UE sull’intelligenza artificiale (European AI Act) ha raggiunto un accordo politico significativo tra il Parlamento e il Consiglio, stabilendo regole complete per un’IA affidabile in Europa.
Questo regolamento mira a garantire che i diritti fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale siano protetti dall’IA ad alto rischio, stimolando al contempo l’innovazione e rafforzando la leadership europea in questo campo.
Tra le principali modifiche concordate, il regolamento vieta:
- l’uso di sistemi di categorizzazione biometrica basati su caratteristiche sensibili;
- lo scraping non mirato di immagini facciali da internet o da telecamere di sorveglianza per creare database di riconoscimento facciale;
- il riconoscimento delle emozioni nei luoghi di lavoro e nelle istituzioni educative;
- il punteggio sociale basato su comportamenti sociali o caratteristiche personali,
- lo sviluppo di sistemi di IA che manipolano il comportamento umano per eludere la libera volontà o sfruttare le vulnerabilità delle persone.
Per i sistemi di IA classificati come ad alto rischio, sono stati concordati obblighi chiari, tra cui:
- una valutazione obbligatoria dell’impatto sui diritti fondamentali;
- la possibilità per i cittadini di presentare reclami e ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che influenzano i loro diritti.
Inoltre, sono state stabilite regole più rigorose per i modelli di IA di uso generale (GPAI) con rischio sistemico, inclusa la necessità di valutazioni del modello, la valutazione e mitigazione dei rischi sistemici, i test avversari, la segnalazione di incidenti gravi alla Commissione, la garanzia della sicurezza informatica e la relazione sull’efficienza energetica.
È stato anche promosso il supporto all’innovazione e alle piccole e medie imprese (PMI) attraverso sandbox regolamentari e test nel mondo reale, stabiliti dalle autorità nazionali per sviluppare e addestrare l’IA innovativa prima della sua immissione sul mercato.
In caso di non conformità alle regole, sono previste sanzioni che possono variare da 35 milioni di euro o il 7% del fatturato globale fino a 7,5 milioni o l’1,5% del fatturato, a seconda dell’infrazione e delle dimensioni dell’azienda.
I prossimi passi includono l’adozione formale del testo concordato sia dal Parlamento che dal Consiglio per diventare legge dell’UE. Le commissioni Mercato Interno e Libertà Civili del Parlamento voteranno sull’accordo in una prossima riunione.
Vediamo meglio nel dettaglio cosa ha stabilito l’Ai Act e quali sono le implicazioni per la pubblica amministrazione di tutta Europa.
Definizioni di IA
Il Regolamento UE sull’intelligenza artificiale stabilisce una definizione ampia e neutrale dell’IA, includendo tutti gli approcci e le tecniche rilevanti. Questo approccio allargato consente di abbracciare l’evoluzione continua e la diversità delle applicazioni dell’IA.
L’allegato I del regolamento elenca in dettaglio gli approcci e le tecniche considerati, fornendo un quadro chiaro per le PA e i fornitori su cosa rientra nella definizione di sistemi di IA.
- Testo Ai Act in pdf
- Allegati Ai Act – Commissione Europea
Ambito di applicazione e rilevanza per le PA
L’ambito di applicazione del regolamento è vasto e comprende tutti i sistemi di IA forniti o utilizzati all’interno dell’UE, inclusi quelli in situazioni transfrontaliere. Questo significa che le PA devono essere particolarmente attente nel garantire che tutti i sistemi di IA impiegati nelle loro operazioni, così come quelli monitorati nelle attività del settore privato, rispettino le normative UE.
L’uso esclusivo di sistemi di IA a fini militari è escluso dal regolamento, ma ciò non minimizza l’importanza della vigilanza delle PA in tutti gli altri ambiti di applicazione.
Inoltre, il regolamento chiarisce la responsabilità degli intermediari dei servizi online, aspetto cruciale per le PA che devono comprendere il proprio ruolo nel controllo e nella regolamentazione di tali servizi.
Pratiche di IA vietate
Il regolamento pone un divieto chiaro sull’utilizzo di pratiche inaccettabili tramite sistemi di IA.
Manipolazioni subliminali
Le prime sono le manipolazioni subliminali, che influenzano le persone senza che se ne rendano conto, contrarie ai valori fondamentali dell’UE e rappresentano una linea rossa che le PA devono assicurarsi non venga superata.
Sfruttamento di gruppi vulnerabili
Similmente, il regolamento vieta lo sfruttamento di gruppi vulnerabili tramite sistemi di IA. Questo tipo di sfruttamento, che può portare a conseguenze negative per individui o gruppi svantaggiati, è una pratica inaccettabile e le PA hanno il compito di prevenire e contrastare tali abusi.
Punteggi sociali generalizzati
Un’altra pratica vietata è l’utilizzo di punteggi sociali generalizzati da parte delle autorità pubbliche tramite sistemi di IA. Questa pratica, che può avere implicazioni negative in termini di discriminazione e limitazione dei diritti fondamentali, deve essere attentamente monitorata dalle PA.
Uso di sistemi biometrici
Il regolamento vieta l’utilizzo di sistemi biometrici da remoto in tempo reale in luoghi pubblici, ad eccezione di alcune limitate circostanze.
Questa restrizione è stata introdotta per preservare la privacy delle persone e ridurre il rischio di abusi o discriminazioni. Le PA devono essere consapevoli di queste restrizioni e assicurarsi che vengano rispettate.
Sistemi di IA ad alto rischio
Il regolamento identifica anche i cosiddetti sistemi di IA ad alto rischio, che sono soggetti a requisiti obbligatori rigorosi perché utilizzati in ambiti critici come la sanità, il trasporto e la giustizia.
Per le PA, è fondamentale identificare correttamente questi sistemi, assicurandosi che rispettino standard elevati in termini di qualità dei dati, documentazione, trasparenza, accuratezza e robustezza.
L’UE chiede un monitoraggio umano efficace, per garantire che le decisioni basate sull’intelligenza artificiale siano sempre sotto controllo e revisione umana.
Valutazione di xonformità
I sistemi di IA ad alto rischio devono inoltre essere sottoposti a una valutazione di conformità da parte di organi notificati prima dell’immissione sul mercato dell’UE.
Le PA hanno un ruolo chiave nel garantire che tali valutazioni siano condotte in maniera imparziale e secondo gli standard stabiliti, monitorando gli organismi notificati e assicurandosi della loro competenza e indipendenza.
Obblighi e responsabilità
Il regolamento stabilisce obblighi chiari sia per i fornitori che per gli utenti di sistemi di IA ad alto rischio. I fornitori devono garantire:
- la conformità ai requisiti;
- gestire il rischio;
- fornire una documentazione tecnica adeguata.
Gli utenti, comprese le PA, devono invece:
- rispettare le istruzioni d’uso;
- condurre attività di monitoraggio.
La pubblica amministrazione ha quindi la responsabilità di supervisionare e verificare che questi obblighi vengano rispettati, sia all’interno delle proprie operazioni sia nel settore privato.
Valutazioni di conformità e sanzioni
Le valutazioni di conformità per i sistemi ad alto rischio sono un compito iniziale dei fornitori, ma devono essere successivamente verificate da organi notificati indipendenti. In caso di non conformità, sono previste sanzioni significative.
Le PA giocano un ruolo cruciale nell’attuazione di queste misure, assicurandosi che le violazioni vengano identificate e trattate in modo efficace.
Trasparenza e informazione
I sistemi di IA che interagiscono con le persone o riconoscono emozioni devono rispettare obblighi di trasparenza e informazione. Questo è essenziale per garantire che gli utenti siano consapevoli dell’interazione con questi sistemi e delle loro potenziali conseguenze.
Per le PA, ciò implica l’obbligo di informare i cittadini quando interagiscono con sistemi di IA e di garantire che questi sistemi siano chiaramente identificati come tali.
Governance ed attuazione
Il regolamento istituisce un Comitato UE per l’IA, insieme a autorità nazionali competenti, al fine di controllare l’applicazione del regolamento a livello dell’UE e nei singoli Stati membri.
Queste entità hanno il compito di garantire che le disposizioni del regolamento siano rispettate, adottando misure correttive e sanzioni in caso di violazioni.
Per le PA, questo implica una collaborazione attiva con il Comitato UE per l’IA e le autorità nazionali, condividendo informazioni, esperienze e best practice, nonché partecipando attivamente al monitoraggio e all’attuazione del regolamento.
Banca dati UE per i sistemi ad alto rischio
Il regolamento prevede la creazione di una banca dati UE per la registrazione dei sistemi ad alto rischio immessi sul mercato.
Questa banca dati è uno strumento fondamentale per le PA per mantenere traccia di questi sistemi, facilitando la supervisione, il controllo e l’eventuale intervento da parte delle autorità competenti.
Promozione dell’innovazione e valutazione periodica
Il regolamento promuove l’innovazione attraverso la creazione di spazi di sperimentazione controllata. Questi spazi consentono ai soggetti interessati, inclusi gli enti pubblici, di testare i sistemi di IA in un ambiente sicuro e regolamentato.
La Commissione UE è incaricata di effettuare valutazioni periodiche dell’efficacia del regolamento e di apportare modifiche, se necessarie.
Implicazioni per le Pubbliche Amministrazioni
L’European AI Act ha implicazioni dirette per le pubbliche amministrazioni, che devono adattarsi per rispettare i nuovi requisiti e per svolgere un ruolo attivo nel monitoraggio e nell’attuazione del regolamento.
Questo richiede un aggiornamento delle competenze e delle procedure interne, nonché la creazione di nuovi meccanismi di controllo e vigilanza.
Le PA sono di fronte a importanti opportunità e sfide. Da un lato, il regolamento offre la possibilità di sfruttare l’IA in modo più sicuro ed etico, promuovendo innovazione e miglioramento dei servizi pubblici. Dall’altro, le PA devono affrontare la sfida di integrare queste nuove normative nei loro processi, assicurando conformità e trasparenza.
Ai Act e Pubblica Amministrazioni: quali prospettive?
Con l’accordo raggiunto sull’European AI Act, l’UE si avvicina a stabilire le prime regole globali per un’intelligenza artificiale affidabile.
Una volta formalmente adottato, il regolamento garantirà che l’IA in Europa sia sicura, rispetti i diritti fondamentali e la democrazia.
Dal canto loro, le imprese, in particolare le PMI, possono prosperare e espandersi in un ambiente innovativo e regolamentato.
Le modifiche concordate mirano a proteggere i cittadini dall’uso improprio dell’IA e a rafforzare la trasparenza e la responsabilità nell’uso di sistemi di IA ad alto rischio. Le pubbliche amministrazioni saranno proprio chiamate ad assumere questo ruolo centrale, non solo nel garantire la conformità ma anche nell’essere pionieri nell’adozione di pratiche di IA etiche e sicure.
FAQ – Domande frequenti
L’European AI Act è una proposta di regolamento dell’UE che mira a garantire che l’intelligenza artificiale (IA) in Europa sia sicura, rispetti i diritti fondamentali e la democrazia, e supporti l’innovazione e la crescita delle imprese.
Il regolamento introduce divieti su pratiche di IA come il riconoscimento delle emozioni, il punteggio sociale basato su comportamenti sociali o caratteristiche personali, e l’uso di IA per manipolare il comportamento umano o sfruttare vulnerabilità.
Le pubbliche amministrazioni sono chiamate a garantire la conformità ai nuovi standard, a monitorare e regolamentare l’uso dei sistemi di IA e a essere pionieri nell’adozione di pratiche di IA etiche e sicure.
Per i sistemi di IA ad alto rischio, il regolamento stabilisce obblighi chiari come la valutazione dell’impatto sui diritti fondamentali e la possibilità per i cittadini di presentare reclami riguardo decisioni basate su tali sistemi.
Il testo concordato dovrà essere formalmente adottato da Parlamento e Consiglio per diventare legge dell’UE. Le commissioni del Parlamento UE voteranno sull’accordo in una prossima riunione.
Giovanni Emmi
Dottore Commercialista