AI affidabile, questo è l'approccio europeo
La legge dell'Unione europea sull'IA costituisce il primo quadro giuridico globale in assoluto a livello mondiale in tema di intelligenza artificiale.
La Commissione accoglie con soddisfazione l'accordo politico raggiunto tra il Parlamento europeo e il Consiglio sulla legge sull'intelligenza artificiale (legge sull'IA) proposto dalla Commissione.
Ursula von der Leyen , Presidente della Commissione europea, ha dichiarato: "L'intelligenza artificiale sta già cambiando la nostra vita quotidiana. E non è che l'inizio. Utilizzata in modo oculato e diffuso, l'IA promette benefici enormi per la nostra economia e la nostra società. Accolgo pertanto con grande soddisfazione l'accordo politico raggiunto oggi dal Parlamento europeo e dal Consiglio sulla legge sull'intelligenza artificiale. La legge dell'Unione europea sull'IA costituisce il primo quadro giuridico globale in assoluto a livello mondiale in tema di intelligenza artificiale. Si tratta quindi di un momento storico. La legge sull'IA recepisce i valori europei e li traspone in una nuova epoca. Concentrando la regolamentazione sui rischi individuabili, l'accordo odierno promuoverà l'innovazione responsabile in Europa. Garantendo la sicurezza ei diritti fondamentali dei cittadini e delle imprese, sosterrà lo sviluppo, la diffusione e l'adozione di un'IA affidabile nell'UE.La nostra legge sull'intelligenza artificiale contribuirà in misura sostanziale allo sviluppo di norme e principi globali per un'IA antropocentrica."
L'approccio europeo è un'IA affidabile
Le nuove regole, che saranno applicate direttamente e nello stesso modo in tutti gli Stati membri, sulla base di una definizione di IA adeguata alle esigenze future, seguono un approccio basato sul rischio.
Rischio minimo: la grande maggioranza dei sistemi di IA rientra nella categoria di rischio minimo. Le applicazioni a rischio minimo, come i sistemi di raccomandazione oi filtri spam basati sull'IA, godranno di un "lasciapassare" e dunque saranno esenti da obblighi, in quanto presentano rischi minimi o nulli per i diritti o la sicurezza dei cittadini. Ma le imprese possono comunque impegnarsi, a titolo volontario, ad adottare codici di condotta aggiuntivi per tali sistemi di IA.
Rischio alto: i sistemi di IA identificazione come ad alto rischio dovranno rispettare requisiti rigorosi e prevedere tra l'altro sistemi di attenuazione dei rischi, set di dati di elevata qualità, la registrazione delle attività, una documentazione dettagliata, informazioni chiare per gli utenti, sorveglianza umana e un elevato livello di robustezza, accuratezza e cibersicurezza. Gli spazi di sperimentazione normativa faciliteranno l'innovazione responsabile e lo sviluppo di sistemi di IA conformi.
Tra gli esempi di sistemi di IA ad alto rischio figurano alcune infrastrutture critiche, ad esempio nei settori dell'acqua, del gas e dell'elettricità, dispositivi medici, sistemi utilizzati per determinare l'accesso agli istituti di istruzione o per le assuzioni o alcuni sistemi utilizzati nell'ambito delle attività di contrasto, del controllo delle frontiere, dell'amministrazione della giustizia e dei processi democratici. Anche i sistemi di identificazione biometrica, categorizzazione biometrica e riconoscimento delle emozioni sono considerati ad alto rischio.
Rischio inaccettabile: i sistemi di IA considerano una chiara minaccia per i diritti fondamentali delle persone saranno vietati . In questa categoria rientrano i sistemi o le applicazioni di IA che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti, come i giocattoli che utilizzano l'assistenza vocale per incoraggiare comportamenti pericolosi dei minori oi sistemi che consentono ai governi o alle aziende di attribuire un "punteggio sociale", oltre che determinate applicazioni di polizia predittiva. Saranno inoltre vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzate sul luogo di lavoro e alcuni sistemi di categorizzazione delle persone o di identificazione biometrica in tempo reale a fini di attività di contrasto in spazi accessibili al pubblico (con limitato eccezioni).
Rischio specifico per la trasparenza: quando utilizzano sistemi di IA come i chatbot, gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina. I deep fake e gli altri contenuti generati dall'IA dovranno essere etichettati come tali e gli utenti dovranno essere informati quando verranno utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. I fornitori dovranno inoltre configurare i sistemi in modo che i contenuti sintetici di audio, video, testo e immagini siano contrassegnati in un formato leggibile mediante dispositivi automatici e siano riconoscibili come generati o manipolati artificialmente.
Ammenda
Le imprese che non rispettano le norme saranno sanzionate . Le ammende varieranno da 35 milioni di €, o il 7% del fatturato annuo globale (se superiore alla cifra indicata), per le violazioni concernenti applicazioni di IA vietate, 15 milioni di € o il 3% per le violazioni di altri obblighi e 7 ,5 milioni di € o l'1,5% per la comunicazione di informazioni inesatte. Sono previsti massimali più proporzionati per le sanzioni amministrative per le PMI e le start-up in caso di violazione della legge sull'IA.
IA per finalità generali
La legge sull'IA introduce norme specifiche per i modelli di IA per finalità generali che garantiranno la trasparenza lungo la catena del valore. Per i modelli molto potenti che potrebbero comportare rischi sistemici vi saranno ulteriori obblighi vincolanti relativi alla gestione dei rischi e al monitoraggio degli incidenti gravi, con valutazione dei modelli e verifiche con il metodo dell' adversarial testing . Questi nuovi obblighi saranno resi operativi attraverso codici di pratiche elaborati dall'industria, dalla comunità scientifica, dalla società civile e da altri portatori di interessi insieme alla Commissione.
Per quanto concerne la governance, le autorità nazionali competenti per la vigilanza del mercato sorveglieranno l'attuazione delle nuove norme a livello nazionale, mentre la creazione di un nuovo Ufficio europeo per l'IA nell'ambito della Commissione europea garantirà il coordinamento a livello europeo . Il nuovo Ufficio per l'IA supervisionerà inoltre l'attuazione e l'applicazione delle nuove norme sui modelli di IA per finalità generali. Insieme alle autorità nazionali di vigilanza del mercato, l'Ufficio per l'IA costituirà il primo organismo globale per l'applicazione di norme vincolanti per l'IA, che in quanto tale dovrebbe divenire un punto di riferimento a livello internazionale. Per i modelli per finalità generali, un comitato scientifico di esperti indipendenti svolgerà una funzione fondamentale segnalando i rischi sistemici e contribuendo alla classificazione e alla sperimentazione dei modelli.
Prossime tappe
L'accordo politico dovrà ricevere adesso l'approvazione formale del Parlamento europeo e del Consiglio, per entrare quindi in vigore 20 giorni dopo la pubblicazione nella Gazzetta ufficiale. La legge sull'IA diventerà applicabile due anni dopo la sua entrata in vigore, fatta eccezione per alcune disposizioni specifiche: i divieti si applicheranno già dopo 6 mesi, mentre le norme sull'IA per finalità generali si applicheranno dopo 12 mesi.
Per il periodo transitorio che precederà l'applicazione generale del regolamento, la Commissione lancerà il Patto sull'IA , rivolto a sviluppatori di IA europei e del resto del mondo, che si impegneranno a titolo volontario ad attuare gli obblighi fondamentali della legge sull'IA prima dei termini della legge.
Per promuovere a livello internazionale norme per un'intelligenza artificiale affidabile, l'Unione europea continuerà a operare in consessi quali il G7, l'OCSE, il Consiglio d'Europa, il G20 e le Nazioni Unite. Recentemente abbiamo sostenuto l'accordo dei leader del G7 nell'ambito del processo di Hiroshima sull'IA sui principi guida internazionali e il codice di condotta volontario per i sistemi di IA avanzati.
Contesto
Da anni la Commissione agevola e rafforza la cooperazione in materia di IA in tutta l'UE per promuovere la competitività e garantire la fiducia basata sui valori dell'UE.
A seguito della pubblicazione, nel 2018, della strategia europea sull'IA , e dopo un'ampia consultazione dei portatori di interessi, il gruppo di esperti ad alto livello di intelligenza artificiale ha elaborato nel 2019 gli orientamenti per un'IA affidabile e nel 2020 la lista di controllo per la valutazione dell'affidabilità dell'IA. Nel dicembre 2018 è stato inoltre pubblicato il primo piano coordinato sull'IA , come impegno congiunto con gli Stati membri.
Il libro bianco sull'IA della Commissione , pubblicato nel 2020, delinea una visione chiara per l'IA in Europa come ecosistema di eccellenza e fiducia, gettando le basi dell'accordo politico odierno. La consultazione pubblica sul libro bianco sull'IA ha fatto registrare un'ampia partecipazione da tutto il mondo. Il libro bianco era accompagnato dalla " Relazione sulle implicazioni dell'intelligenza artificiale, dell'Internet delle cose e della robotica in materia di sicurezza e di responsabilità ", in cui si conclude che la normativa vigente in materia di sicurezza dei prodotti presenta una serie di lacune cui deve essere posto rimedio, in particolare nell'ambito della direttiva macchine.
La ricerca indipendente e basata su dati concreti condotta dal Centro comune di ricerca (JRC) è stata fondamentale per la definizione delle politiche dell'UE sull'intelligenza artificiale e per l'efficacia della loro attuazione. Con le sue ricerche e analisi rigorose, il JRC ha sostenuto l'elaborazione della legge sull'IA, informando la terminologia dell'IA, la classificazione dei rischi ei requisiti tecnici e contribuendo allo sviluppo di norme armonizzate.
Per ulteriori informazioni
Dichiarazione del presidente von der Leyen sull'accordo politico sulla legge dell'UE sull'IA
Nuove regole per l'intelligenza artificiale – Domande e risposte
Nuove regole per l'intelligenza artificiale – Scheda informativa
Processo di Hiroshima sull'IA: principi guida e codice di condotta sull'intelligenza artificiale
Piano coordinato sull'intelligenza artificiale
Regolamento relativo alle macchine
Norme in materia di responsabilità per l'intelligenza artificiale
Centro europeo per la trasparenza algoritmica, Centro comune di ricerca