Il Parlamento europeo ha approvato la legge sull’intelligenza artificiale. Ecco alcune prime considerazioni.
Fin dal suo nascere, questa legge è stata definita “storica”, in quanto chiamata a regolare l’utilizzo di algoritmi d’intelligenza artificiale (IA) all’interno dell’Unione Europea.
Essa mira a garantire uno sviluppo responsabile e sicuro dell’IA, vista l’estrema velocità di evoluzione che caratterizza le sue applicazioni. L’intento dei legislatori è quello di definire un quadro normativo chiaro, che stabilisca diverse categorie di rischio per i sistemi di intelligenza artificiale, a seconda del loro possibile impatto sulla sicurezza e sui diritti delle persone. Vediamo alcuni di questi rischi. Saranno vietati:
l i sistemi di categorizzatone biometrica, basati sull’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale;
l i sistemi di riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole;
l i sistemi di credito social e le pratiche di polizia predittiva (qualora siano basate solo sulla profilazione o sulla valutazione delle caratteristiche di una persona);
l i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità degli individui.
Ci saranno anche alcuni settori specifici (ad esempio della sicurezza nazionale), che saranno esentati da una parte dei controlli. Per esempio, se in linea di principio le forze dell’ordine non devono fare ricorso ai sistemi di identificazione biometrica, potranno farlo in alcune situazioni ben determinate, previste dalla legge. L’identificazione “in tempo reale” potrà essere utilizzata solo se verranno rispettate alcune garanzie, come l’uso limitato nel tempo e nello spazio e la presenza di un’autorizzazione giudiziaria o amministrativa. Altri usi ammessi includeranno, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. In linea di principio, l’adozione di questi sistemi a posteriori è considerato molto rischioso. Per potervi fare ricorso, l’autorizzazione giudiziaria dovrà quindi essere connessa a un reato.
Vengono poi definiti obblighi precisi per l’utilizzo dell’IA nei sistemi ad alto rischio. Appartengono a questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.) alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni). Per questi sistemi la legge stabilirà l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti, molto accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di IA e a ottenere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che hanno un impatto sui loro diritti.
Vi sono previsti anche obblighi di trasparenza e misure di sostegno. Parlando di finalità generali, i sistemi di IA e i modelli su cui si basano dovranno soddisfare specifici requisiti di trasparenza e dovranno sottostare alle norme UE sul diritto d’autore durante le fasi di addestramento dei vari modelli. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno osservare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti. Le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”) dovranno essere etichettati come tali in modo molto chiaro.
Infine, sono previste misure a sostegno dell’innovazione e delle PMI. I Paesi dell’UE saranno tenuti a istituire e a rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (in inglese sandbox), così che PMI e start-up siano nelle condizioni di sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato.
Fin dal suo nascere, questa legge è stata definita “storica”, in quanto chiamata a regolare l’utilizzo di algoritmi d’intelligenza artificiale (IA) all’interno dell’Unione Europea. Lo scorso 13.03.2024 la legge è stata approvata con 588 voti favorevoli, 56 contrari e 38 astenuti.
Essa mira a garantire uno sviluppo responsabile e sicuro dell’IA, vista l’estrema velocità di evoluzione che caratterizza le sue applicazioni. L’intento dei legislatori è quello di definire un quadro normativo chiaro, che stabilisca diverse categorie di rischio per i sistemi di intelligenza artificiale, a seconda del loro possibile impatto sulla sicurezza e sui diritti delle persone. Vediamo alcuni di questi rischi. Saranno vietati:
l i sistemi di categorizzatone biometrica, basati sull’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale;
l i sistemi di riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole;
l i sistemi di credito social e le pratiche di polizia predittiva (qualora siano basate solo sulla profilazione o sulla valutazione delle caratteristiche di una persona);
l i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità degli individui.
Ci saranno anche alcuni settori specifici (ad esempio della sicurezza nazionale), che saranno esentati da una parte dei controlli. Per esempio, se in linea di principio le forze dell’ordine non devono fare ricorso ai sistemi di identificazione biometrica, potranno farlo in alcune situazioni ben determinate, previste dalla legge. L’identificazione “in tempo reale” potrà essere utilizzata solo se verranno rispettate alcune garanzie, come l’uso limitato nel tempo e nello spazio e la presenza di un’autorizzazione giudiziaria o amministrativa.
Altri usi ammessi includeranno, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. In linea di principio, l’adozione di questi sistemi a posteriori è considerato molto rischioso. Per potervi fare ricorso, l’autorizzazione giudiziaria dovrà quindi essere connessa a un reato.
Vengono poi definiti obblighi precisi per l’utilizzo dell’IA nei sistemi ad alto rischio. Appartengono a questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.) alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni). Per questi sistemi la legge stabilirà l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti, molto accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di IA e a ottenere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che hanno un impatto sui loro diritti.
Vi sono previsti anche obblighi di trasparenza e misure di sostegno. Parlando di finalità generali, i sistemi di IA e i modelli su cui si basano dovranno soddisfare specifici requisiti di trasparenza e dovranno sottostare alle norme UE sul diritto d’autore durante le fasi di addestramento dei vari modelli. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno osservare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti. Le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”) dovranno essere etichettati come tali in modo molto chiaro.
Infine, sono previste misure a sostegno dell’innovazione e delle PMI. I Paesi dell’UE saranno tenuti a istituire e a rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (in inglese sandbox), così che PMI e start-up siano nelle condizioni di sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato.
Foto: archivio Qdpnews.it
Autore: Luca Leoni – Sistema Ratio Centro Studi Castelli