L’ Ai Act: la normativa europea in tema di intelligenza artificiale

di dott.ssa Fiorella Guidolin

La rapida evoluzione dell’intelligenza artificiale ha spinto l’Unione Europea ad introdurre un nuovo quadro giuridico volto al rafforzamento delle norme sull’utilizzo dei sistemi di IA, al fine di limitarne i rischi e prevenire gli eventuali danni.

Il Parlamento Europeo ha quindi dato il via libera all’Ai Act, un regolamento comunitario che introduce le nuove regole europee in tema di intelligenza artificiale.

Il percorso normativo, di cui APF ha dato atto nei precedenti numeri, è iniziato lo scorso 21 aprile 2021, con la proposta avanzata dalla Commissione Europea di una legge finalizzata alla regolamentazione dell’utilizzo dell’intelligenza artificiale. A seguire, nel dicembre 2022 anche il Consiglio dell’Unione europea ha assunto la sua posizione su questo tema, e ha voluto specificare come la normativa dell’Ai Act nasca dall’esigenza di assicurare che i sistemi di IA immessi all’interno del mercato dell’Unione europea “siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell’Unione europea”.

Il tema politicamente assai divisivo, ha per ora consentito l’approvazione del regolamento da parte delle commissioni del Parlamento Europeo Giustizia e Mercato Interno.

L’obiettivo del regolamento è molto ampio: garantire uno sviluppo etico dell’intelligenza artificiale all’interno del territorio degli Stati membri attraverso regole ispirate alla trasparenza e alla gestione del rischio, e volte a rafforzare le disposizioni relative alla qualità dei dati, alla supervisione umana e alla responsabilità.

Tramite l’Ai Act verranno anche affrontate le questioni etiche e le sfide di attuazione che coinvolgo vari settori, quali la sanità, l’istruzione, la finanza e l’energia.

È in previsione anche l’istituzione di un Comitato europeo per l’intelligenza artificiale, che dovrebbe supervisionare l’uniforme attuazione del regolamento in tutti gli Stati membri, emanando pareri e raccomandazioni indirizzate alle autorità nazionali.

La proposta normativa si basa su un sistema di classificazione volto a determinare il livello di rischio che una tecnologia di IA potrebbe rappresentare per la salute, la sicurezza e i diritti fondamentali delle persone.

Quattro le soglie di rischio individuate, così classificate: Inaccettabile, Alto, Limitato, Minimo.

Le tecnologie di IA dalle quali potrebbero scaturire rischi minimi e limitati, quali ad esempio i filtri antispam e i videogiochi, potranno essere utilizzati nel rispetto dei requisiti relativi agli obblighi di trasparenza previsti in tutti gli Stati membri dell’Unione europea.

Per quanto riguarda le intelligenze artificiali dalle quali potrebbe scaturire un rischio classificato come alto (tra cui si annoverano i veicoli automi e i dispositivi medici) verrà richiesto un rigido rispetto della normativa, test rigorosi e la produzione di adeguata documentazione in merito alla raccolta e alla conservazione dei dati.

Infine, i sistemi con rischio inaccettabile, tra i quali rientrano quelli di identificazione biometrica in tempo reale negli spazi pubblici, sono vietati (con poche eccezioni) e verranno inoltre applicate pesanti sanzioni all’azienda che li ha prodotti, con multe fino a 30 milioni di Euro o al 6% del reddito globale annuo.

Vengono ricompresi all’interno di questa classificazione anche i sistemi che impiegano tecniche subliminali o intenzionalmente manipolative, o che vengono usati per attribuire un punteggio sociale, ovverosia a classificare gli individui in base al loro stato socio-economico e al loro comportamento.

Rimangono esclusi dall’ambito di applicazione dell’Ai Act, e quindi dal divieto, i sistemi aventi finalità militari, di difesa e di sicurezza nazionale.

In particolare, il Parlamento è apparso assai diviso sul tema del riconoscimento facciale nei luoghi pubblici da parte di intelligenze artificiali: le tesi contrarie sostengono che si tratti di sistemi di sorveglianza totale decisamente troppo invasive; dall’altro lato, le tesi favorevoli ritengono che lo sviluppo di questi sistemi possa incentivare la prevenzione dei crimini e la salvaguardia della sicurezza nazionale.

In attesa del voto in plenaria previsto per metà giugno 2023, per ora l’Ai Act inserisce il riconoscimento facciale nei luoghi pubblici tra le pratiche di intelligenza artificiale che dovrebbero essere vietate; nel testo della prima bozza, invece, questa pratica era ancora tollerata “ai fini di attività di contrasto al crimine”.

Nella nuova bozza sono state inserite delle eccezioni: sarà consentito l’utilizzo della c.d. videosorveglianza invasiva, con l’analisi dei video registrati, per indagare su un “reato grave” già commesso e comunque solo dopo apposita autorizzazione rilasciata dalla magistratura.

Viene invece vietato il riconoscimento facciale in tempo reale, che si appresta ad essere potenzialmente lesivo dei diritti e delle libertà dei cittadini, creando una percezione distopica di perenne sorveglianza.

L’attuale testo dell’Ai Act intende proibire anche il “riconoscimento delle emozioni” e i sistemi di “polizia predittiva”.

Oltre al riconoscimento facciale, il dibattito si è concentrato sui modelli generativi di contenuti: il discusso ChatGPT di OpenAI non rientra nei sistemi classificati ad alto rischio, ma la proposta di legge delinea anche le norme relative alla c.d. “IA per finalità generali”, ovvero ai sistemi che possono essere utilizzati per diversi scopi e con vari gradi di rischio, tra cui rientrano quelli di IA generativa basati su modelli linguistici di grandi dimensioni.

È stato proprio l’avvento della IA generativa, le cui potenzialità e rischi interessano ogni ambito, a dare l’accelerazione alla bozza di legge.

D’ora in poi i modelli generativi di contenuti dovranno rispettare requisiti di trasparenza, dovranno riportare che il contenuto è stato generato dall’intelligenza artificiale ed il modello dovrà essere progettato per impedire che possa essere veicolo di contenuti illegali. Andranno poi riepilogati i dati protetti da copyright utilizzati per la formazione.

A seguito del voto espresso dal Parlamento europeo sull’Ai Act, Mher Hakobyan, consulente per la tutela dei diritti umani presso Amnesty International, ha espresso la sua soddisfazione dichiarando che: “Oggi il Parlamento europeo ha inviato un potente segnale sui diritti umani, votando a favore del divieto di diverse pratiche basate sull’intelligenza artificiale che, violando i diritti umani, devono essere messe al centro di questa legislazione storica”.

Rimangono, tuttavia, alcune non marginali preoccupazioni: sebbene il testo approvato limiti le esportazioni dall’Unione Europea dei sistemi di IA considerati a rischio inaccettabile per i diritti umani, i fornitori potrebbero comunque eludere la legge, qualora le loro tecnologie ad alto rischio fossero sviluppate esclusivamente per l’esportazione.

Secondo Mher Hakobyan, l’Ai Act presenta comunque aspetti di criticità: non vieta i sistemi di profilazione discriminatori che segnalano le persone in movimento come “rischiose” e i sistemi di previsione usati per intercettare, limitare e prevenire le migrazioni, nonostante la richiesta di Amnesty International e di altri attori della società civile di proibire queste tecnologie.

Pertanto, Amnesty international ha formalmente invitato l’Unione europea a rispettare i suoi impegni in base al diritto internazionale e quindi a garantire una trasparenza significativa e un accertamento delle responsabilità sull’utilizzo e l’esportazione dei sistemi di intelligenza artificiale e sulle loro implicazioni per i diritti umani.

Inoltre, è fondamentale che “garantisca alle persone interessate il potere di accedere in modo equo alle tecnologie e di richiedere riparazione e compensazione in caso di danni”.

Ok
Questo website usa solamente cookies tecnici per il suo funzionamento. Maggiori dettagli