Il primo trattato internazionale sull’intelligenza artificiale: cosa prevede la convenzione quadro del Consiglio d’Europa

di Giacomo Lusardi e Alessandra Faranda

L’impegno per una governance responsabile dell’IA

Obiettivo primario della Convenzione quadro è garantire che il potenziale delle tecnologie di intelligenza artificiale (IA) sia sfruttato in modo responsabile, rispettando, proteggendo e realizzando i valori condivisi dalla comunità internazionale, i diritti umani, la democrazia e lo Stato di diritto. I sistemi di IA offrono opportunità mai viste prima, ma allo stesso tempo presentano rischi e pericoli quali la discriminazione, la disuguaglianza di genere, la compromissione dei processi democratici, la lesione della dignità umana o dell’autonomia individuale o, ancora, l’uso improprio da parte degli Stati a fini repressivi.

Le previsioni della Convenzione sono incentrate sul concetto di “ciclo di vita” dei sistemi di IA, che ne sintetizza le diverse fasi, dalla concezione e progettazione fino alla dismissione. Concetto che è anche alla base del Regolamento Europeo sull’intelligenza artificiale (AI Act) con riferimento, tra l’altro, agli obblighi di trasparenza e di adozione del sistema di gestione dei rischi.

Sotto il profilo oggettivo, la convenzione non si propone di regolamentare tutte le attività rientranti nel ciclo di vita dei sistemi di IA, ma soltanto quelle in grado di interferire con i diritti umani, la democrazia e lo stato di diritto. È peculiare, quindi, l’approccio del Consiglio d’Europa che, a differenza dell’AI Act, non fa coincidere il proprio ambito di applicazione oggettivo con specifici modelli, sistemi o pratiche di IA, bensì con le singole attività facenti parte del ciclo di vita dell’IA e sull’impatto che esse possono avere anche a prescindere dal rischio che il sistema presenta nel suo complesso.

Principi generali relativi alle attività nel ciclo di vita dei sistemi di IA

Dopo un primo e un secondo capitolo su, rispettivamente, previsioni e obblighi generali, il terzo capitolo della Convenzione stabilisce una serie di principi generali da attuare in conformità agli ordinamenti giuridici nazionali. Essi sono volutamente formulati con un livello elevato di generalità, così da poter essere applicati in modo flessibile in una varietà di contesti in rapida evoluzione.

Quanto alla supervisione, essa si riferisce a vari meccanismi e processi per monitorare e guidare le attività del ciclo di vita dei sistemi di IA: secondo il testo della Convenzione si potrebbe trattare di framework giuridici, politici e normativi, di raccomandazioni, linee guida, codici di condotta, programmi di audit e certificazione, di strumenti di individuazione degli errori, o di un coinvolgimento di autorità di vigilanza.

La Convenzione si articola, poi, su altri quattro principi altrettanto importanti: eguaglianza e non discriminazione, rispetto al quale il testo elenca una serie di riferimenti normativi da considerare e i vari pregiudizi (bias) che potrebbero caratterizzare i sistemi di IA, tutela dei dati personali, affidabilità sulla base distandard tecniciemisure in chiave di robustezza, accuratezza, integrità dei dati e cybersicurezza, e, infine, innovazione sicura in ambienti controllati (ad esempio, sandbox regolamentari).

Sotto il profilo dei rimedi, la Convenzione richiede alle parti di applicare i propri regimi normativi esistenti alle attività che caratterizzano il ciclo di vita dei sistemi di IA. Per rendere efficaci i rimedi in questione, essa prevede l’adozione o il mantenimento di misure specifiche volte a documentare e rendere disponibili determinate informazioni alle persone interessate, ma anche ad assicurare l’effettiva possibilità di presentare reclamo alle autorità competenti.

Rispetto alle garanzie procedurali la Convenzione prevede che i soggetti che interagiscono con i sistemi di IA siano informati proprio del fatto che stanno interagendo con un sistema di IA e non con un essere umano.

Vi è poi una disposizione inerente alla necessità di identificare, valutare, prevenire e mitigare ex ante e, se del caso, in modo iterativo per tutto il ciclo di vita del sistema di IA, i rischi e gli impatti potenziali rilevanti per i diritti umani, la democrazia e lo Stato di diritto, sviluppando un sistema di gestione dei rischi sulla base di criteri concreti e oggettivi. La Convenzione impone anche alle parti di valutare la necessità di moratorie, divieti o altre misure appropriate per quanto riguarda i sistemi di IA incompatibili con il rispetto dei diritti umani, della democrazia e dello Stato di diritto, lasciando libertà alle parti nella definizione del concetto di incompatibilità così come sugli scenari che richiedano le misure in questione.

Implementazione, effetti ed entrata in vigore della Convenzione

Quanto all’implementazione della Convenzione, essa impone di tenere in debita considerazione le esigenze e le vulnerabilità specifiche riguardanti le persone affette da disabilità e i minori, nonché di promuovere l’alfabetizzazione digitale per tutti i segmenti della popolazione.

Le parti della Convenzione sono libere di applicare precedenti accordi o trattati relativi al ciclo di vita dei sistemi di IA coperti dalla Convenzione, ma devono attenersi agli obiettivi e alle finalità della stessa, senza assumere obblighi in contrasto.