{"id":58762,"date":"2024-05-01T19:15:18","date_gmt":"2024-05-01T17:15:18","guid":{"rendered":"https:\/\/blogs.dlapiper.com\/iptitaly\/?p=58762"},"modified":"2024-05-01T19:15:18","modified_gmt":"2024-05-01T17:15:18","slug":"il-disegno-di-legge-italiano-sullintelligenza-artificiale-i-temi-principali","status":"publish","type":"post","link":"https:\/\/blogs.dlapiper.com\/iptitaly\/2024\/05\/il-disegno-di-legge-italiano-sullintelligenza-artificiale-i-temi-principali\/","title":{"rendered":"Il disegno di legge italiano sull\u2019intelligenza artificiale: i temi principali"},"content":{"rendered":"\n<p><em>di Giacomo Lusardi e Alessandra Faranda<\/em><\/p>\n\n\n\n<p>Lo scorso 23 aprile il Consiglio dei Ministri ha varato un disegno di legge (DDL) volto a introdurre <strong>disposizioni nazionali <\/strong>in materia di Intelligenza Artificiale (IA), anche tramite delega al Governo. L\u2019obiettivo primario \u00e8 di stabilire criteri normativi in grado di bilanciare le <strong>opportunit\u00e0<\/strong> offerte dalle nuove tecnologie con i <strong>rischi<\/strong> associati a un uso improprio e dannoso, ad <strong>integrazione e specificazione<\/strong> di quanto gi\u00e0 previsto dal <strong>Regolamento europeo sull\u2019Intelligenza Artificiale<\/strong> (\u201cAI Act\u201d) approvato lo scorso marzo.<\/p>\n\n\n\n<p>Il DDL \u00e8 composto da <strong>cinque capi<\/strong>:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Principi e finalit\u00e0<\/li>\n\n\n\n<li>Disposizioni di settore<\/li>\n\n\n\n<li>Strategia nazionale, autorit\u00e0 nazionali e azioni di promozione<\/li>\n\n\n\n<li>Disposizioni a tutela degli utenti e in materia di diritto di autore<\/li>\n\n\n\n<li>Disposizioni penali<\/li>\n<\/ul>\n\n\n\n<p><strong><span style=\"text-decoration: underline\">I principi alla base del DDL e la tutela dei minori<\/span><\/strong><\/p>\n\n\n\n<p>Alla base del DDL vi sono il rispetto dei <strong>diritti fondamentali<\/strong> e delle libert\u00e0 individuali nell\u2019intero ciclo di vita dei sistemi di IA e <strong>alcuni principi generali<\/strong>. Tra questi, in linea con l\u2019AI Act, la <strong>trasparenza<\/strong>, la libert\u00e0 d\u2019informazione, la <strong>spiegabilit\u00e0<\/strong> e la conoscibilit\u00e0, il <strong>controllo umano<\/strong> (approccio c.d. <em>human in the loop<\/em>) e il potere decisionale dell\u2019uomo, la prevenzione del danno, la proporzionalit\u00e0, la <strong>sicurezza<\/strong>, la <strong>protezione dei dati personali<\/strong>, la <strong>non discriminazione<\/strong>, la parit\u00e0 dei sessi e la <strong>sostenibilit\u00e0<\/strong>. L\u2019approccio che deve guidare il legislatore nella predisposizione di misure adeguate all\u2019impiego dell\u2019IA \u00e8 dichiaratamente <strong>antropocentrico<\/strong>, di modo che i sistemi tecnologici siano a servizio dell\u2019attivit\u00e0 umana e non ne sostituiscano il valore essenziale in ogni possibile settore di impiego.<\/p>\n\n\n\n<p>Secondo il DDL l\u2019uso dell\u2019IA non deve pregiudicare la vita democratica del Paese e delle istituzioni, sottolineando l\u2019importanza della <strong>cybersicurezza<\/strong> lungo tutto il processo di sviluppo e utilizzo dei sistemi di IA. Il DDL riserva altres\u00ec particolare attenzione alla promozione dell\u2019IA nei <strong>settori produttivi<\/strong>, al fine di avviare e sostenere nuove attivit\u00e0 economiche e aumentare la competitivit\u00e0 nazionale, nel rispetto della concorrenza.<\/p>\n\n\n\n<p>Quanto ai <strong>minori<\/strong>, il DDL prevede che sopra i <strong>quattordici anni<\/strong> essi possano prestare il consenso per accedere ai sistemi di IA in autonomia, mentre al di sotto anni \u00e8 richiesta l&#8217;<strong>autorizzazione degli esercenti la potest\u00e0 genitoriale<\/strong>.<\/p>\n\n\n\n<p><strong><span style=\"text-decoration: underline\">Approccio verticale e disposizioni di settore: settore sanitario, lavoro e prestazioni intellettuali<\/span><\/strong><\/p>\n\n\n\n<p>Il DDL include poi alcune disposizioni volte a regolare l\u2019uso dell\u2019IA in determinati settori economici, nel tentativo di integrare le <strong>norme pi\u00f9 generali e trasversali dell\u2019AI Act<\/strong>.<\/p>\n\n\n\n<p>Uno dei settori principali in cui il DDL mira ad intervenire \u00e8 quello <strong>sanitario<\/strong>. In particolare, il testo evidenzia l\u2019importanza di un utilizzo etico e inclusivo dell\u2019IA in sanit\u00e0. Prevede il <strong>divieto di uso discriminatorio di sistemi di IA nell\u2019accesso alle prestazioni sanitarie <\/strong>e stabilisce <strong>l\u2019obbligo di un\u2019informazione trasparente ai pazienti<\/strong> sul loro utilizzo. Inoltre, chiarisce espressamente che i sistemi di IA in ambito sanitario costituiscono un <strong>supporto<\/strong> nei processi di prevenzione, diagnosi, cura e scelta terapeutica, ma che la responsabilit\u00e0 delle decisioni deve restare in capo ai professionisti sanitari.<\/p>\n\n\n\n<p>Tema controverso, che sta gi\u00e0 facendo discutere gli addetti ai lavori, \u00e8 poi <strong>l\u2019introduzione di semplificazioni per la sperimentazione dei sistemi di IA in ambito sanitario<\/strong>. In particolare, il DDL dichiara di <strong>rilevante interesse pubblico<\/strong> <strong>i trattamenti di dati<\/strong>, personali e non, svolti da <strong>soggetti pubblici e privati senza scopo di lucro<\/strong> per la <strong>ricerca e la sperimentazione scientifica nella realizzazione di sistemi di IA<\/strong> per finalit\u00e0 di prevenzione, diagnosi e cura di malattie, sviluppo di farmaci, terapie e tecnologie riabilitative, realizzazione di apparati medicali, incluse protesi e interfacce fra il corpo e strumenti di sostegno alle condizioni del paziente, di salute pubblica, incolumit\u00e0 della persona, salute e sicurezza sanitaria, in quanto <strong>necessari ai fini della realizzazione e dell\u2019utilizzazione di banche dati e modelli di base<\/strong>. Sul punto il DDL richiama l\u2019art. 32 della Costituzione in tema di tutela della salute e l&#8217;articolo 9, par. 2, lettera g), GDPR, individuando cos\u00ec la relativa <strong>base giuridica<\/strong> su cui fondare i trattamenti di dati personali in questione. Il DDL prevede anche che <strong>sia sempre autorizzato \u201c<em>l&#8217;uso secondario di dati personali privi degli elementi identificativi diretti<\/em>\u201d<\/strong>, anche ove rientranti in <strong>categorie particolari di dati<\/strong> (ad esempio, dati sanitari), da parte di soggetti pubblici e privati senza scopo di lucro e che, a tal fine, sia sufficiente un\u2019<strong>informativa generale <\/strong>pubblicata sul <strong>sito web<\/strong> del titolare del trattamento e <strong>non sia necessario richiedere un ulteriore consenso<\/strong> al trattamento. I trattamenti di dati personali in questione devono essere approvati dai <strong>comitati etici competenti<\/strong> e <strong>notificati al Garante Privacy<\/strong>, che pu\u00f2 bloccarli entro 30 giorni dalla notifica.<\/p>\n\n\n\n<p>Sempre il tema di sanit\u00e0, il DDL introduce disposizioni riguardanti il <strong>fascicolo sanitario elettronico<\/strong> e la gestione della <strong>sanit\u00e0 digitale<\/strong>. \u00c8 prevista, infatti, la creazione di una <strong>piattaforma di IA<\/strong> gestita dall&#8217;Agenzia nazionale per i servizi sanitari regionali (<strong>AGENAS<\/strong>), dedicata al supporto dei professionisti sanitari e degli utenti.<\/p>\n\n\n\n<p>Con il DDL il Governo propone anche un quadro normativo che incoraggi l\u2019uso dell\u2019IA per il <strong>miglioramento delle condizioni di lavoro<\/strong> e l\u2019aumento dell\u2019<strong>efficienza<\/strong> delle attivit\u00e0 lavorative e della <strong>produttivit\u00e0<\/strong>. Ci\u00f2 include la protezione dell\u2019integrit\u00e0 fisica e psichica dei lavoratori e il rispetto dei loro diritti garantiti dalla normativa nazionale ed europea. Per assicurare una corretta implementazione dell\u2019IA nel contesto lavorativo, il DDL prevede l\u2019istituzione dell\u2019<strong>Osservatorio sull\u2019adozione dei sistemi di intelligenza artificiale nel mondo del lavoro<\/strong>, con il compito di monitorarne l\u2019impatto sul mercato del lavoro, di identificare i settori pi\u00f9 influenzati dalla tecnologia e di promuovere la <strong>formazione costante<\/strong> dei lavoratori e dei datori di lavoro in tale ambito. Infine, il DDL impone a datori di lavoro e committenti <strong>l\u2019obbligo di informare i lavoratori<\/strong> dell\u2019utilizzo di sistemi di IA.<\/p>\n\n\n\n<p>Sulle <strong>professioni intellettuali<\/strong> il DDL prevede che l\u2019utilizzo dell\u2019IA sia consentito solo per lo svolgimento di <strong>attivit\u00e0 accessorie<\/strong> e di <strong>supporto<\/strong> all\u2019attivit\u00e0 principale. Inoltre, i professionisti devono <strong>tenere informati i propri clienti<\/strong> sull\u2019uso dei sistemi di IA, in maniera chiara e comprensibile.<\/p>\n\n\n\n<p>Quanto alle <strong>pubbliche amministrazioni<\/strong>, esse dovrebbero utilizzare l\u2019IA per migliorare l\u2019efficienza dei servizi offerti a cittadini ed imprese, coerentemente a quanto previsto dalla Strategia Italiana per l\u2019Intelligenza Artificiale 2024-2026. L\u2019IA deve restare uno strumento di <strong>supporto<\/strong>, ma potere decisionale e provvedimenti devono restare in capo alle persone.<\/p>\n\n\n\n<p>Per il <strong>contesto giudiziario <\/strong>il DDL stabilisce che l\u2019IA pu\u00f2 trovare spazio soltanto in un\u2019ottica di <strong>semplificazione del lavoro degli uffici giudiziari<\/strong> &nbsp;e di <strong>supporto nella ricerca<\/strong> giurisprudenziale e dottrinale. Anche in questo caso, seguendo il <em>fil rouge<\/em> dell\u2019intero DDL, l\u2019uomo rimane al centro: la decisione finale su questioni interpretative e giudiziarie deve sempre e comunque restare una prerogativa del magistrato.<\/p>\n\n\n\n<p><strong><span style=\"text-decoration: underline\">Strategia nazionale, investimenti e autorit\u00e0 nazionali per l\u2019intelligenza artificiale: l\u2019approccio italiano<\/span><\/strong><\/p>\n\n\n\n<p>La <strong>strategia nazionale sull\u2019IA<\/strong> promuove la <strong>collaborazione<\/strong> <strong>tra pubblica amministrazione e privati<\/strong> nello sviluppo e nell&#8217;adozione di sistemi di IA, coordina le attivit\u00e0 amministrative, favorisce la ricerca e la diffusione della conoscenza nel campo dell\u2019IA e guida misure e incentivi per lo sviluppo imprenditoriale e industriale. L\u2019elaborazione e l\u2019aggiornamento della strategia sono affidati alla Presidenza del Consiglio tramite il Dipartimento per la transazione digitale.<\/p>\n\n\n\n<p>Sul piano degli <strong>investimenti<\/strong> il DDL autorizza una spesa fino <strong>un miliardo di Euro<\/strong> per l\u2019assunzione di partecipazioni di <strong>PMI innovative<\/strong> con sede operativa in Italia, attive nei settori dell\u2019IA, della cybersicurezza, del calcolo quantistico, delle telecomunicazioni, del Web3 e altre tecnologie abilitanti, cos\u00ec come in <strong>altre imprese<\/strong> con potenziale per diventare campioni nazionali in questi ambiti.<\/p>\n\n\n\n<p>Quanto alle <strong>autorit\u00e0 nazionali per l\u2019IA ai fini dell\u2019AI Act<\/strong>, il DDL le individua nell\u2019<strong>Agenzia per l\u2019Italia Digitale (AgID)<\/strong> e nell\u2019<strong>Agenzia per la Cybersicurezza Nazionale (ACN)<\/strong>. Nello specifico, l\u2019AgID avr\u00e0 il ruolo di <strong>promuovere l\u2019innovazione e lo sviluppo dell\u2019IA<\/strong>, cos\u00ec come di definire ed esercitare le funzioni in materia di <strong>valutazione e monitoraggio<\/strong> dei sistemi. L\u2019ACN, oltre a garantire la tutela della cybersicurezza anche in relazione allo sviluppo dell\u2019IA, sar\u00e0 responsabile della <strong>vigilanza sui sistemi e delle attivit\u00e0 ispettive e sanzionatorie<\/strong>. Entrambe le Autorit\u00e0 dovranno coordinarsi e collaborare con altre pubbliche amministrazioni ed autorit\u00e0 indipendenti e, a tal fine, sar\u00e0 istituito un <strong>Comitato di Coordinamento<\/strong> presso la Presidenza del Consiglio dei Ministri.<\/p>\n\n\n\n<p>L\u2019approccio dell\u2019Italia, dunque, risulta diverso rispetto a quello adottato da altri Paesi. Non solo non \u00e8 prevista la creazione di un\u2019<strong>autorit\u00e0 specifica per l\u2019IA <\/strong>(come, ad esempio, l\u2019Agencia Espa\u00f1ola de Supervisi\u00f3n de la Inteligencia Artificial &#8211; AESIA), ma la scelta \u00e8 caduta su due <strong>autorit\u00e0 governative<\/strong> gi\u00e0 esistenti (AgID e ACN, appunto) e non su autorit\u00e0 indipendenti. Al riguardo, il <strong>Garante Privacy<\/strong> aveva chiesto al Governo di poter svolgere anche la funzione di autorit\u00e0 per l\u2019IA, sulla base della stretta interrelazione tra IA e protezione dati e della competenza gi\u00e0 acquisita in materia di processo decisionale automatizzato.<\/p>\n\n\n\n<p><strong><span style=\"text-decoration: underline\">L\u2019identificazione dei contenuti generati da IAe il tema del diritto di autore<\/span><\/strong><\/p>\n\n\n\n<p>Il DDL prevede l\u2019introduzione di disposizioni riguardanti l\u2019<strong>identificazione dei contenuti<\/strong> testuali, fotografici, audiovisivi e radiofonici generati o modificati da sistemi di IA. In particolare, i <strong>fornitori di servizi audiovisivi e radiofonici<\/strong> che abbiano ottenuto il <strong>consenso dai relativi titolari dei diritti<\/strong> per generare contenuti, modificarli o alterarli tramite strumenti di IA, in modo da presentare come reali dati, fatti e informazioni che non lo sono, sono chiamati a identificare chiaramente i contenuti in questione, inserendo <strong>elementi o segni identificativi visibili e riconoscibili da parte degli utenti con l\u2019acronimo \u201cIA\u201d<\/strong>. L\u2019identificazione deve essere presente all\u2019inizio e alla fine delle trasmissioni e dei contenuti e <strong>non \u00e8 richiesta per contenuti creativi, satirici, artistici o fittizi<\/strong>, salvo pregiudizi ai diritti e alle libert\u00e0 di terzi. Inoltre, l\u2019<strong>AGCOM<\/strong> dovr\u00e0 promuovere forme di co-regolamentazione e di autoregolamentazione tramite <strong>codice di condotta<\/strong> sia con i fornitori di servizi di media audiovisivi e radiofonici sia con i fornitori di piattaforme per la condivisione di video<\/p>\n\n\n\n<p>Inoltre, tra le novit\u00e0 pi\u00f9 discusse del DDL vi \u00e8 la <strong>modifica di alcuni articoli della legge sul diritto d\u2019autore<\/strong> (633\/1941 e ss. mm.), a partire dall\u2019art. 1 sulle opere tutelabili (in corsivo le aggiunte): \u201cSono protette [\u2026] le opere dell\u2019ingegno <strong><em>umano<\/em><\/strong> di carattere creativo che appartengono alla letteratura, alla musica, alle arti figurative, all\u2019architettura, al teatro ed alla cinematografia, qualunque ne sia il modo o la forma d\u2019espressione<em>, <strong>anche laddove create con l\u2019ausilio di strumenti di intelligenza artificiale<\/strong>, <strong>purch\u00e9<\/strong> <strong>il contributo umano sia creativo, rilevante e dimostrabile<\/strong><\/em>\u201d. La proposta <strong>non esclude<\/strong> che opere generate con l\u2019ausilio di strumenti di IA possano essere tutelate dal diritto di autore, ma sembra <strong>innalzare la soglia di tutela<\/strong> poich\u00e9 oltre al gradiente di creativit\u00e0 normalmente richiesto per le opere dell\u2019ingegno e la sua dimostrabilit\u00e0, <strong>aggiunge il criterio della \u201crilevanza\u201d del contributo umano<\/strong> rispetto a quello della macchina. Valutazione da svolgere caso per caso.<\/p>\n\n\n\n<p>Sempre in tema di diritto di autore, il DDL precisa anche che alla riproduzione e all\u2019estrazione di opere o altri materiali attraverso modelli e sistemi di IA anche generativa, si applica <strong>l\u2019eccezione di <em>text and data mining<\/em> (TDM)<\/strong> di cui agli artt. 70-ter e 70-quater della legge sul diritto di autore.<\/p>\n\n\n\n<p><strong><span style=\"text-decoration: underline\">L\u2019inasprimento delle pene in caso di reati commessi con l\u2019ausilio dell\u2019IA<\/span><\/strong><\/p>\n\n\n\n<p>In ultimo, il DDL prevede una serie di misure volte a <strong>punire i reati commessi tramite l\u2019uso di sistemi di intelligenza artificiale in maniera pi\u00f9 severa<\/strong>. Anzitutto, una <strong>specifica aggravante<\/strong> per l\u2019uso di sistemi di IA: qualora l\u2019IA sia utilizzata in modo insidioso o ostacoli la difesa pubblica o privata, ovvero contribuisca ad aggravare le conseguenze di un reato, la pena \u00e8 aumentata. Inoltre, il testo stabilisce che la <strong>diffusione illecita di contenuti generati o manipolati dall\u2019IA<\/strong> per indurre in inganno sulla loro genuinit\u00e0 (come nel caso dei cosiddetti <strong><em>deepfake<\/em><\/strong>) sia punita con la reclusione da <strong>sei mesi a tre anni <\/strong>e da <strong>uno a cinque anni <\/strong>ove fosse causa di un danno ingiusto. Sono poi introdotte circostanze aggravanti speciali per punire reati in cui l\u2019uso dell\u2019IA abbia una elevata capacit\u00e0 di <strong>propagare l\u2019offesa<\/strong>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>di Giacomo Lusardi e Alessandra Faranda Lo scorso 23 aprile il Consiglio dei Ministri ha varato un disegno di legge (DDL) volto a introdurre disposizioni nazionali in materia di Intelligenza Artificiale (IA), anche tramite delega al Governo. L\u2019obiettivo primario \u00e8 di stabilire criteri normativi in grado di bilanciare le opportunit\u00e0 offerte dalle nuove tecnologie con [&hellip;]<\/p>\n","protected":false},"author":606,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_s2mail":"","site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[1],"tags":[],"class_list":["post-58762","post","type-post","status-publish","format-standard","hentry","category-general"],"_links":{"self":[{"href":"https:\/\/blogs.dlapiper.com\/iptitaly\/wp-json\/wp\/v2\/posts\/58762","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blogs.dlapiper.com\/iptitaly\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blogs.dlapiper.com\/iptitaly\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blogs.dlapiper.com\/iptitaly\/wp-json\/wp\/v2\/users\/606"}],"replies":[{"embeddable":true,"href":"https:\/\/blogs.dlapiper.com\/iptitaly\/wp-json\/wp\/v2\/comments?post=58762"}],"version-history":[{"count":0,"href":"https:\/\/blogs.dlapiper.com\/iptitaly\/wp-json\/wp\/v2\/posts\/58762\/revisions"}],"wp:attachment":[{"href":"https:\/\/blogs.dlapiper.com\/iptitaly\/wp-json\/wp\/v2\/media?parent=58762"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blogs.dlapiper.com\/iptitaly\/wp-json\/wp\/v2\/categories?post=58762"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blogs.dlapiper.com\/iptitaly\/wp-json\/wp\/v2\/tags?post=58762"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}