Legislatura 19ª - Aula - Resoconto stenografico della seduta n. 342 del 17/09/2025
Azioni disponibili
Discussione e approvazione del disegno di legge:
(1146-B) Disposizioni e deleghe al Governo in materia di intelligenza artificiale (Approvato dal Senato e modificato dalla Camera dei deputati) (Collegato alla manovra finanziaria) (Votazione finale qualificata, ai sensi dell'articolo 120, comma 3, del Regolamento) (Relazione orale) (ore 16,36)
PRESIDENTE. L'ordine del giorno reca la discussione del disegno di legge n. 1146-B, già approvato dal Senato e modificato dalla Camera dei deputati.
Ricordo che, ai sensi dell'articolo 104 del Regolamento, oggetto della discussione e delle deliberazioni saranno soltanto le modificazioni apportate dalla Camera dei deputati, salvo la votazione finale.
Il relatore, senatore Rosa, e il relatore facente funzioni, senatore Mazzella, hanno chiesto l'autorizzazione a svolgere la relazione orale. Non facendosi osservazioni, la richiesta si intende accolta.
Pertanto, ha facoltà di parlare il relatore, senatore Rosa.
ROSA, relatore. Signor Presidente, onorevoli colleghi, esponenti del Governo, il disegno di legge già approvato al Senato con modifiche torna dalla Camera con ulteriori miglioramenti. La tutela dei diritti fondamentali dell'uomo rappresenta il perno sul quale si sviluppa questo provvedimento. Se è vero come è vero che il progresso tecnologico può migliorare la vita, tale risultato è raggiungibile solo e nella misura in cui non danneggia gli aspetti fondamentali della vita stessa. Questo provvedimento è il punto di equilibrio tra un'opportunità di migliorare molti processi in ambito sanitario, finanziario e giuridico e una sfida, quella di mettere al centro l'uomo, le sue attitudini, le sue esigenze e i suoi diritti.
Le modifiche apportate alla Camera hanno rimarcato ancora di più le finalità di riequilibrio che la normativa italiana ha in materia di uso dei sistemi di intelligenza artificiale.
All'articolo 3 è stato posto quale ulteriore limite all'uso dei sistemi di intelligenza artificiale quello del "non inquinamento" del dibattito democratico, rispetto a interferenze illegittime, da chiunque provocate, nel rispetto della sovranità statale e dei diritti dei cittadini quali membri dello Stato.
All'articolo 4 è stato approvato l'emendamento che consente l'accesso all'uso di sistemi di intelligenza artificiale ai minori e il trattamento dei loro dati personali solo dietro consenso di chi esercita la potestà genitoriale.
All'articolo 5 è stato inserito il riferimento all'applicazione della robotica, nell'ambito della promozione dello sviluppo e dell'utilizzo dell'intelligenza artificiale come strumento per migliorare l'interazione uomo-macchina, nonché un riferimento specifico al tessuto nazionale produttivo, costituito principalmente da microimprese e da piccole e medie imprese.
All'articolo 6 è stata soppressa la previsione che i sistemi di intelligenza artificiale destinati all'uso in ambito pubblico debbano essere installati su server ubicati nel territorio nazionale.
All'articolo 8, nell'ambito della disciplina del trattamento dei dati, anche personali, eseguiti da soggetti pubblici e privati, senza scopo di lucro, per la ricerca e la sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale per finalità sanitarie, è stata soppressa la condizione che tali trattamenti siano approvati da comitati etici interessati.
All'articolo 12 è stata modificata la formulazione della clausola di invarianza finanziaria relativa all'istituzione dell'osservatorio sull'adozione di sistemi di intelligenza artificiale nel mondo del lavoro.
Riguardo all'articolo 16, è stato riformulato l'oggetto della disciplina di delega ivi prevista, relativo alla definizione di una disciplina organica relativa all'utilizzo di dati, algoritmi e metodi matematici per l'addestramento dei sistemi di intelligenza artificiale.
All'articolo 19, che stanzia fondi per la realizzazione di progetti sperimentali volti all'applicazione dell'intelligenza artificiale ai servizi forniti dal Ministero degli affari esteri e della cooperazione internazionale a cittadini e imprese, è prevista l'istituzione del comitato di coordinamento delle attività di indirizzo sugli enti, organismi e fondazioni che operano nel campo dell'innovazione digitale e dell'intelligenza artificiale. Tale comitato ha una funzione di coordinamento dell'azione di indirizzo e di promozione delle attività di ricerca, di sperimentazione, di sviluppo, di adozione e di applicazione di sistemi e modelli di intelligenza artificiale svolte da enti e organismi nazionali, pubblici e privati.
All'articolo 20, sulle autorità pubbliche con competenza in materia di intelligenza artificiale, l'AGI (Agenzia per l'Italia digitale) e l'ACN (Agenzia per la cybersicurezza nazionale), vengono fatte salve le competenze, i compiti e i poteri del Garante per la protezione dei dati personali e dell'Autorità per le garanzie nelle comunicazioni, quali il coordinamento dei servizi digitali, ai sensi dell'articolo 15 del decreto-legge n. 123 del 15 settembre 2023, convertito con modificazioni nella legge n. 159 del 13 novembre 2023.
Le modifiche apportate dalla Camera dei deputati sono dunque un miglioramento del testo sia sotto il profilo della maggiore garanzia di equilibrio tra processo tecnologico e salvaguardia dei diritti fondamentali, sia sotto quella spinta verso forme di cooperazione internazionale per rafforzare la loro competitività e promuovere un approccio alla governance digitale globale basato sulla centralità dell'uomo. Non dobbiamo sottacere, infatti, che solo politiche unitarie basate sulla giustizia sociale, l'equità, la trasparenza, la responsabilità e l'etica possono garantire l'effettività della tutela dell'uomo e dei suoi diritti, in un mondo, quello dell'intelligenza artificiale, che è ancora in evoluzione e che non ha confini geografici.
Dunque il disegno di legge «Disposizioni e deleghe al Governo in materia di intelligenza artificiale», in armonia con il regolamento europeo sull'intelligenza artificiale, rappresenta la base normativa per uno sviluppo dell'intelligenza artificiale che ponga sempre al centro l'uomo e i suoi diritti fondamentali. (Applausi).
PRESIDENTE. Il relatore facente funzioni, senatore Mazzella, rinuncia alla relazione e si rimette a quanto detto dal relatore Rosa.
Dichiaro aperta la discussione generale.
È iscritta a parlare la senatrice Camusso. Ne ha facoltà.
CAMUSSO (PD-IDP). Signor Presidente, colleghe e colleghi, Governo, abbiamo già avuto occasione di discutere in quest'Aula della straordinaria importanza di affrontare i temi dell'innovazione digitale, in particolare dell'intelligenza artificiale e degli effetti di tutto questo. Già nella precedente lettura abbiamo espresso la nostra preoccupazione per il modo in cui si è affrontata questa discussione, soprattutto perché il risultato appare più un'occasione persa che non un effettivo investimento nella prospettiva futura.
Per quali ragioni? Se ne possono trovare molte, anche tra le cose che sono state riportate dal relatore, ma proverei a partire da questa: il digitale è una tecnologia assolutamente pervasiva. Lo sappiamo dal punto di vista del suo coinvolgimento nella nostra vita quotidiana, lo sappiamo perché cambia i metodi di lavoro, perché cambia il rapporto con i diritti fondamentali (pensiamo alla giustizia, alla sanità e a tutti i settori ai quali si può applicare). Come sempre, quando si fanno questi ragionamenti, bisogna ricordarsi che tutte queste cose sono garantite non solo dall'esistenza di una tecnologia, ma dal fatto che poi ci sono dei lavoratori e delle lavoratrici che si occupano materialmente di tutto questo.
Allora, se l'Italia, come deve e come dovrebbe, vuole affrontare il suo processo di innovazione e non perdere questa occasione, un primo elemento da affrontare sarebbe il tema degli investimenti e come si spingono.
L'ultimo rapporto sulla produttività del CNEL ci informa che solo il 4,7 per cento delle imprese italiane con oltre 10 dipendenti, quindi di una parte delle imprese italiane, investe in intelligenza artificiale. Se si guardano meglio quei dati, ci viene anche detto che di quegli investimenti il 27,7 per cento è concentrato nelle imprese con oltre 250 dipendenti. Ci dice inoltre che nelle intenzioni delle imprese, per i prossimi due anni, solo il 19,5 per cento intende investire in intelligenza artificiale. Se osserviamo il dato relativo alle imprese fino a 50 dipendenti, le più diffuse nel nostro Paese, solo il 16,9 lo farà, mentre ad investire sarà il 60,5 delle imprese con oltre 250 dipendenti. Questo vuol dire che siamo un Paese in assoluto ritardo, che non ha gli strumenti e il coinvolgimento del sistema delle imprese.
Perché succede questo? Probabilmente per tante ragioni, ma sicuramente per una in particolare: la discussione sull'intelligenza artificiale avrebbe dovuto affrontare - e non lo ha fatto - un tema che si chiama formazione. Da quando abbiamo iniziato la discussione ad oggi, se possibile, il tema dell'informazione e della formazione della manodopera, dei lavoratori e delle lavoratrici, diventa sempre più fondamentale, anche per una ragione. I dati sul mercato del lavoro ci dicono che si consolida una crescita dell'occupazione degli over cinquantenni e tende a non essere altrettanto vivace il mercato del lavoro per i più giovani. Noi facciamo spesso una discussione, anche strumentale, rispetto alla necessità che l'istruzione primaria e secondaria sia molto forzata rispetto ai destini professionali, ma non ci occupiamo e ignoriamo quello che succede ai lavoratori che sono già al lavoro e che, per la banale ragione dell'età, sono prevalentemente analogici e non digitali. Le tecnologie digitali, a differenza di altre, hanno bisogno di una conoscenza del contesto e di cosa determinano in rapporto al modello di produzione e agli andamenti della produzione e se non si costruisce un processo di alfabetizzazione di base, lo stesso investimento in mezzi di intelligenza artificiale, di robotica o altri avrà una scarsissima efficacia dal punto di vista dell'effettiva innovazione dei processi.
Torniamo ai numeri: solo il 25,9 per cento delle imprese italiane investe in formazione a carattere di innovazione tecnologica e digitale e il 70 per cento di queste sono imprese con oltre 250 dipendenti. Se guardiamo alle tendenze dei prossimi due anni, sarà il 44,3 per cento delle imprese, l'81,5 per cento delle quali sarà però con oltre 250 dipendenti. Credo che sia assolutamente evidente che, se non si scioglie tale questione, facciamo un grande investimento intellettuale, ma non cambiamo la condizione di base e continueremo a portare avanti una discussione sull'intelligenza artificiale del tutto superficiale, perché non si utilizzano strumenti che permetterebbero a tale tecnologia di venire effettivamente utilizzata nel mondo del lavoro, permettendo un miglioramento e - come giustamente veniva ricordato dal relatore - ponendo una grande attenzione ai diritti umani. Anche il lavoro fa parte dei diritti umani.
Bisogna quindi tornare su alcune osservazioni che avevamo fatto e che continuano a essere le grandi assenti. Le tecnologie potrebbero essere uno straordinario strumento di prevenzione per la sicurezza sul lavoro. Non ce n'è cenno, non ci sono risorse, non si vogliono legare questi due ragionamenti. Sono una questione fondamentale per fare in modo che il lavoro creativo non diventi semplicemente subalterno all'intelligenza artificiale, ma venga valorizzato a partire dal diritto d'autore.
Infine, se non ci si occupa del modo in cui l'intelligenza artificiale entra nei processi lavorativi, non si affronta un aspetto fondamentale e noi siamo stati tutti molto attenti nella discussione relativa a quanto l'utilizzo dei dati può essere discriminatorio o meno e gli output possono determinare discriminazioni o meno.
Questo vale però - e vale moltissimo - per il lavoro e vale ancor di più per il lavoro perché, come tutti dovremmo sapere, ma spesso ce ne dimentichiamo, il rapporto che c'è tra un lavoratore e un'azienda e il rapporto che c'è tra un lavoratore e il suo datore di lavoro sono in realtà un rapporto di potere dato dal conoscere o non conoscere in che contesto si è e quali cose si fanno. Se non si interviene da questo punto di vista, potremmo anche dire di difendere i diritti umani, ma fondamentalmente non difenderemmo nemmeno la libertà del lavoro. (Applausi).
PRESIDENTE. È iscritto a parlare il senatore Spagnolli. Ne ha facoltà.
SPAGNOLLI (Aut (SVP-PATT, Cb)). Signor Presidente, forse qualcuno non se n'è accorto, ma stiamo vivendo la seconda più grande rivoluzione della civiltà umana con riferimento alla gestione della conoscenza. Circa 2.500 anni fa ci fu la prima, con la diffusione della scrittura come strumento di conservazione delle informazioni, che prima venivano tutte tramandate solo oralmente.
Credo che oggi sia interessante riflettere sulle considerazioni di Platone, il più grande pensatore di quell'epoca, che approfondì il tema. Platone preferiva l'insegnamento orale e dialettico rispetto alla scrittura, che considerava un'apparenza di sapienza e un potenziale ostacolo alla vera conoscenza, paragonandola a immagini mute passive. Platone criticava la scrittura perché indebolisce la memoria, rende le persone dipendenti da strumenti esterni, indebolendo le capacità mnemoniche e intellettuali; perché può finire nelle mani sbagliate, venendo fraintesa e diffondendo un sapere superficiale e non la vera saggezza; perché è pedagogicamente inefficace, in quanto non può imprimersi nell'anima dello studente, come invece l'oralità viva e il dialogo. Platone lasciò peraltro in eredità alla cultura mondiale i suoi dialoghi scritti, in quanto strumenti di formazione che aiutano il lettore a sviluppare il pensiero critico, combinando filosofia, retorica e mito. In ogni caso, le verità più profonde ed essenziali erano riservate da lui all'insegnamento orale all'interno della sua scuola.
In uno dei più celebri tra i suoi dialoghi, il «Fedro», Platone, tramite Socrate, espone la sua critica sulla scrittura. Ne leggo, per sommi capi, un passaggio nella parte in cui Socrate racconta a Fedro il famoso mito di Theuth: ho udito narrare che presso Naucrati, in Egitto, c'era uno degli antichi dei al quale era sacro l'uccello chiamato Ibis, il suo nome era Theuth. Dicono che per primo egli abbia scoperto i numeri, il calcolo, la geometria, l'astrologia e anche il gioco del tavoliere - forse si parla degli scacchi o dei dadi - e infine anche la scrittura. In quel tempo, re di tutto l'Egitto era Thamus; egli aveva la residenza legale nella grande città dell'Alto Nilo che i greci chiamano Tebe egizia. Theuth andò da Thamus e gli mostrò tutte queste sue arti e gli disse che bisognava insegnarle agli egizi. Il re gli domandò quale fosse l'utilità di ciascuna di quelle arti e il dio gliele illustrò. Quando giunse alla scrittura, Theuth disse: questa conoscenza, oh re, renderà gli egizi più sapienti e più capaci di ricordare, perché con essa è stato trovato il farmaco della memoria e della sapienza. Ma il re rispose: oh ingegnosissimo Theuth, c'è chi è capace di inventare e creare le arti e chi è capace, invece, di giudicare quale danno o quale vantaggio ne ricaveranno coloro che le adotteranno. Essendo tu il padre della scrittura, per amore di essa hai detto proprio il contrario di ciò che essa è. Infatti, la scoperta della scrittura avrà per effetto di produrre la dimenticanza nell'anima di chi la imparerà, perché, fidandosi della scrittura, si abituerà ricordare dal di fuori, mediante segni estranei, e non dal di dentro e da sé medesimo. Dunque, tu hai trovato non il farmaco della memoria, ma il farmaco del richiamare alla memoria. Della sapienza, poi, tu procuri ai tuoi discepoli solo l'apparenza; infatti, divenendo per mezzo tuo uditori di molte cose senza insegnamento, essi crederanno di essere conoscitori di quelle cose, ma in realtà non le sapranno e sarà difficile discorrere con loro, perché saranno diventati conoscitori di opinioni, ma non sapienti.
Secondo Platone, quindi, la scrittura non serve per creare memoria, ma è un mezzo, uno strumento per richiamare alla memoria in chi già sa le cose che lo scritto contiene. La memoria si forma e si amplia solo nella dimensione dell'oralità; la scrittura richiama alla memoria cose già memorizzate. È un promemoria.
Con il tempo la scrittura è diventata uno strumento di conservazione di informazioni sui più diversi supporti: dalle tavolette al papiro, alla carta fino ai supporti magnetici e digitali, ma sempre e solo per conservare le informazioni. Questo con l'effetto, però, come paventava Platone, di far venir meno in tanti individui la capacità di ricordare nel proprio di dentro.
Oggi, con l'intelligenza artificiale, l'uomo si abituerà non solo a non più ricordare, ma anche a non più elaborare riflessioni sulla base di conoscenze dal di fuori, perché una macchina produrrà per lui le riflessioni che finora ciascuno faceva nel proprio di dentro, facendo in tal modo degenerare quella componente umanistica dell'essere umano che però, guarda caso, è sempre più richiesta ai candidati nelle selezioni per attività dirigenziali o anche tecniche specialistiche.
Vi è il rischio di indurre gli esseri umani a trasformarsi in individui non pensanti. È evidente che non si può fermare il progresso, signor Presidente, ma sarebbe fondamentale sapere quali possono essere i problemi che ne conseguono e prepararsi a risolverli. Certamente, chi ha inventato l'intelligenza artificiale non se ne preoccupa, come fece Theuth con la scrittura.
Cosa prevede questo disegno di legge in questo senso? Ben poco, direi, anche se recepisce fedelmente le indicazioni europee. Si tratta di un semplice compitino burocratico e nulla di più. Per non parlare di alcuni ambiti in cui l'intelligenza artificiale può creare veri e propri sconquassi a danno di moltitudini di cittadini, per esempio nell'implementazione che di essa vi sarà nei meccanismi della pubblica amministrazione, soprattutto locale, per cui non è stato previsto alcun finanziamento. In Francia, per fare un paragone, si investono decine di milioni di euro in quell'ambito.
Oppure, si pensi alle conseguenze nella formazione a tutela dei lavoratori e del lavoro, senza dimenticare la tutela dei diritti d'autore. L'intelligenza artificiale è già oggi in grado di comporre opere letterarie e musicali sottoposte al regime del diritto d'autore, riprendendo passaggi ed espressioni usate in scritti o musiche composte nel corso della storia della letteratura e della musica opportunamente rielaborate: un vero potenziale saccheggio di contenuti protetti.
Il presente disegno di legge non dice praticamente nulla rispetto a questi, che sono aspetti squisitamente politici. Sarebbe stato opportuno pensarci e ritengo che bisognerà farlo quanto prima. (Applausi).
PRESIDENTE. È iscritto a parlare il senatore Borghi Enrico. Ne ha facoltà.
BORGHI Enrico (IV-C-RE). Signor Presidente, oggi siamo chiamati a discutere e votare su un tema di grande rilevanza per l'oggi e per il domani. Per alcuni aspetti rischiamo, da un lato, di arrivare lunghi e, dall'altro, di essere eccessivamente omissivi.
Rischiamo di arrivare lunghi, perché stiamo discutendo di come introdurre un meccanismo di governance su un tema così importante, delicato e complesso come quello dell'intelligenza artificiale, quando abbiamo la consapevolezza che oggi la strumentazione e la dotazione tecnologica rischiano di essere superate mentre discutiamo.
Siamo arrivati all'era digitale venendo tutti dal concetto dell'analogico. Fra qualche anno, anche se non sappiamo esattamente la data, sostituiremo il digitale con il supercomputing, con la logica dell'ulteriore capacità di salto in avanti dal punto di vista dell'approccio quantistico ai dati.
Da questo punto di vista, avremmo bisogno non tanto di una legislazione occhiuta, puntuale e burocratica, quanto invece di un'impostazione di carattere generale, che abbia la forza di recepire nel nostro ordinamento le indicazioni che ci arrivano dall'Unione europea, compiendo anche una serie di coraggiosi interventi, che questo testo non porta con sé.
Penso che tutti i colleghi abbiano la consapevolezza dell'impatto della società dei big data e dell'intelligenza artificiale sulla vita quotidiana di ciascuno di noi: la politica, ma anche il giornalismo, l'insegnamento, le professioni liberali, le filiere industriali e la stessa gestione dei processi democratici sono destinati a mutare profondamente.
Basterebbe soltanto richiamare le dichiarazioni fatte al «New York Times» da un vincitore del Pulitzer come Thomas Friedman un paio d'anni fa, quando disse che con l'intelligenza artificiale stiamo per essere investiti da un tornado, oppure basta ricordare la scelta che ha fatto colui che è stato definito il padrino dell'intelligenza artificiale, Geoffrey Hinton.
Hinton, l'uomo che sviluppava, a nome e per conto di Google, queste tecnologie e queste tematiche, nel maggio 2023 ha lasciato Google per dedicarsi all'esigenza di approfondire i rischi di questo genere di tecnologia.
Tutto questo per dire che siamo davanti a una complessità rispetto alla quale non ce la possiamo cavare né con il minimalismo, che purtroppo vediamo emergere da questo testo, né certamente con una sorta di luddismo 4.0, che immagina di risolvere il problema chiudendosi all'interno di una dimensione che non tiene conto dell'approccio tecnologico. Non sarà facendo finta che l'intelligenza artificiale non ci sia che risolveremo il problema. Invece questa c'è e ha una capacità pervasiva che impone alla politica e alla legislazione un salto di qualità.
Sappiamo che le filosofie, gli approcci e il modo di lettura del cosiddetto dataismo, che ruota attorno ai temi dell'intelligenza artificiale dei big data e del supercomputing, immaginano che oramai le filosofie e gli stessi approcci scientifici debbano essere sostituiti, in quanto superflui, dalla logica dell'accumulazione, della gestione, del controllo e del dominio dei dati. È questo elemento che ha fatto dire a un attento filosofo come Byung-chul Han che i dataisti sognano una società che proceda interamente senza la politica. Ciò ci dovrebbe fare riflettere. L'idea che siano le macchine - e chi sta dietro ad esse, attraverso la gestione e l'elaborazione del controllo dei dati - a poter sostituire l'uomo, la persona, le sue idee e la sua soggettività non è una questione distopica (Applausi), ma è uno degli elementi che erano seduti al tavolo qualche giorno fa alla Casa bianca, con quei signori che dettavano le condizioni all'uomo che si presume essere il più potente della terra, mentre in realtà la sensazione è che sia l'uomo che recepisce le indicazioni dei nuovi oligarchi tecnofinanziari.
Signor Presidente, l'aspetto però che il testo al nostro esame non porta con sé e non affronta è anche l'approccio in materia di sicurezza. Colpisce infatti che all'articolo 6 di questo disegno di legge si escludano dall'ambito applicativo della disciplina le attività connesse ai sistemi e ai modelli di intelligenza artificiale condotte dagli organismi preposti alla sicurezza nazionale, alla cybersicurezza e alla difesa nazionale. Delle due l'una: i soggetti che sono preposti alla sicurezza nazionale non si devono occupare di intelligenza artificiale - e allora mi preoccuperei - oppure lo possono fare a prescindere dal testo del Parlamento, e allora mi preoccupo ancora di più.
Vorrei richiamare infatti un vertice che c'è stato a questo proposito a febbraio 2023 in Olanda, non a caso la terra del filosofo Grozio, che parlò dell'esigenza di far sposare l'intelligenza artificiale con il tema della responsabilità nel campo bellico. Infatti oggi, grazie a queste tecnologie, abbiamo macchine che possono funzionare senza la supervisione umana, che possono processare ampi volumi di dati a velocità impressionante e che addirittura possono guidare e dirigere attività belliche, di controllo e di comando. È quello che sta accadendo in Ucraina in queste ore. (Applausi). È una delle motivazioni per le quali quel teatro di guerra, considerate le tante complessità, imporrebbe una riflessione che noi qui non stiamo compiendo.
Qual è lo sbocco finale? È il secondo aspetto, signor Presidente, che ha richiamato nei giorni scorsi autorevolmente il ministro Crosetto, che, vista anche la performance del vicepremier Salvini di ieri con l'ambasciatore russo, vedo e sento essere sempre più vox clamantis in deserto. Il ministro Crosetto ha richiamato l'esigenza di combattere la disinformazione, la guerra ibrida e la guerra cognitiva che vengono condotte attraverso gli strumenti dell'intelligenza artificiale e l'ausilio di queste tecnologie. Noi di tutto questo non ci occupiamo.
La domanda è perché, signor Presidente: soltanto perché attorno a questi temi è in atto all'interno del Governo uno stucchevole balletto, che ormai va avanti da anni, fra la Presidenza del Consiglio e il Ministero della difesa e che si risolve a colpi di articoli 30 e 31 del decreto sicurezza infilati qua e là? Oppure c'è dell'altro? Se ci fosse dell'altro, noi vorremmo dire in questo contesto che ignorare le conseguenze della disinformazione e dell'impatto dell'intelligenza artificiale sulle nostre società ai fini della guerra ibrida, ai fini della guerra cognitiva, ai fini della cosiddetta information war significa lasciare campo libero a chi vuole distruggere la democrazia dal suo interno.
Tutti questi elementi non ci sono in questo testo ed è il motivo per il quale ovviamente voteremo contro. Non solo, ma ci sono alcuni ulteriori elementi abbastanza curiosi: affidiamo ancora una volta al Ministero delle imprese e del made in Italy la capacità di intervenire come soggetto investitore per fare gli investimenti nel nostro Paese in campo di intelligenza artificiale. Vogliamo far fare la fine di Industria 5.0 alla capacità del nostro Paese di adeguarsi all'intelligenza artificiale? (Applausi). Il punto non è ricorrere al centralismo e al dirigismo, ma è mettere in condizione le nostre imprese di competere su scala globale da questo punto di vista, ma di questo evidentemente non si può discutere.
Allo stesso modo, signor Presidente, preoccupa il fatto che si presuma di affrontare e governare questo settore dal punto di vista del codice penale, cioè da una parte si inaspriscono le pene - perché qua e là è sempre bello e non impegna per questo Governo usare l'inasprimento del codice penale - e dall'altra si utilizza la delega che questo Parlamento dovrebbe dare al Governo svuotando completamente da quel momento la discussione all'interno delle Aule per cambiare il codice penale e per cambiare il codice processuale con decreto legislativo.
Contemporaneamente, però, si ammette che l'autorità che dovrebbe essere preposta a tutto questo, cioè l'Agenzia per la cybersicurezza nazionale (ACN), deve poter intervenire soltanto in ambito NATO, cioè soltanto con i Paesi che fanno parte dell'Alleanza atlantica. Da una parte si fa finta di nulla, si guarda dall'altra parte fischiettando, dall'altra però ci si rende conto e si ammette che abbiamo un problema evidentissimo di sicurezza che naturalmente non potrà essere risolto dall'ACN, con le sue modalità di selezione del personale e nel modo con il quale porta avanti il percorso nel nostro Paese, e soprattutto non potrà essere risolto da un Governo che ancora una volta, da questo punto di vista, brilla quantomeno per ignavia, se non per intima contraddizione interna. (Applausi).
PRESIDENTE. È iscritto a parlare il senatore Lombardo. Ne ha facoltà.
LOMBARDO (Misto-Az-RE). Signor Presidente, onorevoli colleghi, gentili membri del Governo, alcuni di voi forse ricorderanno che due anni fa, proprio in quest'Aula del Parlamento, pronunciai il primo discorso fatto da un parlamentare italiano - poi scoprii anche europeo - interamente elaborato dall'intelligenza artificiale. Qualcuno di voi ricorderà che avevo scelto non un argomento tecnologico, non un argomento digitale, ma un argomento poco "sexy", ossia quello del diritto dei lavoratori transfrontalieri italo-svizzeri. Avevo fatto questa provocazione e avevo concluso chiedendo quanti dei colleghi in Aula sarebbero riusciti a distinguere un intervento elaborato dall'intelligenza umana da uno elaborato dall'intelligenza artificiale, se io non l'avessi dichiarato.
A distanza di due anni, qualche risposta a quella provocazione me la sono data. La prima è che sono sicuro di essere stato il primo ad aver copiato dall'intelligenza artificiale, ma sono sicuro di non essere stato l'ultimo, perché certamente altri colleghi l'avranno utilizzata e voi l'avrete utilizzata nelle vostre attività in questi due anni. La seconda è che einaudianamente si delibera su ciò che si conosce, ma io sono fortemente preoccupato che noi decisori politici conosciamo ciò che ci approcciamo a regolamentare.
Che cos'è successo in questi due anni? È successo che, oltre a ChatGPT, abbiamo scoperto l'esistenza di DeepSeek e abbiamo scoperto che c'è una competizione industriale enorme tra Stati Uniti, Cina, India e Arabia Saudita sull'intelligenza artificiale.
Noi cosa stiamo facendo? Ci ritroviamo con un disegno di legge che ritorna al Senato e non ha avuto nessuna possibilità di modifica alla Camera, che nasce vecchio, e ciò in primo luogo per un punto di vista culturale. Lo ripeto qui e speriamo che questa provocazione venga raccolta questa volta dalla politica: l'intelligenza artificiale non è una sfida da regolamentare, ma è una sfida da governare. Se noi in Europa e in Italia non superiamo l'approccio regolatorio, non ci rendiamo conto che questa non è la sfida del futuro, ma è la sfida della contemporaneità, del presente; non va regolamentata, ma va governata. Noi qui stiamo parlando di politica industriale.
Ve la racconto con le parole di un mio amico, che è una persona della quale ho molta stima e si occupa di queste cose, che si chiama Alec Ross. Alec Ross dice che se due giocatori in campo, Stati Uniti e Cina, giocano la sfida della competizione globale e l'Europa fa l'arbitro, quest'ultimo, per definizione, non vince mai. Se noi ci releghiamo al ruolo di arbitro, questa partita non la vinceremo mai, ma non la giocheremo neanche. Spero che questa domanda ognuno di noi, che ha un compito ben preciso di regolamentare, di decidere e di capire qual è la sfida di politica industriale, la stia raccogliendo. Illuderci che affronteremo il tema dell'intelligenza artificiale con un provvedimento, quando ne dovremmo parlare ogni giorno per le applicazioni che ha nell'agricoltura, nel mondo del lavoro, nell'economia, nella sicurezza, nella democrazia, significa che non siamo adeguati alla sfida che la contemporaneità ci pone.
In secondo luogo, che cos'è successo nel dibattito culturale sull'intelligenza artificiale nel nostro Paese? Stiamo parlando di intelligenza artificiale solo nella prospettiva dei rischi e non nella prospettiva delle opportunità. Noi stiamo dando ai nostri figli un messaggio diseducativo, perché stiamo togliendo loro l'illusione e la speranza che il progresso tecnologico possa essere utile. Rendiamoci conto, andate nelle classi e sentirete i ragazzi che parlano dell'intelligenza artificiale solo sotto la prospettiva dei rischi e non delle opportunità. Queste sono le nostre preoccupazioni, sono le nostre zavorre, che stiamo dando ai nostri giovani. Un ragazzo non si può permettere di non avere speranze, di non avere illusioni e di non avere sogni. Sono le nostre paure.
Allora perché non parliamo delle opportunità? Il senatore Magni lo sa perché è Presidente di una Commissione sulla sicurezza nei luoghi di lavoro, in cui abbiamo parlato spesso di queste cose con gli altri componenti, facendo anche un ragionamento molto interessante con il Politecnico. Ma è possibile che ancora oggi in Italia, nel 2025, l'unico strumento tramite il quale chi lavora nelle gallerie è informato dell'arrivo di un treno sia un telefono? Ma voi vi rendete conto di quali prospettive avremmo per applicare l'intelligenza artificiale per ridurre i rischi sulla sicurezza nei luoghi di lavoro? Perché non ne parliamo?
Nella sanità abbiamo una grande possibilità, attraverso il PNRR e la missione 6.2, di lavorare sulla medicina digitale. Il nostro sistema sanitario, con la longevità che abbiamo, è insostenibile per le spese, perché abbiamo malattie croniche. Abbiamo la possibilità di utilizzare l'intelligenza artificiale per fare analisi predittiva dei dati. Voi pensate veramente che possiamo gestire questa cosa affidando la responsabilità a delle agenzie governative? Se proprio la dovete affidare a qualcuno, va affidata ad autorità indipendenti, non a delle agenzie fatte e nominate dal Governo. (Applausi).
Mi soffermo inoltre sulla sfida della competizione e le poche risorse. Voi ci state dicendo che mettiamo in questo provvedimento un miliardo. Volete che vi diciamo grazie? La Cina sta investendo 200 miliardi in questa sfida, li sta moltiplicando per cinque e noi arriviamo nel 2025 a dire che un grande investimento è un miliardo? Ma l'abbiamo capito qual è il termine di competizione di questa sfida oppure no?
C'è un altro elemento che sfida la democrazia stessa. Non mi dilungherò, ma sono d'accordo con quello che veniva detto prima: ci sono delle sfide dell'intelligenza artificiale che riguardano gli algoritmi e la possibilità che gli algoritmi modifichino il libero convincimento delle persone. Noi abbiamo presentato una proposta di legge su questo che si chiama scudo democratico contro le ingerenze straniere, perché siamo consapevoli che l'intelligenza artificiale può essere utilizzata anche ai fini della guerra ibrida.
Ma solo a me preoccupa - scusate - che un Ministro della difesa dica che il nostro Paese è esposto a degli attacchi e che non si parli di questa cosa in Parlamento? Se ne deve parlare sui giornali? Io vorrei che fosse il Parlamento il luogo in cui si raccoglie la sfida dell'intelligenza artificiale per la difesa, che non è solo difesa militare, ma è la difesa della nostra democrazia.
C'è però un tema che tocca plasticamente questa discussione, per definire perché il Parlamento e il Governo non si stanno dimostrando adeguati a questa sfida. Questo provvedimento è del 2024 e nel 2025 ritorna nell'Aula del Senato per un errore; in due anni l'intelligenza artificiale è progredita in una misura tale per cui molte delle cose previste in questa disposizione sono già vecchie. Quello che si chiede al Governo e quello che si chiede al Parlamento non è di legiferare su dei principi. Quello che vi stanno chiedendo gli operatori è di fare i decreti attuativi: se ci impiegate due anni a modificare i principi, i decreti attuativi quando li volete fare? Lo capite che ci sono degli operatori che stanno aspettando questi decreti attuativi per capire se l'intelligenza artificiale la possono applicare o meno?
Ecco perché, se dovessi tornare indietro rispetto a quella provocazione, la risposta che dovrei dare è amara, perché il Parlamento e noi decisori politici stiamo dimostrando che al tempo eravamo inadeguati perché non conoscevamo il fenomeno, mentre oggi siamo inadeguati perché pensiamo di regolamentarlo a livello nazionale senza aver capito il peso etico, morale, economico e industriale che la sfida dell'intelligenza artificiale ci porrà davanti ogni giorno nelle attività che dobbiamo svolgere.
Mi dispiace che il Governo abbia perso l'occasione di dire che questa era un'occasione per discutere su cosa vogliamo che il nostro Paese sia all'interno della sfida dell'intelligenza artificiale. I dati sono il petrolio della nostra economia. Capire come utilizzarli, capire chi li controlla, capire come poterli governare a fini utili e positivi era la nostra sfida e in questa sfida il Governo si sta dimostrando inadeguato. (Applausi).
PRESIDENTE. È iscritto a parlare il senatore Mazzella. Ne ha facoltà.
MAZZELLA (M5S). Signor Presidente, onorevoli colleghi, Governo, l'innovazione tecnologica sta trasformando profondamente le nostre società, e le sta trasformando in modo velocissimo. Al centro di questa rivoluzione ovviamente c'è l'intelligenza artificiale - come tutti stiamo dicendo qui - che sta cambiando i processi produttivi, i servizi pubblici, le relazioni sociali e le modalità di comunicazione. Tuttavia, l'intelligenza artificiale solleva anche questioni di privacy, sicurezza, disuguaglianze sociali, etiche e responsabilità.
Mi sono posto una domanda prima di scrivere qualsiasi testo. Mi sono detto: cosa penserà l'intelligenza artificiale di questo disegno di legge? Quindi, ho fatto la domanda a ChatGPT. La risposta è breve. Ho chiesto: cosa ne pensi del disegno di legge n. 1146, delega al Governo sull'IA? Vi leggo la risposta - poi ognuno può fare la domanda e credo che darà più o meno la stessa risposta - che è curiosa, perché ci aiuta un attimo a fare una riflessione, magari tutti insieme. Il disegno di legge n. 1146, che delega al Governo l'attuazione di norme relative all'intelligenza artificiale, rappresenta un passo importante per regolamentare e promuovere lo sviluppo di questa tecnologia in Italia. La delega può offrire un quadro normativo chiaro e coordinato, favorendo l'innovazione, la tutela dei diritti e la sicurezza degli utenti. Tuttavia, è fondamentale che il processo legislativo sia trasparente e coinvolga tutte le parti interessate, garantendo che le norme siano equilibrate e rispettino princìpi fondamentali come la privacy, l'etica e la tutela del lavoro. In generale, una regolamentazione ben articolata può contribuire a sfruttare al massimo le potenzialità dell'IA, minimizzando i rischi e promuovendo uno sviluppo sostenibile e responsabile.
Forse l'intelligenza artificiale ha risposto a se stessa autoregolamentandosi? Questo è un po' il dibattito che stiamo facendo questa sera. Oggi pomeriggio stiamo dibattendo se dobbiamo lasciare le briglie sciolte a questa IA e fare in modo che essa stessa cambi il mondo, con questa intelligenza generativa, oppure dobbiamo in qualche modo darle delle regole.
Sinceramente penso che ci sia sempre una misura intermedia, una misura equilibrata che possa portare a dei benefici. Sicuramente il dibattito che abbiamo fatto è importante, però con una legge delega non si risolve il problema. Sottraiamo, infatti, a tutto il Parlamento anche solamente un'ulteriore fase e deleghiamo a un unico organismo, in questo caso l'organo esecutivo, il Governo, l'emanazione dei decreti legislativi. Personalmente non sono d'accordo: su questa intelligenza artificiale avremmo dovuto studiare un po' tutti quanti, non solamente i componenti della Commissione.
Entrando nel merito del provvedimento, vorrei analizzare l'articolo 3, che introduce una formulazione estremamente vaga, secondo cui l'utilizzo del sistema IA non deve pregiudicare la libertà del dibattito democratico da interferenze illecite da chiunque provocate. Domando a voi: chi stabilisce cosa sia un'interferenza illecita? Fino adesso non lo abbiamo detto mai, neanche in Commissione, non ci siamo confrontati su questo tema. Senza definire in anticipo procedure, senza indicare chi vigila e chi sanziona, senza alcun requisito di trasparenza e controllo giurisdizionale, si rischia di aprire una vasta area grigia. Credo che in questa prospettiva stiamo andando in una direzione sbagliata, perché l'AI Act non autorizza in ogni caso la sorveglianza generalizzata, né la censura preventiva, ma invoca trasparenza, proporzionalità e tutela della libertà di espressione. Tutela, appunto, la libertà di espressione, ma non ce n'è traccia all'interno della delega che diamo al Governo.
In particolare, poi, l'articolo 7 concerne l'intelligenza artificiale per quanto riguarda l'ambito sanitario e la disabilità. Faccio notare a tutti un fenomeno che mi ha colpito ed è abbastanza inquietante, che si chiama "Onlydown", non so se lo conoscete. È un fenomeno che coinvolge l'uso di deepfake per creare immagini soft porn di donne con sindrome di Down. Questo lo fa l'intelligenza artificiale, per parlare dei rischi dell'intelligenza artificiale. Magari categorie anche più fragili devono essere tutelate in qualche modo, per cui non possiamo lasciare le briglie sciolte all'intelligenza artificiale generativa, perché è un potente mezzo per cambiare il mondo, ma lo può cambiare anche in modo negativo.
Per quanto riguarda l'articolo 8 del disegno di legge, che concerne l'uso secondario dei dati sanitari per la ricerca e la sperimentazione scientifica con sistemi di intelligenza artificiale, a me sembra che sia una grandissima promessa di progresso, però all'interno c'è comunque una scelta politica rischiosa. Una deregolamentazione potrebbe compromettere la privacy e la fiducia dei cittadini nelle istituzioni. Andava e va regolamentato questo settore. L'obiettivo dichiarato di questo articolo nel disegno di legge delega è facilitare la circolazione dei dati per la ricerca, ma questa non deve diventare una scusa per eliminare i controlli che finora hanno protetto le persone dagli abusi degli algoritmi. Eliminare i comitati etici come filtro preventivo significa non solo semplificare le procedure amministrative, ma anche spostare la protezione dell'interesse pubblico al singolo titolare del trattamento, lasciando ai cittadini solo strumenti di ricorso. La ricerca biomedica assistita dall'intelligenza artificiale può offrire diagnosi più rapide, terapie più mirate e trattamenti innovativi. Tuttavia, ogni progresso scientifico comporta una responsabilità, che non può essere affidata solo al buonsenso dei ricercatori e al rischio calcolato degli enti privati o pubblici che gestiscono dati sensibili.
I dati sanitari non sono solo dei numeri, ma rappresentano persone reali (donne, uomini, bambini e pazienti vulnerabili), le cui storie possono anche emergere attraverso essi - lo ripeto - se non si effettua una regolamentazione e non si gestisce con rigore l'aspetto della privacy dei dati.
Vi è poi l'articolo 11 del disegno di legge, che riguarda l'uso dell'intelligenza artificiale nel mondo del lavoro. Gli obiettivi ovviamente sono nobili. Sappiamo che la spinta che l'intelligenza artificiale potrà dare al mondo del lavoro è enorme, però sappiamo anche che l'intelligenza artificiale nasconde comunque un pericolo. Lo sappiamo tutti, non lo diciamo in questa sede, ma l'intelligenza artificiale sta trasformando il mondo del lavoro adesso, sta trasformando il mondo dell'automazione; molte mansioni, anche le più ripetitive, scompariranno e con esse scompariranno anche molti lavori. Questo comporterà necessariamente una riorganizzazione del mondo del lavoro, ma soprattutto l'acquisizione di nuove capacità.
Se mi permettete, di fronte a ciò, credo che sia giusto affrontare questo periodo di transizione ricordando le parole di una persona che conoscete bene. Vi cito ciò che ha detto questa persona molto influente: siamo di fronte a una questione esistenziale; in uno scenario positivo, probabilmente nessuno avrà più un lavoro in futuro e allora ci sarà un reddito universale di base per tutti. Penso che questo sia lo scenario più probabile, ha l'80 per cento di probabilità che ciò accada. Chi ha detto questo? Io sfido tutti a immaginarlo adesso. Lo ha detto Elon Musk. Egli ha parlato di reddito universale, perché ci sarà un periodo di transizione nel quale saremo sottoposti sicuramente a spinte innovative che potranno tagliare tantissimi posti di lavoro. Vi invito, quindi, a pensare a quello che il MoVimento 5 Stelle ha sempre cercato di difendere e che continuerà a difendere, e cioè un sistema di supporto al lavoro nel momento in cui si esce dal ciclo produttivo.
Vorrei chiudere il mio intervento richiamando tutti quanti a un senso di responsabilità, come già fatto per molti. Questo tipo di intelligenza artificiale generativa potrà veramente cambiare il mondo, lo cambierà, ma dobbiamo decidere chi saranno gli artefici di questo cambiamento: saremo noi o sarà la stessa intelligenza artificiale a dominare il mondo? (Applausi).
PRESIDENTE. È iscritto a parlare il senatore Nicita. Ne ha facoltà.
NICITA (PD-IDP). Signor Presidente, in questa discussione generale sono emerse diverse questioni molto interessanti, a dimostrazione del fatto che siamo di fronte a un tema fondamentale per le nostre democrazie, per il nostro Parlamento. Noto che sono intervenuti nella discussione generale soltanto rappresentanti dell'opposizione e sentiremo i relatori.
Questo provvedimento, che torna all'esame del Senato perché ha subito una piccola modifica alla Camera - alla fine non è stato possibile inserire altri emendamenti - denota una questione che va detta con forza: siamo cioè di fronte a un provvedimento di rango costituzionale. Tutti i temi affrontati da chi mi ha preceduto riguardano rapporti di libertà, rapporti di conoscenza, rapporti di potere e anche rapporti sociali. Noi siamo abituati a pensare all'intelligenza artificiale, soprattutto con quella generativa, come a una relazione nella quale vi è semplicemente un soggetto (la macchina, il software) che parla. Invece stiamo parlando profondamente, come in tutte le vicende della società digitale, di una relazione che ha sempre una parte umana. Ed è proprio in questa relazione fra macchina e uomo che emergono le questioni fondamentali della democrazia: la questione della conoscenza, la questione della libertà e persino - come ci diceva il collega Spagnolli citando Platone - la questione della verità.
Noi abbiamo una situazione tale per cui, nel momento di massima innovazione dell'umanità, torniamo a parlare di Platone, torniamo a parlare delle illusioni della conoscenza, torniamo a parlare delle illusioni della percezione. Torniamo, cioè, a parlare di ciò che caratterizza gli aspetti fondamentali della nostra democrazia.
Allora, di fronte a una questione di rango costituzionale, io avrei voluto che non solo sentissimo le voci dei colleghi della maggioranza in questa discussione generale, ma che tutto questo provvedimento - come già in precedenza quello che riguardava la frontiera dell'economia e dello spazio - avesse una intima caratteristica bipartisan, un intimo confronto.
Quando parliamo di questioni di rango costituzionale, dobbiamo essere tutti consapevoli che ciò che è messo in gioco è appunto il cuore della nostra democrazia, come intendiamo esercitare la conoscenza, l'informazione, la formazione, la sanità, il mondo del lavoro, le imprese, l'occupazione, l'innovazione e le future generazioni. Invece - lo dico al Sottosegretario, evidenziando che non è un suo demerito, ma un concetto che riguarda tutta la politica di Governo - affrontiamo queste questioni di innovazione come se fossero aspetti settoriali minori.
Non basta in questo richiamare il fatto, che è obiettivo, che sono forme di regolamentazione di derivazione europea e che, quindi, è necessario un coordinamento con gli altri Paesi membri, proprio perché quella regolazione europea - mi riferisco in particolare al regolamento europeo sull'intelligenza artificiale - ha lasciato la possibilità di sperimentazione e di innovazione agli Stati nazionali.
Allora qui si dovrebbe esercitare anche la nostra creatività, il nostro dibattito. Noi siamo un Paese, a proposito di sovranità, che è cresciuto nell'esercizio, nei secoli scorsi, dell'innovazione e della conoscenza. Invece, in questo momento rifiutiamo di farne una questione strategica per il nostro futuro. Perché rinunciamo? Rinunciamo per due ragioni. La prima è che non abbiamo fatto effettivamente di questo un provvedimento di confronto pieno, vero, autentico e politico fra le diverse parti sociali. La seconda ragione è che mettere soltanto un miliardo in un investimento così trasversale e fondamentale dà la misura di quanto poco si creda a questa innovazione e di quanto poco si voglia esercitare quel sovranismo digitale di cui spesso sentiamo gridare il nome, appellandoci alla Patria, ma che poi, alla fine, di fronte ai grandi colossi digitali e ai grandi interessi internazionali, precipita in un risultato che definire minimo è già ottimistico.
Vengo a illustrare alcune questioni che avevamo posto, che stanno alla frontiera e stavano nei nostri emendamenti in tutto questo percorso, che pongono alcune delle questioni che riguardano i rischi.
Prima di questo, però, mi sia permesso dire al collega Lombardo, di cui condivido l'impostazione generale, che quella frase di Alec Ross mi è sempre sembrata troppo semplicistica: quella, cioè, di rappresentare l'Europa semplicemente come un arbitro che non gioca perché fa le regole. Il problema è che quell'arbitro che propone di fare delle regole sta innanzitutto cercando di decidere qual è il gioco che si sta giocando, qual è lo sport. Di che cosa stiamo parlando? Stiamo parlando di tecnologie che influenzano di più la nostra vita industriale, commerciale, innovativa, la conoscenza, la democrazia. Rispetto a questo, è innanzitutto importante capire a quale gioco stiamo giocando, perché magari è un gioco nel quale chi fa le regole può anche esercitare un'attività. È il concetto di rischio ed è un concetto importante, che dev'essere tenuto in mente.
Ieri il professor Vicari, in una presentazione fatta qui in Senato, ha detto che anche il motore a scoppio è stata una grande innovazione, ha cambiato completamente le nostre vite; per guidare un'automobile, però, prevediamo che si raggiunga una certa età, che si abbia una patente, che ci siano delle regole, perché, quando i rischi hanno a che fare con le relazioni sociali, allora questo diventa un tema.
Noi abbiamo proposto emendamenti sulla regolazione per esempio dei deepfake, sulla quale però non abbiamo avuto risposta. Io ho presentato, Presidente, una denuncia all'Agcom per l'uso propagandistico da parte di una forza di maggioranza dell'intelligenza artificiale con funzioni discriminatorie e di hate speech. Lo dico in questi giorni in cui si dibatte molto sulle responsabilità e sull'origine delle espressioni e del linguaggio d'odio. Abbiamo insistito perché vi fosse una trattazione del diritto d'autore che prevedesse insieme la formazione, il learning da parte dell'intelligenza generativa, ma allo stesso tempo la valorizzazione della tradizione linguistica nazionale. Se infatti tutti i modelli generativi vengono fatti con una lingua originaria straniera, rischiamo di perdere un patrimonio di conoscenza, cosa di cui si sono resi conto recentemente, per esempio, in Giappone e in India.
Più in generale, abbiamo proposto emendamenti per una governance semplificata. Abbiamo proposto l'istituzione di un'autorità perché ci sembra che il disegno istituzionale attualmente proposto sia un disegno che alla fine non semplifica, mette troppe questioni insieme e quindi non permetterà indicazioni che avvengano in tempi brevi, efficaci e cogenti.
Per concludere, Presidente, la mia impressione è che in questo provvedimento, come in altri che riguardano le frontiere di innovazione, il Governo cerchi più di muoversi in una strada piuttosto che indicare una direzione. D'altra parte, Lewis Carroll diceva che, se non sai dove stai andando, ogni strada ti porterà nel posto giusto. Ecco, probabilmente quel posto lo avrete, ma sicuramente non ci porterà lontano. (Applausi).
PRESIDENTE. Dichiaro chiusa la discussione generale.
I relatori e il rappresentante del Governo rinunciano ad intervenire in sede di replica.
Comunico che è pervenuto alla Presidenza - ed è in distribuzione - il parere espresso dalla 5a Commissione permanente sul disegno di legge in esame e sugli emendamenti, che verrà pubblicato in allegato al Resoconto della seduta odierna.
Procediamo all'esame degli articoli, nel testo comprendente le modificazioni apportate dalla Camera dei deputati.
Ricordo che gli articoli 1 e 2 sono identici agli articoli 1 e 2 del testo approvato dal Senato.
Gli emendamenti e gli ordini del giorno presentati agli articoli 3, 5, 6, 16 e 19 si intendono illustrati.
Passiamo all'esame dell'articolo 3, sul quale sono stati presentati un emendamento e un ordine del giorno su cui invito i relatori e il rappresentante del Governo a pronunziarsi.
ROSA, relatore. Signor Presidente, esprimo parere contrario sull'emendamento e sull'ordine del giorno.
BUTTI, sottosegretario di Stato alla Presidenza del Consiglio dei ministri. Signor Presidente, il parere del Governo è conforme a quello del relatore.
PRESIDENTE. Metto ai voti l'emendamento 3.1, presentato dal senatore Magni e da altri senatori.
Non è approvato.
MAGNI (Misto-AVS). Domando di parlare.
PRESIDENTE. Ne ha facoltà.
MAGNI (Misto-AVS). Signor Presidente, vorrei chiedere al senatore Basso di sottoscrivere l'ordine del giorno G3.100.
PRESIDENTE. La Presidenza ne prende atto.
Essendone stata avanzata richiesta, passiamo alla votazione dell'ordine del giorno G3.100.
SIRONI (M5S). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
SIRONI (M5S). Presidente, chiedo al senatore Basso di aggiungere la firma a questo ordine del giorno e ne approfitto per fare anche una dichiarazione di voto favorevole. Pare importante tener presente che, da un lato, il diritto d'autore è inalienabile, come disciplinato nel nostro ordinamento; dall'altro, però, è possibile che l'autore venda i diritti di sfruttamento e questo è un principio fondamentale che dev'essere applicato anche all'intelligenza artificiale generativa, in modo che venga reso possibile tracciare le fonti del prodotto generato anche al fine di rendere possibile la remunerazione a favore dell'autore sorgente.
Sono quindi assolutamente d'accordo con l'ordine del giorno, che va in questa direzione e invita il Governo a ulteriori iniziative, anche normative, per garantire un'effettiva protezione contro le clausole vessatorie in relazione alla cessione dei diritti di sfruttamento nei contratti, a favore quindi della tutela dei lavoratori. (Applausi).
NICITA (PD-IDP). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
NICITA (PD-IDP). Signor Presidente, in quest'ordine del giorno si chiede di impegnare il Governo ad affrontare la questione della doppia tutela: da una parte, l'utilizzo di informazioni per permettere ai modelli di intelligenza artificiale generativa di imparare; dall'altra parte, però, avere la remunerazione di quella conoscenza che a tal fine viene utilizzata. Sono meccanismi sui quali, in questo momento, si sta esercitando una forte attività di ricerca nel mondo, in particolare sui sistemi di cosiddetto tracciamento watermarking, che permetteranno di sapere esattamente quando un certo contenuto viene utilizzato, viene consultato, a quale scopo e se alla fine vi sia una elaborazione, una produzione finale che viene valorizzata economicamente e rintracciare chi sono stati gli autori di quella fonte di conoscenza, di quell'informazione o di quella qualità in generale per la quale si può esercitare un diritto d'autore. La nuova frontiera che sta sempre più emergendo riguarda non solo un diritto della conoscenza prodotta, ma anche, se pensiamo ai video, un diritto sull'immagine, un diritto di sé digitale che in qualche modo dev'essere definito e riconosciuto soprattutto nel campo artistico, nel campo degli attori, della filmografia, insomma nei casi in cui l'identità di una persona può diventare essa stessa un bene economico e, quindi, un oggetto di tutela autorale o di diritto d'autore. (Applausi).
FLORIDIA Aurora (Aut (SVP-PATT, Cb)). Domando di parlare.
PRESIDENTE. Ne ha facoltà.
FLORIDIA Aurora (Aut (SVP-PATT, Cb)). Signor Presidente, chiedo di poter aggiungere la firma mia e del senatore Spagnolli all'ordine del giorno G3.100, a prima firma del senatore Basso.
PRESIDENTE. La Presidenza ne prende atto.
Il senatore Basso ha dunque insistito per la votazione dell'ordine del giorno.
Metto ai voti l'ordine del giorno G3.100, presentato dal senatore Basso e da altri senatori.
Non è approvato.
Metto ai voti l'articolo 3.
È approvato.
Metto ai voti l'articolo 4.
È approvato.
Passiamo all'esame dell'articolo 5, sul quale è stato presentato un emendamento su cui invito i relatori e il rappresentante del Governo a pronunziarsi.
ROSA, relatore. Signor Presidente, esprimo parere contrario.
BUTTI, sottosegretario di Stato alla Presidenza del Consiglio dei ministri. Signor Presidente, esprimo parere conforme a quello del relatore.
PRESIDENTE. Metto ai voti l'emendamento 5.3, presentato dal senatore Magni e da altri senatori.
Non è approvato.
Metto ai voti l'articolo 5.
È approvato.
Passiamo all'esame dell'articolo 6, sul quale è stato presentato un ordine del giorno su cui invito i relatori e il rappresentante del Governo a pronunziarsi.
ROSA, relatore. Signor Presidente, esprimo parere contrario.
BUTTI, sottosegretario di Stato alla Presidenza del Consiglio dei ministri. Signor Presidente, esprimo parere conforme a quello del relatore.
PRESIDENTE. Senatore Basso, insiste per la votazione dell'ordine del giorno?
BASSO (PD-IDP). Sì, signor Presidente.
PRESIDENTE. Passiamo quindi alla votazione dell'ordine del giorno G6.100.
BASSO (PD-IDP). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
BASSO (PD-IDP). Signor Presidente, ho insistito per la votazione di quest'ordine del giorno perché - come forse alcuni colleghi ricorderanno - in quest'Aula ci siamo fermati per varie ore a discutere di un emendamento riguardante la possibilità di salvaguardare i dati sensibili sui server italiani. Noi continuavamo a sostenere che non era possibile salvaguardare tutti i dati, ma era necessario farlo per quelli strategici e sensibili.
Non avete voluto accettare e siamo tornati alla Camera, dove avete ribaltato togliendo completamente la protezione di tutti i dati.
In particolare, signor Presidente, mi permetterà di leggere una dichiarazione di un collega autorevole e sempre molto moderato, il presidente Malan, che affermava testualmente: «credo anche che debba essere riconosciuta e rivendicata l'autonomia dei senatori e dei Gruppi parlamentari che votano secondo quanto ritengono giusto». E ancora, sempre il presidente Malan: «In questo caso rivendico però una scelta molto chiara, che è quella addirittura di mantenere più ampio quest'obbligo per tenere i server sul territorio nazionale». Ecco, noi continuavamo a insistere di farlo per i dati strategici e sensibili per gli interessi nazionali. Avete voluto fare qualcosa che non era possibile, il provvedimento ha perso tempo, è tornato alla Camera, dov'è stata tolta completamente questa protezione, e oggi andate a votare un provvedimento in cui non c'è alcuna garanzia.
Vi chiediamo un ordine del giorno per valutare l'opportunità di andare invece a ragionare su quello che voi avete detto rivendicando l'autonomia di questo Parlamento e che ritenevate necessario per tutti i dati. Possiamo mantenerla almeno per i dati strategici sensibili, come il Governo andrà a definire quali sono? Non mi sembra qualcosa di strano. (Applausi). Mi sembra qualcosa nell'interesse del Paese e che rientra nella volontà che è stata espressa da quest'Assemblea in maniera molto forte. (Applausi).
MAZZELLA (M5S). Domando di parlare.
PRESIDENTE. Ne ha facoltà.
MAZZELLA (M5S). Signor Presidente, chiedo di poter aggiungere la firma dei senatori del mio Gruppo delle Commissioni 8a e 10a.
BORGHI Enrico (IV-C-RE). Domando di parlare.
PRESIDENTE. Ne ha facoltà.
BORGHI Enrico (IV-C-RE). Signor Presidente, chiediamo di poter aggiungere la firma all'ordine del giorno del senatore Basso.
MAGNI (Misto-AVS). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
MAGNI (Misto-AVS). Signor Presidente, intervengo per dichiarare il mio voto favorevole sull'ordine del giorno in esame e per chiedere di poter aggiungere la mia firma.
BASSO (PD-IDP). Chiediamo che la votazione venga effettuata a scrutinio simultaneo mediante procedimento elettronico.
PRESIDENTE. Invito il senatore Segretario a verificare se la richiesta risulta appoggiata dal prescritto numero di senatori.
(La richiesta non risulta appoggiata).
Metto ai voti l'ordine del giorno G6.100, presentato dal senatore Basso e da altri senatori.
Non è approvato.
Metto ai voti l'articolo 6.
È approvato.
Ricordo che l'articolo 7 è identico all'articolo 7 del testo approvato dal Senato.
Metto ai voti l'articolo 8.
È approvato.
Ricordo che gli articoli 9, 10 e 11 sono identici agli articoli 9, 10 e 11 del testo approvato dal Senato.
Metto ai voti l'articolo 12.
È approvato.
Ricordo che gli articoli 13, 14 e 15 sono identici agli articoli 13, 14 e 15 del testo approvato dal Senato.
Passiamo all'esame dell'articolo 16, sul quale è stato presentato un emendamento su cui invito i relatori e il rappresentante del Governo a pronunziarsi.
ROSA, relatore. Signor Presidente, esprimo parere contrario sull'emendamento 16.1.
BUTTI, sottosegretario di Stato alla Presidenza del Consiglio dei ministri. Signor Presidente, esprimo parere conforme a quello del relatore.
PRESIDENTE. Passiamo alla votazione dell'emendamento 16.1.
SENSI (PD-IDP). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
SENSI (PD-IDP). Signor Presidente, intanto chiedo di poter aggiungere la nostra firma all'emendamento del collega Magni. Vorrei poi sottolineare l'importanza di questo rilievo, cioè in sostanza il fatto della questione dell'identificazione biometrica negli spazi aperti al pubblico.
Com'è noto, non solo il Garante per la privacy, ma la normativa regola e dispone il fatto che non ci possano essere tecnologie di riconoscimento e di identificazione biometrica e facciale nei luoghi pubblici. C'è una moratoria che è in vigore e che durerà ancora per un po'.
Vorrei tra l'altro dire che proprio oggi la Società per azioni esercizi aeroportuali (SEA), che gestisce il sistema aeroportuale di Milano, ha fermato il sistema di riconoscimento facciale del face boarding all'aeroporto di Linate, proprio per i rilievi mossi dal Garante della privacy. Quindi un servizio che era in uso da parecchio tempo, e che era stato oggetto di diverse interrogazioni parlamentari e di diversi punti interrogativi, oggi si deve fermare per questi rilievi.
Allora non mi sembra peregrina la sottolineatura fatta dal collega Magni sull'attenzione particolare che dev'essere riservata alla questione dei sistemi di identificazione biometrica negli spazi aperti al pubblico, in un contesto, quello del tracciamento e della sorveglianza, che è nelle cronache di tutti i giorni. Oggi il «New York Times» ha pubblicato un pezzo enorme sui sistemi di riconoscimento facciale utilizzati da Scotland Yard (la polizia inglese), per esempio nell'ambito non solo del traffico ordinario, ma anche dei controlli a campione e delle manifestazioni.
È un tema di grandissima attualità, sul quale, sottolineando e sottoscrivendo l'emendamento del collega Magni, invitiamo il Governo a una riflessione ulteriore. (Applausi).
PRESIDENTE. Metto ai voti l'emendamento 16.1, presentato dal senatore Magni e da altri senatori.
Non è approvato.
Metto ai voti l'articolo 16.
È approvato.
Ricordo che gli articoli 17 e 18 sono identici agli articoli 17 e 18 del testo approvato dal Senato.
Passiamo all'esame dell'articolo 19, sul quale sono stati presentati emendamenti su cui invito i relatori e il rappresentante del Governo a pronunziarsi.
ROSA, relatore. Signor Presidente, esprimo parere contrario su tutti gli emendamenti.
BUTTI, sottosegretario di Stato alla Presidenza del Consiglio dei ministri. Signor Presidente, esprimo parere conforme a quello del relatore.
PRESIDENTE. Metto ai voti l'emendamento 19.1, presentato dal senatore Basso e da altri senatori.
Non è approvato.
Passiamo alla votazione della prima parte dell'emendamento 19.2.
NICITA (PD-IDP). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
NICITA (PD-IDP). Signor Presidente, questa serie di emendamenti, dal 19.2 al 19.5, sulla base di quello che abbiamo detto prima, cioè della natura sistemica trasversale di governo delle questioni che stiamo affrontando, aggiunge al gruppo del Governo, che è previsto in questo articolo, il Ministro del lavoro e delle politiche sociali, perché - come abbiamo detto - la questione del lavoro è assolutamente centrale nel tema dell'intelligenza artificiale (emendamento 19.2). Dico anche degli altri, così non intervengo dopo, Presidente: al 19.3 si aggiunge il Ministro della cultura, al 19.4 il Ministro dell'istruzione - abbiamo parlato prima dei temi di impatto sull'istruzione e così via - e al 19,5 ovviamente il Ministro della difesa.
Per carità, questo si potrà inserire successivamente, ma è già la terza volta che evidenziamo come una struttura di governance complessa dell'intelligenza artificiale debba avere la rappresentanza di tutte le diverse voci dei Ministeri del Governo, proprio perché ciascuna ha una sua specificità e una sua rilevanza. Per questa ragione, li abbiamo inseriti e, sia oggi sia nel passato, non comprendevamo e non comprendiamo perché siano stati esclusi.
PRESIDENTE. Metto ai voti la prima parte dell'emendamento 19.2, presentato dal senatore Basso e da altri senatori, fino alle parole: «dal Ministro».
Non è approvata.
Risultano pertanto preclusi la restante parte e gli emendamenti da 19.3 a 19.5.
Metto ai voti l'emendamento 19.9, presentato dal senatore Nicita e da altri senatori.
Non è approvato.
Metto ai voti l'articolo 19.
È approvato.
Metto ai voti l'articolo 20.
È approvato.
Ricordo che gli articoli 21, 22, 23, 24, 25, 26 e 27 sono identici agli articoli 21, 22, 23, 24, 25, 26 e 27 del testo approvato dal Senato.
Metto ai voti l'articolo 28.
È approvato.
Passiamo alla votazione finale.
UNTERBERGER (Aut (SVP-PATT, Cb)). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
UNTERBERGER (Aut (SVP-PATT, Cb)). Signor Presidente, la tecnologia non è mai neutrale, perché è influenzata da chi la produce e per chi la produce. Trent'anni fa, agli albori della Rete, si commise l'enorme errore di pensare il contrario, cioè che la Rete non dovesse essere regolamentata, perché era uno spazio di libertà e ogni intervento sarebbe stato una costrizione. Oggi le conseguenze di quell'approccio sono sotto gli occhi di tutti.
Il provvedimento che discutiamo prova a disegnare un primo perimetro normativo dell'intelligenza artificiale sulla scorta di quanto già fatto a livello europeo. Si tratta in parte di una legge delega che per definizione è vaga, generica e per giudicarne l'efficacia bisogna aspettarne i provvedimenti attuativi. Quello che salta subito all'occhio è la mancanza di un riferimento all'impatto ambientale, a conferma, ancora una volta, della scarsa attenzione di questo Governo al cambiamento climatico. Entro il 2030, il consumo energetico dei data center toccherà livelli impressionanti, aumentando di circa il 5 per cento l'intera domanda mondiale di elettricità. Questa esplosione di consumi si è alimentata con fonti fossili, si tradurrà in un forte aumento delle emissioni di CO2. In parallelo, va considerato il consumo di acqua per raffreddare i server: le aziende del settore utilizzano decine di milioni di metricubi d'acqua l'anno. Dove sorgeranno queste strutture si rischia di aggravare le crisi idriche locali.
Negli ultimi articoli del provvedimento vengono poi introdotti alcuni nuovi reati e un'aggravante per aver commesso il fatto con intelligenza artificiale, che entreranno subito in vigore. Una di queste nuove fattispecie la ritengo particolarmente importante, perché affronta il tema della violenza contro le donne connessa all'intelligenza artificiale. Con l'articolo 26 si introduce un nuovo comma all'articolo 612 del codice penale, quello sulla diffusione dei deepfake. Con l'avvento delle tecniche di intelligenza artificiale generativa, i casi di pornografia falsificata sono esplosi, con un aumento del 500 per cento dei casi segnalati. Nel 99 per cento dei casi le vittime sono donne. Su Phica.net circolavano persino dei tutorial per insegnare a creare deepfake pornografici. Insomma, con l'intelligenza artificiale oggi chiunque può prendere la foto di una collega, di un ex partner o perfino di una sconosciuta e inserirne il volto in un video osceno.
Con questo provvedimento viene vietata la diffusione di immagini e video costruiti con l'intelligenza artificiale senza il consenso della persona, con una pena che va da 1 a 5 anni di reclusione. Questo è un passo importante e giusto, come richiesto anche dalla direttiva UE sulla violenza contro le donne.
Temo però che questo non basti. Come dimostrano gli scandali di questa estate, bisogna prevedere come reato anche l'incitamento a lasciare commenti e i commenti a immagini di donne in chiave sessuale.
In più, continua a mancare una fattispecie di reato per vietare espressioni di odio o di incitamento alla violenza contro le donne in generale, una fattispecie di reato che è stata introdotta in quasi tutti i Paesi europei. In Italia ci sarebbe già lo schema dell'articolo 604-bis; dovrebbero solo essere aggiunti i motivi di genere a quelli etnici, religiosi e razziali.
C'è poi il tema dell'introduzione dell'identità digitale, perché non è accettabile che i leoni da tastiera agiscano in pieno anonimato.
Infine, le piattaforme devono essere responsabilizzate molto di più. È allucinante scoprire che la pagina "Mia moglie" era da anni segnalata a Facebook e nessuno è mai intervenuto, nonostante il Data governance Act (DGA) che l'Unione europea aveva deliberato già nel 2022.
Penso che ci vorrà una responsabilità penale anche per i gestori delle piattaforme.
Lo sviluppo della legislazione penale a tutela delle donne dimostra come, con sempre più frequenza, il legislatore deve reagire ai cambiamenti sociali: nel 2009, all'articolo 612 del codice penale è stato aggiunto un bis per gli atti persecutori; nel 2019 un ter per il revenge porn e adesso un quater per il deepfake e chissà quali possibilità la tecnologia offrirà in futuro per danneggiare le persone, spesso soprattutto le donne.
Vi è pertanto solo una strada da seguire: non solo algoritmi sempre più potenti, ma anche tutele più forti. Dobbiamo saper dire no agli usi dell'intelligenza artificiale che ledono i diritti umani, la democrazia e l'ambiente e dire sì a un'intelligenza artificiale che sia al servizio delle persone. (Applausi).
FREGOLENT (IV-C-RE). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
FREGOLENT (IV-C-RE). Signor Presidente, questo è un argomento delicato, che riguarda sicuramente il lavoro del futuro e, come ha denunciato Mario Draghi, l'Europa intera è in ritardo, anzi l'Europa intera rischia di non toccare boccino. È indietro per quanto riguarda la formazione dei dati da indicare nell'intelligenza artificiale; rischiamo che la nostra cultura sia completamente cancellata, se l'intelligenza artificiale parlerà americano e cinese. Questo è un ritardo imperdonabile, perché l'Europa è la culla della cultura occidentale così come l'abbiamo conosciuta; invece, a forza di regolamentare solo la parte che fa paura, la parte della privacy, la parte di tutto quello che ci spaventa di questa complessa tecnologia, rischiamo invece di dimenticare tutta la parte creativa.
È per questo che in questa sede, davanti al sottosegretario Butti, rilevo una contraddizione di questi giorni della mia Torino: un'azienda, la Cerence, chiude. È stata la prima che negli anni Ottanta aveva creato il sistema che serve a parlare alle autovetture, che serve a interloquire. Era alla fine degli anni Ottanta e quell'azienda era assolutamente all'avanguardia, invece la crisi dell'automotive porta a chiudere questa società con 54 addetti, che - a dire, quando si parla di intelligenza artificiale - dovrebbero essere all'avanguardia: matematici, informatici, ingegneri. Ieri c'è stata la manifestazione di questi 54 addetti. L'azienda era stata acquisita da una multinazionale americana che ha sede anche in Belgio e in Francia e, nel dover chiudere un'azienda, guarda caso, chiude quella italiana.
Da qui non soltanto esprimo la solidarietà del mio Gruppo e della mia persona ai lavoratori in difficoltà (Applausi), ma faccio una domanda al Governo: se l'intelligenza artificiale è veramente il lavoro del futuro, perché non creare noi le aziende che si occupano di questo? Perché delegare solamente alle società straniere e ai Paesi stranieri di fare questo? Perché non essere noi a interloquire con quei lavoratori e a chiedere a loro di darci una mano per la creazione dell'intelligenza artificiale generativa? Come la Cerence, ci sono altre aziende in difficoltà e questo è un paradosso, perché durante la discussione generale il mio collega Marco Lombardo ha parlato giustamente dell'importanza dell'intelligenza artificiale declinata nell'agricoltura, nella sicurezza nel lavoro, nella sanità e noi perdiamo un'azienda che già alla fine degli anni Ottanta era all'avanguardia.
Si tratta, quindi, di una contraddizione apparente, però è una contraddizione del nostro Paese e dell'Europa che, a forza di delegare alle potenze straniere un tema così delicato, poi finiscono per non accorgersi di cos'hanno in casa e di quali sono le loro eccellenze.
Mi permetto così di non essere d'accordo anche con alcuni emendamenti delle opposizioni, perché vedo una paura nei confronti di questa importante tecnologia, che va dalla difesa del diritto d'autore alla privacy, fino al non voler individuare i nostri connotati per abbreviare i tempi di un check-in. Tutti i giorni diamo però i nostri dati e la nostra faccia: a un americano, se abbiamo Apple; a un cinese, se abbiamo Huawei; a un coreano, se abbiamo Samsung; ed abbiamo più paura di darli a Malpensa, che è un aeroporto italiano?
Forse la politica deve fare un passo avanti verso la comprensione di una tecnologia che probabilmente ci sfugge. Il Senato è composto da persone un po' più grandi rispetto alla Camera, ma penso che anche alla Camera non vi siano nativi digitali. I nativi digitali sono le nuove generazioni. Noi non lo siamo: abbiamo imparato a usare e forse usiamo i mezzi tecnologici in piccola percentuale. Se un ragazzino avesse il mio telefono, riuscirebbe a farci molte più cose rispetto a quelle che faccio io.
Una politica la comprende veramente la portata di questa grande tecnologia?
Io non vedo ciò in questo provvedimento, signor Sottosegretario. Avevamo chiesto un confronto aperto perché si parla di una tecnologia che sicuramente influenzerà le vite di tutti noi, a prescindere dai Governi che saranno in carica. Avremmo voluto, quindi, una maggiore apertura. Questa non c'è stata, a prescindere, ovviamente, da un'interlocuzione che lei ha sempre avuto nei nostri confronti, però, nell'atto concreto e nel provvedimento finale tale interlocuzione non c'è.
Per questi motivi, oltre a quelli che ha ben illustrato il mio collega Enrico Borghi nella fase della discussione generale, Italia Viva voterà contro questo provvedimento. (Applausi).
GELMINI (Cd'I-UDC-NM (NcI, CI, IaC)-MAIE-CP). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
GELMINI (Cd'I-UDC-NM (NcI, CI, IaC)-MAIE-CP). Signor Presidente, nel 2016, quando ChatGPT, ma anche Grok, erano ancora lontani da una pervasività in tutti gli aspetti della nostra vita, il genio della fisica teorica Stephen Hawking, tenendo una lectio magistralis a Cambridge, disse: la diffusione dell'intelligenza artificiale sarà o il meglio o il peggio che sia mai capitato all'essere umano.
Chi non è un esperto di questa materia e da poco affronta quotidianamente il tema dell'intelligenza artificiale, credo che si ritrovi un po' dentro questa frase, che rappresenta la dimensione della sfida che abbiamo davanti.
È chiaro che il nostro Paese non è mai stato all'avanguardia dal punto di vista dell'innovazione tecnologica. Eppure, mi permetto di dire che questo provvedimento è sicuramente un'assunzione di responsabilità e un tentativo serio di fare alcuni passi avanti nella direzione auspicata. E qual è questa direzione? È quella di lavorare e confrontarci su questo tema in modo costruttivo, sapendo che ormai l'intelligenza artificiale è parte integrante della nostra quotidianità. Lo è nell'ambito dell'erogazione dei servizi e dello sviluppo delle piccole e medie imprese, nella gestione del mondo del lavoro, nell'ambito della sanità, ma anche nelle professioni creative.
Questo disegno di legge è il tentativo di costruire, finalmente, un sistema nazionale di governance e misure specifiche per sfruttare al massimo le opportunità e ridurre al minimo i rischi, peraltro dentro un collegamento con l'IA Act previsto dall'Unione europea. Questo disegno di legge sicuramente non è un punto di arrivo, ma è sicuramente un punto di partenza ed è fondamentale e propedeutico alla necessaria messa a punto di altre leggi in materia di intelligenza artificiale e di innovazione tecnologica.
Si comincia a delineare una strategia nazionale. Non solo: si prova a promuovere formazione e ricerca in questo ambito, grazie anche ad una partnership tra l'Agenzia per l'Italia digitale e l'Agenzia per la cybersecurity, affiancate anche dal neonato Dipartimento per la trasformazione digitale in seno alla Presidenza del Consiglio.
Io credo che il tentativo di costruire una governance, di non affrontare questo tema in maniera puntiforme, ma all'interno di una strategia nazionale, in collegamento con l'Agenzia per l'Italia digitale e l'Agenzia per la cybersecurity, sia la prova che si comincia a mettere mano e ordine all'interno di questo ambito, che ovviamente andrà poi a riguardare sempre di più il mondo della sanità e quello del lavoro.
Penso che non sia banale l'articolo 21 che istituisce risorse tramite il venture capital fino a un miliardo di euro. Credo sia un punto qualificante del provvedimento. lo stesso discorso vale anche per il tentativo di utilizzare al meglio l'intelligenza artificiale per efficientare e migliorare il funzionamento della pubblica amministrazione che vogliamo rimanga al passo con i tempi. Un obiettivo, peraltro, che è sinergico anche con il PNRR.
Per non parlare poi del tema della sicurezza e della difesa nazionale.
Ma qual è la ratio, il criterio che informa questo provvedimento? La volontà di mettere sempre al centro l'uomo, la persona con una propria identità, con i propri inalienabili diritti. Io credo sia questo un approccio convincente al quale ci ha richiamato durante il Giubileo dei governanti anche Papa Leone XIV, che ha auspicato l'utilizzo dell'intelligenza artificiale, ma sempre nel rispetto della centralità dell'uomo.
È altresì importante l'articolo 14, che introduce disposizioni stringenti sull'utilizzo dell'intelligenza artificiale da parte dei minori e lo è anche l'articolo 19, che prevede l'istituzione di un comitato di coordinamento delle attività di indirizzo sugli enti che operano nel campo dell'intelligenza artificiale, come la centralità che viene attribuita all'Agcom.
Insomma, per la prima volta, si fa chiarezza, si individua una governance e ci si dà un metodo come sistema Paese. Poi è chiaro che accanto alle deleghe - perché questo provvedimento opera per delega - ci sono anche le regole.
Da questo punto di vista, dobbiamo anche affrontare un aspetto negativo; fin qui ho messo in rilievo tutti gli aspetti positivi, le ricadute, l'efficientamento della pubblica amministrazione, della sanità, del mercato del lavoro, ma è chiaro che l'intelligenza artificiale si presta anche a un utilizzo distorto. Al riguardo anch'io ritorno a parlare di quello che è accaduto quest'estate, cioè del fatto che ancora una volta si sono scoperti siti in cui l'identità delle persone è stata violata e piegata ad interessi illeciti. Tutto questo deve accelerare una discussione, che credo sia ormai matura, rispetto alla necessità di regolamentare e di sanzionare l'utilizzo illecito che viene fatto dell'intelligenza artificiale. (Applausi). Ciò vale con riferimento, ovviamente, ai siti pornografici, ma anche alla proprietà intellettuale, che non può essere violata senza che ci sia una sanzione.
E allora intanto mi fa piacere constatare che da parte delle istituzioni, rispetto a quei fatti così gravi, ci sia stata una rapida risposta sia da parte di Ester Mieli, che voglio ringraziare, assieme alla Commissione presieduta dalla senatrice Segre, sia della collega Martina Semenzato, che ha portato avanti rapidamente all'interno della Commissione femminicidio delle audizioni e un confronto attorno a questi temi.
È però chiaro che servono delle misure anche di ordine sanzionatorio. La delega al Governo per l'equiparazione della diffusione illecita di contenuti realizzati con l'intelligenza artificiale al reato di revenge porn credo sia un elemento ulteriore. È una delega al Governo, ma io mi auguro che questo aspetto venga quanto prima trasformato in norma.
Allo stesso modo, credo sia importante rafforzare la responsabilità civile e penale delle piattaforme, perché così come la carta stampata risponde di eventuali danni e reati commessi verso terzi, anche le piattaforme non possono non rispondere e non avere una responsabilità civile e penale rispetto ai reati che vengono commessi al loro interno.
Vorrei, da ultimo, sottolineare anche un punto importante, che è quello dell'anonimato sul web, che non è contenuto all'interno di questo provvedimento, ma credo che, come ci si sforza di rafforzare la responsabilità delle piattaforme e di evitare danni a terzi, sia decisamente importante ragionare sull'anonimato. Tutti vogliamo salvaguardare la libertà di espressione e la libertà di opinione, ma la libertà di espressione non è libertà di insulto. (Applausi). Non è possibile che i leoni da tastiera si permettano, dietro l'anonimato, di recare danni a terzi, anche perché soprattutto nei casi di persone minori, di adolescenti, questi comportamenti hanno determinato persino la morte di alcuni giovani. Queste pratiche non possiamo permetterle e non possiamo non vederle, non possiamo parlarne solo quando c'è un fatto di cronaca, ma dobbiamo trovare un impianto regolatorio che ovviamente non può essere solo nazionale. Sappiamo che c'è la necessità di un aiuto da parte della Commissione europea. Sono regolamenti che non possiamo portare a casa solo dentro i confini nazionali, ma c'è la necessità e l'urgenza di porre sul tavolo questo tema e di avanzare delle soluzioni.
So che ci sono diverse proposte di legge: ad esempio, noi del Gruppo Noi Moderati ne abbiamo avanzata una con Maurizio Lupi, con la collega Mara Carfagna, con Giusy Versace e con tanti altri parlamentari e ce ne sono altre sul tavolo. Questo è un tema assolutamente trasversale rispetto al quale mi auguro che ci sia presto una risposta fattiva da parte del Parlamento, perché fatti gravi come quelli che sono accaduti non devono ripetersi.
Questo disegno di legge è una grande opportunità, non solo perché contiene diverse deleghe al Governo che vanno in questa direzione, ma anche per favorire la distinzione tra il virtuale e il reale. Il watermark è un esempio importante di come si può favorire una riconoscibilità grafica di tutto ciò che riguarda l'intelligenza artificiale, che è il primo modo per difendere l'identità delle persone. Qui c'è una disposizione che va in questa direzione e mi auguro che diventi quanto prima un fatto concreto, perché non è possibile che l'identità delle persone, che sia fisica, che sia legata alla voce, che sia legata all'immagine, possa in qualche modo confondersi nel virtuale e determinare danni alle persone.
Colleghi, proviamo davvero tutti insieme, in maniera trasversale, a intervenire e a far capire che il Parlamento italiano c'è, rispetta e richiama la collaborazione da parte dell'Europa, ma pone questo problema. (Applausi).
MAGNI (Misto-AVS). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
MAGNI (Misto-AVS). Signor Presidente, interveniamo in terza lettura su questo provvedimento e secondo noi ovviamente siamo di fronte a un'occasione mancata, cioè anziché fare dei passi in avanti, sono stati fatti dei passi indietro, ad esempio per quanto riguarda la scelta di sopprimere la norma che prevedeva l'ubicazione sul territorio nazionale dei server utilizzati per sistemi di intelligenza artificiale destinati all'uso pubblico. Il fatto che questa norma sia stata cancellata fa sorgere un dubbio: voi che fate parte della coalizione dei sovranisti del "padroni a casa nostra" e barzellette di questo genere, alla prova dei fatti non siete assolutamente padroni a casa vostra. Non siamo padroni a casa nostra perché a controllare saranno altri, a meno che non abbiate fatto un accordo con Musk, ma in quel caso si tratterebbe addirittura di dare in appalto il controllo all'uomo più ricco del mondo. Altrimenti, non si capisce perché si sia fatta questa scelta. È vero, non è che avere i server in ambito italiano ci tuteli totalmente, ma almeno ci dà la possibilità di controllare i dati nel nostro Paese.
Invece su questo è stato fatto sostanzialmente un passo indietro. In più, avete fatto una riformulazione e non so per quale ragione.
L'altra cosa che vorrei sottolineare del passo indietro riguarda praticamente parte del mondo del lavoro e dell'innovazione. Come diceva nel suo intervento il senatore Lombardo, siamo di fronte a una questione che nessuno di noi conosceva e conosce in modo definito. Siamo di fronte, come sappiamo tutti, a una potenzialità che in passato non è mai stata così veloce, perché ad esempio per la trasformazione industriale da manuale a meccanica, elettromeccanica e quant'altro c'è voluto del tempo e sono trascorsi degli anni. In questo caso, la trasformazione è molto più repentina. Non si investe e non si dà un messaggio forte alle imprese affinché si vada in questa direzione: si investe meno del 5 per cento in questo caso. Sottolineo che i dati del CNEL dicono che la nostra capacità di competizione internazionale è proprio carente riguardo all'innovazione, sia dal punto di vista dell'intervento sull'intelligenza artificiale, cioè dei processi, sia in merito alla formazione dei lavoratori e delle lavoratrici (e coloro che sono innovativi vanno all'estero).
Dovremmo cercare di ragionare su ciò che succede. Abbiamo una difficoltà e perdiamo terreno sulle innovazioni, quindi gli altri vanno più avanti di noi e noi siamo dipendenti, tant'è vero che molte imprese - lo diceva la senatrice Fregolent - vengono ad acquisire aziende italiane, anche piccole e medie, e ciò vale per il Piemonte, per la Lombardia e per tutte le Regioni. Dall'altro lato, i giovani che studiano vanno all'estero perché si trovano in una determinata condizione economica. Il rischio - parlo di rischio, quindi non dico che è un fatto certo - è di perdere la nostra capacità di tenuta dei rapporti produttivi. L'Italia è sempre stata molto dinamica e le piccole e medie imprese sono sempre state un grande valore per la capacità di competizione a livello internazionale, ma c'è il rischio di perdere tutto ciò.
Sulla questione della transizione 5.0 lasciamo perdere, non ne parliamo, perché noi ci siamo. Sulla formazione noi ci siamo. È il sapere che fa la differenza; in questo caso è il sapere, non il lato manuale.
Aggiungo un altro punto. Il problema è, se non ne discutiamo oggi, quale ricaduta possa avere tutto ciò sul mondo del lavoro. Scusate se sono abituato a fare riferimenti anche al passato; non è che sono nostalgico, ma cerco di leggere che cosa è avvenuto. L'innovazione meccanica, elettromeccanica e digitale ha prodotto una perdita di posti di lavoro, che in parte è stata contenuta dal fatto che l'orario di lavoro, da 48 ore a settimana, lo abbiamo portato a 44 e poi a 40. La questione dell'orario di lavoro in queste aziende, in particolare quelle a forte innovazione, bisogna affrontarla e occorre farlo oggi. L'impresa non è un qualcosa che fa beneficenza, per cui è giusto che abbia anche un profitto da reinvestire e occorre che lo investa in innovazione e nelle condizioni di lavoro, redistribuendo il lavoro. Non è una cosa astratta, ma una cosa concreta. Se alle persone diciamo che arriva l'intelligenza artificiale e che chissà quale disastro avverrà, avranno paura, avranno difficoltà, si chiuderanno in se stesse, diventeranno critiche e, anzi, contrasteranno l'innovazione, perdendo ulteriore capacità di concorrere. Dobbiamo essere dinamici su questo aspetto. Se si vuole introdurre fiducia, bisogna dire che si redistribuisce il lavoro, ovviamente a parità di salario.
Non sono un bolscevico, nel senso che non stiamo a discutere in questi termini. Stiamo a discutere di cose concrete, che producono sostanzialmente l'innovazione e il capitale.
Sul lavoro non c'è nulla ed è l'altra carenza di questo provvedimento, come non c'è nulla sulla difesa dei nostri artisti. Noi sostanzialmente siamo un Paese creativo e abbiamo tante persone che creano: ci sono intelligenza, capacità, arte; se però, con le piattaforme che ci sono, possono essere espropriati dalla proprietà del lavoro che svolgono, questo è un problema serio. E anche qui dove troviamo, in questo provvedimento, una discussione o un accenno a questo? Secondo il mio parere sarebbe compito della politica. Io non so se dobbiamo regolare e, nello stesso tempo, in qualche modo governare, ma credo che dobbiamo fare entrambe le cose, cioè dobbiamo cercare di governare una cosa, ovviamente anche coordinandola.
Certamente però c'è un dato, la ricaduta materiale. Un altro tema relativo al mondo del lavoro è ad esempio quello di ridurre la fatica degli uomini e delle donne che lavorano nelle fabbriche. L'intelligenza artificiale deve andare in questa direzione ed è possibile che lo faccia. Se andate in qualche realtà a visitare alcune aziende (non devo dirvelo io), vi accorgete che, rispetto a venti, a dieci, ma anche a cinque anni fa, ci sono strumenti e strumentazioni che sostanzialmente attenuano la fatica e quindi l'usura dei nervi. L'innovazione, l'automatizzazione e via dicendo producono sempre conseguenze. Negli anni Settanta e Ottanta la catena di montaggio produceva alienazione da una parte e malattie dall'altra, praticamente sui nervi delle mani, come il tunnel carpale e via dicendo, perché la manualità e la velocità producevano dei guasti.
Oggi non c'è dubbio che è la solitudine dei lavoratori che molto spesso produce bisogni diversi. Non basta lavorare, ma bisogna ridurre l'orario di lavoro e pensare a come si costruisce la felicità. L'uomo è fatto certamente di lavoro, ma anche di riposo e della capacità di curare, di guardare e di ammirare la bellezza. Creare felicità non è una bestemmia, perché, se si vuole ridurre l'orario di lavoro a 30 o 35 ore, è ovvio che si possono curare gli interessi familiari o una maggiore capacità di socializzazione. Bisogna pensare però a come dare queste risposte; non è che riduciamo l'orario per andare a fare il doppio lavoro. Questo è ciò che dobbiamo fare, cioè avere un po' di idee; ecco quello di cui vorrei che discutessimo.
La politica deve fare quello che il pragmatismo non può fare. Solo la politica può inventare delle cose e avere delle idee per risolvere queste questioni. Io non vedo altro. Su tutto questo c'è una discussione da fare, c'è una riflessione forte, su cui non è che qualcuno sia più avanti di altri, ma è disarmante che di tutto ciò non ci sia nulla in questo provvedimento. È per questo che Alleanza Verdi e Sinistra voterà convintamente contro. (Applausi).
RONZULLI (FI-BP-PPE). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
RONZULLI (FI-BP-PPE). Signor Presidente, oggi non votiamo soltanto un provvedimento, oggi stiamo scrivendo la Costituzione digitale dell'Italia. Ci troviamo di fronte alla più grande rivoluzione del nostro tempo, una tecnologia capace di trasformare tutto, dall'economia alla salute, alla scuola, al lavoro, fino alla politica stessa; una rivoluzione che non possiamo subire, ma che dobbiamo governare con intelligenza politica e responsabilità democratica.
Il provvedimento di oggi non è un salto nel buio, ma una scelta di visione. L'intelligenza artificiale non è neutrale, può salvare vite o minacciare libertà, può creare lavoro o può generare esclusioni, può rafforzare la democrazia o destabilizzarla. Sta a noi decidere da che parte stare.
Con questo provvedimento, l'Italia sceglie di guidare il cambiamento e non di inseguirlo: scegliamo di bilanciare rischi e opportunità, di arginare gli abusi, di moltiplicare i benefici. Pensiamo alla sanità: un medico, grazie all'intelligenza artificiale, può leggere una risonanza magnetica in pochi secondi, individuare un tumore in fase precoce, personalizzare una terapia in base al profilo genetico del paziente. L'intelligenza artificiale non sostituirà mai il medico, ma diventerà un alleato prezioso, uno strumento che rende la sanità più efficiente e più inclusiva.
Ancora, la ricerca scientifica: con questo disegno di legge promuoviamo sperimentazioni sicure, apertura dei dati, collaborazioni tra università, imprese e istituzioni. È un investimento sulla conoscenza e sui nostri giovani talenti, perché non vogliamo che i nostri migliori cervelli debbano cercare all'estero le condizioni per crescere e vogliamo che le trovino qui, a casa loro, in Italia. (Applausi).
Non dimentichiamo la scuola: l'intelligenza artificiale può personalizzare percorsi didattici, aiutare gli insegnanti a individuare difficoltà, includere chi ha bisogni diversi, ma nessun algoritmo potrà mai sostituire la guida, l'empatia, l'umanità di un docente. La tecnologia deve restare un supporto e non un surrogato.
Sappiamo che molti cittadini guardano con paura a questa rivoluzione e temono che l'intelligenza artificiale rubi posti di lavoro e renda inutili le competenze. Non è così: per questo il provvedimento prevede formazione continua, osservatori sul mercato del lavoro, strumenti di tutela contro le discriminazioni. L'intelligenza artificiale non è un nemico, è un amplificatore di produttività, una leva per rafforzare le nostre piccole e medie imprese, per sostenere il made in Italy, per difendere la nostra sovranità tecnologica.
Non possiamo nascondere i rischi: fake news, manipolazione dell'opinione pubblica, violazioni della privacy, attacchi informatici. Tutto questo è già realtà e Governo e maggioranza rispondono con una tempestività straordinaria ad un'emergenza democratica come il deepfake. Che cos'è il deepfake? È la capacità digitale di modificare voci, volti e immagini, danneggiando gravemente la reputazione delle persone e la fiducia dei cittadini nei confronti di quello che vedono e ascoltano. Lo abbiamo visto e letto quest'estate, ma ancor prima che l'opinione pubblica fosse scossa dallo scandalo di certi siti che hanno ferito e umiliato tante colleghe e tante donne, il Governo aveva già scelto di intervenire, perché da oggi chi utilizzerà l'intelligenza artificiale per violare la libertà e l'onore delle persone ne risponderà davanti alla legge. (Applausi). Da oggi il deepfake è una nuova fattispecie di reato con una pena detentiva da 1 a 5 anni. Un ringraziamento va ovviamente alla Commissione intelligenza artificiale per l'informazione, va ai sottosegretari Barachini e Butti, perché è una novità assoluta anche nel panorama europeo e internazionale.
Voglio rivolgere un ringraziamento anche alla Polizia postale per la rapidità e l'efficacia con cui ha chiuso quelle piattaforme e individuato i responsabili, smascherando la miseria di quei poveretti le cui sinapsi avevano fatto anche un lavoro straordinario per coniare il nome del sito, così straordinariamente originale (ovviamente, è un eufemismo).
Non solo: attraverso la tecnologia sono stati messi in atto una serie di crimini e ricatti sessisti, schermati dall'anonimato della Rete. Ebbene, Forza Italia, non con questo disegno di legge, ma con la proposta contenuta nel disegno di legge a prima firma del senatore Zanettin, già incardinato, vuole rispondere anche per le responsabilità editoriali delle piattaforme, con nuove tutele a garanzia dei cittadini, oggi indifesi rispetto al potere dei giganti del web, che saranno obbligati a collaborare con le autorità inquirenti per l'identificazione di questi vigliacchi, che si sentono dei leoni, ma non sono altro che dei conigli che si nascondono dietro nickname.
Tornando al disegno di legge in esame, il messaggio è netto: in Italia l'intelligenza artificiale non potrà mai diventare uno strumento contro la libertà, contro la legalità e contro la democrazia; allo stesso modo, non potrà mai essere un nemico della creatività, ma solo un suo supporto. Il nostro Paese non è solo industria ed economia: è cultura, è arte, è identità. Con il disegno di legge in discussione difendiamo il diritto d'autore, proteggiamo i nostri scrittori, i musicisti, i registi, impedendo che un algoritmo saccheggi il loro lavoro, perché l'innovazione ha senso solo se rispetta chi siamo.
Vorrei soffermarmi anche su un tema troppo spesso ignorato: la salute mentale dei nostri giovani, che vivono immersi in un mondo digitale che amplifica pressioni, modelli irraggiungibili di perfezione, rischi di isolamento. L'intelligenza artificiale può aggravare questi fenomeni, ma può anche diventare uno strumento prezioso per intercettare il disagio, per offrire sostegno, per affiancare e mai sostituire specialisti e professionisti, però sta a noi scegliere la strada giusta e il testo in esame indica la direzione. (Applausi).
Questo testo, frutto di un lungo e complesso lavoro parlamentare, ha rafforzato la tutela dei dati personali (il nuovo petrolio della nostra epoca), la trasparenza degli algoritmi, la sicurezza nazionale, ha previsto l'istituzione di un organo di vigilanza indipendente. È una cornice chiara, fondata sulla centralità della persona, sui principi della nostra Costituzione; con questo provvedimento l'Italia si è data una cornice legislativa importante, un segnale di serietà e responsabilità. Sul piano della competitività, però, c'è da fare una riflessione: da una parte c'è l'Europa con l'AI Act di oltre 300 pagine, che solo a leggerlo ci mettiamo mesi e che rallenta i tempi di reazione, dall'altra ci sono Paesi come il Giappone (poco fa ho visitato l'AI Center dell'Università di Tokyo) che affidano tutto all'autoregolamentazione delle aziende; mentre lì, quindi, l'innovazione corre, qui è frenata da vincoli e regole e questo squilibrio pesa sulla nostra capacità di competere. Regolamentare è giusto, ma non possiamo permettere che la burocrazia diventi la zavorra che frena il futuro dell'Europa e dell'Italia. (Applausi). Nell'era in cui tutto si contamina e si sovrappone senza standard comuni globali, imporre regole solo ad alcuni rischia di essere abbastanza ipocrita, se vogliamo, ma soprattutto di trasformarsi in un freno competitivo.
Vorrei rispondere, per suo tramite, signor Presidente, al senatore Lombardo che ha fatto l'esempio della Cina, dicendo che ha investito - credo - 11 miliardi nell'intelligenza artificiale. Davvero vogliamo fare il paragone con la Cina, confrontare 11 miliardi con il nostro miliardo? Parliamo di un Paese con 1,4 miliardi di abitanti, con un PIL di quasi 18.000 miliardi; l'Italia ha 60 milioni di abitanti e un PIL di 2.300 miliardi ed è evidente che è un paragone insensato. Ho citato prima il Giappone che ha 124 milioni di abitanti, il doppio dell'Italia, e un PIL di 4.200 miliardi, il doppio del nostro. Ebbene, il Giappone ha investito un miliardo, esattamente come il nostro Paese, come l'Italia. Allora piantiamola con questa facile propaganda. (Applausi).
Concludendo, questo disegno di legge è la prova che possiamo tenere insieme tutto: libertà e sicurezza, sviluppo e tutela, impresa e diritti. Per questo, annuncio il voto favorevole del mio Gruppo, perché crediamo che l'intelligenza artificiale, regolata con l'intelligenza politica, possa diventare l'alleata più potente dell'uomo e allora sì, approvandolo oggi, scriviamo davvero tutti insieme la pagina più importante dell'Italia digitale. (Applausi).
NAVE (M5S). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
NAVE (M5S). Signor Presidente, onorevoli colleghi, membri del Governo, oggi siamo qui per verificare il completamento dell'iter di un provvedimento che finalmente traghetta l'Italia nell'era dell'intelligenza artificiale ed anche per prendere quelle decisioni che poi, inevitabilmente, incideranno sul nostro modello industriale, democratico e anche tecnologico.
È quindi un provvedimento di portata storica, signor Presidente. Noi sapevamo che un tale provvedimento non doveva assolutamente avere delle ombre e che non dovevamo sbagliare. Eppure, ancora una volta, anche se in terza lettura, ricordando che questo disegno di legge lo avevamo già licenziato a marzo in prima lettura, ci troviamo con un provvedimento debole, privo di una visione programmatica.
Diciamo che, fondamentalmente, non è all'altezza della sfida che ci aspetta, perché l'intelligenza artificiale non è un fenomeno da annunciare, ma è un processo che va governato. Essa rappresenta la più grande trasformazione del nostro tempo. È il futuro che bussa alla porta. In verità, direi che la porta l'ha già aperta, gira già per casa.
Noi viviamo già nel metaverso nel mondo delle informazioni. Sappiamo che l'IA riscriverà i processi in ogni settore: dell'occupazione, della pubblica amministrazione, del settore economico, finanziario, industriale ed anche di quello sociale.
Pertanto, una visione strategica, seppur necessaria, diventa però insufficiente, se ad essa non vengono affiancati un investimento mirato oppure dispositivi di protezione normativa indispensabili per la tutela dei soggetti coinvolti e per garantire un impatto concreto e sostenibile. Insomma, non basta annunciare lo stanziamento di un miliardo per mostrarsi capaci di una reale trasformazione tecnologica e, nel dettaglio, mostrarsi in grado di costruire un ecosistema tecnologico nazionale.
Vorrei ricordare a chi è intervenuto prima di me che la Francia, a cui noi a volte guardiamo, ha impegnato 100 miliardi per l'intelligenza artificiale. Eppure, questa cifra non corrisponde al totale degli abitanti della Cina. Quindi, per noi risulta ancora una volta disastroso il confronto. La Francia ha messo in campo 100 miliardi, articolati su più livelli e con una forte componente industriale. La Germania, invece, ha attivato partnership strategiche con attori globali, investendo in ricerca e formazione.
Anche questa volta, il Governo Meloni ha intrapreso una strada giusta, quella che, in realtà, ci farà perdere non solo in competitività, ma ci farà diventare anche dipendenti da tecnologie sviluppate altrove, questo è il pericolo, acquistando soluzioni chiavi in mano da soggetti esteri, compromettendo gravemente ogni ambizione di sovranità digitale, questo da parte dei sovranisti, ed esponendo poi il sistema nazionale a forme di subordinazione tecnologica.
Signor Presidente, mi preme fare un passaggio sul costo dell'energia, perché sappiamo perfettamente che l'energia rappresenta una variabile critica nell'implementazione dell'intelligenza artificiale, con implicazioni dirette sulla sostenibilità e sulla competitività del settore. Sappiamo perfettamente che l'implementazione su larga scala dell'IA comporta un fabbisogno energetico estremamente elevato, che richiede interventi strutturali robusti e lungimiranti per garantire la competitività e sostenere l'innovazione tecnologica nel nostro Paese.
Tuttavia, signor Presidente, sappiamo perfettamente che, in assenza di una risposta efficace a un problema che già oggi mette in ginocchio il tessuto produttivo e incide negativamente sul potere d'acquisto delle famiglie degli italiani, ogni prospettiva di crescita nel settore dell'IA rischia di essere compromessa. Se il Governo, già fallimentare sul caso energia, che sta frenando le nostre risorse e le nostre imprese e mette in ginocchio gli italiani, non affronta in modo sistematico e risolutivo la questione dei costi energetici, io non so come potrà sostenere una transizione digitale autonoma e competitiva. (Applausi).
Signor Presidente, come dicevo, l'intelligenza artificiale, in realtà, la troviamo già per casa, non è il futuro che bussa alla porta, e agisce con ritmi di sviluppo che sfuggono perfino alla nostra capacità di previsione. Non solo la Francia e la Germania, ma molti Paesi, a livello globale, si stanno attrezzando: investono, formano e costruiscono ecosistemi. Mentre l'Italia, con questo provvedimento, ignora l'aspetto della formazione delle nuove generazioni, dei docenti e dei professionisti, alcuni Paesi hanno già introdotto l'educazione all'intelligenza artificiale nelle scuole primarie, quindi è chiaro che c'è un problema da affrontare.
Uno dei tanti temi su cui eravamo scettici già sul primo provvedimento era quello della trasparenza, poiché il provvedimento in esame risulta carente sotto il profilo della tutela dei diritti fondamentali, in quanto non prevede strumenti idonei a garantire ai cittadini la possibilità di comprendere, monitorare e contestare decisioni automatizzate, che incidono direttamente sulla loro sfera personale e giuridica. In particolare poi si tratta dei casi in cui l'algoritmo sostituisce il giudizio umano. Lì si rendono necessarie esplicite garanzie dei criteri decisionali adottati perché già la giurisprudenza amministrativa si è espressa, stabilendo l'illegittimità di provvedimenti algoritmici non mediati da un intervento umano qualificato.
In questo provvedimento, Presidente, non si recepisce tale orientamento e si omette di disciplinare il diritto all'informazione e il diritto all'opposizione e si espongono quindi i cittadini a rischi concreti di lesione dei propri diritti.
Presidente, anche sull'aspetto del lavoro sappiamo quanto l'intelligenza artificiale non si limiti a incidere sulle mansioni manuali attraverso l'automazione robotica, ma lavori già a livello delle trasformazioni profonde nella professione creativa e in quelle tecniche e intellettuali. Il provvedimento non contempla misure volte a prevenire la sostituzione indiscriminata di lavoratori da parte di sistemi automatizzati. Non sono previste norme che vietino i licenziamenti algoritmici né risorse dedicate alla formazione, alla riqualificazione professionale o all'accompagnamento nella transizione occupazionale.
Sappiamo già che entro il 2030 l'intelligenza artificiale metterà a rischio quasi 6 milioni di posti di lavoro. Ignorare tale scenario equivale a una grave omissione di responsabilità istituzionale, con potenziali effetti destabilizzanti sul tessuto economico e sociale del Paese.
Noi, come MoVimento 5 Stelle, Presidente, abbiamo prodotto una serie di misure finalizzate a vietare l'impiego dell'intelligenza artificiale, per finalità belliche e armamenti offensivi. L'abbiamo fatto per assicurare il coinvolgimento effettivo delle lavoratrici e dei lavoratori nelle parti sociali e degli enti territoriali nei processi decisionali. Abbiamo deciso di imporre criteri di trasparenza sugli algoritmi che incidono su aspetti rilevanti della vita delle persone. Abbiamo proposto emendamenti per introdurre sistemi di monitoraggio per i disastri ambientali, promuovere la riduzione dei consumi energetici associati all'uso dell'intelligenza artificiale ed incentivarne l'utilizzo a supporto delle comunità colpite da eventi climatici estremi, tutelare i dati personali delle cittadine e dei cittadini, impedendo che diventino oggetto di speculazione da parte di grandi operatori tecnologici.
Insomma, Presidente, questa è la nostra idea di intelligenza artificiale: uno strumento al servizio dell'amministrazione, dell'economia e della collettività e non certo un rischio da subire passivamente.
Ancora una volta, per questi motivi, Presidente, annuncio il voto contrario del MoVimento 5 Stelle. (Applausi).
GERMANA' (LSP-PSd'Az). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
GERMANA' (LSP-PSd'Az). Signor Presidente, onorevoli colleghi, con questa proposta di legge, oggi quest'Assemblea si trova davanti a una sfida che non è soltanto tecnologica, ma profondamente politica, culturale ed economica: la sfida di garantire all'Italia un posto da protagonista nella rivoluzione dell'intelligenza artificiale, senza svendere la nostra sovranità, i nostri valori e soprattutto il nostro lavoro.
La Lega vota a favore di questa legge, perché ne riconosce il valore strategico. Finalmente dotiamo il Paese di un quadro normativo nazionale che possa dialogare con l'AI Act europeo, senza subirlo passivamente, difendendo gli interessi dell'Italia e costruendo un modello di sviluppo tecnologico che abbia al centro la persona, il lavoro, la sicurezza e il buonsenso.
Con interventi come questo, il nostro Paese contribuisce a colmare quel ritardo sul tema che caratterizza l'Europa rispetto ad altri Paesi come gli Stati Uniti e la Cina. Gli obiettivi generali di questa legge sono il rafforzamento della competitività italiana e garantire ai cittadini l'uso affidabile e responsabile dell'intelligenza artificiale, assicurando la supervisione umana in ogni fase di sviluppo e di utilizzo dei sistemi di intelligenza artificiale e la congiunta tutela dei diritti fondamentali.
È un disegno di legge che compendia in un unico testo normativo in modo omogeneo tutti i principi e le regole necessari a supportare la visione strategica nazionale in tema di intelligenza artificiale, consentendo alle imprese e ai cittadini di cogliere le opportunità che tali tecnologie possono portare in modo corretto, trasparente e responsabile, sempre e comunque in una visione antropocentrica che mette al centro la persona.
Inoltre, il contesto geopolitico in atto e l'esigenza di far sì che lo sfruttamento dell'intelligenza artificiale mantenga in ogni contesto la centralità umanistica confermano la straordinaria rilevanza della materia per la sicurezza, lo sviluppo e il benessere del Paese e ciò trova una significativa conferma nelle disposizioni che introducono un'apposita strategia nazionale per l'intelligenza artificiale, stabilendo che i suoi esiti applicativi vengano doverosamente portati all'attenzione delle Camere in omaggio alla centralità del Parlamento.
L'intelligenza artificiale cambierà profondamente il mondo del lavoro, nuove professioni nasceranno, ma altre rischiano di sparire e noi questo non lo vogliamo, ovviamente, e vogliamo che nessun lavoratore venga lasciato indietro. Ecco perché giudichiamo positivamente gli interventi dedicati alla formazione professionale, all'aggiornamento continuo, al monitoraggio dell'impatto occupazionale, ma chiediamo che questi strumenti non restino sulla carta: devono tradursi in investimenti concreti, coinvolgendo Comuni, Regioni, imprese, enti di formazione e il mondo della scuola.
Un altro tema fondamentale è quello delle piccole e medie imprese, che rappresentano, com'è sempre stato, il cuore pulsante dell'economia dell'Italia. Oggi solo una piccola parte delle nostre piccole e medie imprese ha avviato progetti di intelligenza artificiale, ma non perché manchino la voglia di innovare o le professionalità, ma perché mancano le risorse e l'accesso agli strumenti previsti è reso complicato dalla troppa burocrazia, come spesso accade. Servono incentivi mirati, i crediti di imposta, consulenza tecnica sul territorio, sportelli pubblici che aiutino gli imprenditori a capire come e dove applicare l'intelligenza artificiale, altrimenti rischiamo che solo le grandi aziende, che spesso hanno anche sedi legali all'estero, traggano beneficio da questa transizione. Il digitale deve essere al servizio delle persone e non viceversa e le nuove tecnologie possono aiutare soprattutto dove lo Stato è più distante: nei piccoli Comuni, nelle aree interne dove mancano gli sportelli, ma dove c'è una rete civica che può essere potenziata con strumenti semplici e intelligenti. La pubblica amministrazione non può più avere alibi, l'interfaccia uomo-macchina oggi è sempre più intuitiva, non serve essere ingegneri per usare l'intelligenza artificiale, quindi è giunto il momento di riformarla davvero con coraggio, responsabilità e concretezza.
In conclusione, il voto favorevole della Lega è un voto per un'Italia padrona del proprio destino tecnologico, che non ha paura dell'innovazione, ma pretende che essa sia al servizio del Paese, del lavoro e della dignità delle persone. (Applausi).
BASSO (PD-IDP). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
BASSO (PD-IDP). Signor Presidente, 552: questo è il numero del fallimento del Governo Meloni sulla grande sfida dell'intelligenza artificiale; 552 giorni sono passati da quando l'Italia ha avuto l'opportunità storica di guidare il G7 su industria, tecnologie e digitale, un'occasione sprecata. Era il 15 marzo 2024, ad oggi sono passati appunto 552 giorni e in questo tempo il mondo ha corso come mai prima d'ora nella storia, mentre questo vostro provvedimento - lo vedete - no. Oggi discutiamo una legge già vecchia, che non stanzia un euro, vorrei ricordarlo a tutti quelli che dicono che questo provvedimento stanzia delle risorse. All'articolo 27, la clausola di invarianza finanziaria stabilisce che dall'attuazione della presente legge non devono derivare nuovi o maggiori oneri a carico della finanza pubblica. Si gioca con le risorse di Cassa depositi e prestiti date da altri Governi come con i carri armati di Mussolini: si spostano le risorse e si dice di coprire con queste gli investimenti del Paese, ma non avete stabilito nessuna risorsa. (Applausi).
Quello che fa questo provvedimento è introdurre nuovi reati invece di costruire regole, diritti, incentivi per lavoratori, imprese e pubblica amministrazione. Al Paese non servono titoli o bandierine da esibire, serve una politica industriale dell'intelligenza artificiale seria e all'altezza delle sfide che attendono il nostro Paese. Fuori da quest'Aula, in questi 552 giorni, il mondo è andato veloce, la frontiera si è spostata, in pochi mesi sono arrivati modelli capaci di parlare, vedere, capire in tempo reale, l'IA è entrata direttamente nei motori di ricerca, sui nostri dispositivi, senza più passare dal cloud. L'IA è entrata ovunque, dalla scuola al cinema, dai giornali alla politica, in ogni luogo, nelle nostre case. Ecco la cifra di questa rivoluzione: complessità e velocità.
Servivano risposte rapide e forti e, mentre voi perdevate tempo, altri hanno agito. Nel Regno Unito, un Paese assolutamente comparabile al nostro per abitanti, hanno investito fino a 2 miliardi di sterline per rafforzare l'ecosistema di calcolo pubblico e per la formazione. Negli Stati Uniti vi sono finanziamenti federali in infrastruttura pubblica per l'IA nella ricerca e assegnazioni plurimiliardarie alla filiera dei semiconduttori. In Francia: oltre 10 miliardi per l'adozione dell'IA nelle imprese. In Giappone - forse avete qualche dato sbagliato - sono stati finanziati con 10.000 miliardi di yen - che al cambio attuale sono 65 miliardi di dollari - oltre 5 miliardi per chip avanzati e produzione a due nanometri. Ecco la differenza tra gli annunci e le decisioni.
Questi numeri raccontano un'epoca in cui è la tecnologia a disegnare i nuovi confini del potere. I conflitti degli ultimi anni hanno mostrato che il fronte non è più nei prezzi dei barili di petrolio, ma nei dati, nei chip, nella potenza di calcolo. La Russia prova a non perdere centralità aprendo fronti di guerra, invadendo Stati sovrani, usando disinformazione e ricatti energetici come leve di pressione. La Cina ha imparato dalla stagione delle prime rivoluzioni industriali - quello che loro chiamano il loro secolo dell'umiliazione - e si è mossa per tempo per assicurarsi catene di fornitura, materie critiche e sovranità tecnologica, che l'hanno portata ad essere oggi la nuova superpotenza mondiale.
L'Italia invece è rimasta ferma: ha festeggiato i dazi americani, ha chinato la testa su standard e tutela dei dati. No, collega Gelmini: l'Italia è stata anche in passato una grande potenza tecnologica e dell'innovazione. Fisici, ingegneri e imprese hanno fatto grande l'Italia nella seconda rivoluzione industriale, con il più grande boom economico del Paese. È oggi, in questo scenario, che il Governo non sta facendo nulla: affida deleghe - altre centinaia di giorni persi - e senza coperture economiche; introduce nuovi reati penali perché non hanno costi; tace su accesso al calcolo, competenze, standard tecnici, trasparenza dei contenuti sintetici. Così non si governa l'IA, la si spettacolarizza soltanto. (Applausi).
Le cause di questo fallimento sono chiare: frammentazione delle responsabilità dell'intero Governo, guerre interne su deleghe e visibilità, annunci e smentite. Assumetevi la responsabilità politica fino in fondo. Smettete di dire che la colpa è di chi c'era prima. Ieri al Ministero dello sviluppo economico c'era l'onorevole Giancarlo Giorgetti, che oggi è Ministro dell'economia e delle finanze. Ieri al suo fianco come vice c'era l'onorevole Pichetto Frattin, che oggi è Ministro dell'ambiente e della sicurezza energetica. Quando fate finta di scaricare le colpe sul passato, inscenate soltanto una farsa dovuta ai vostri conflitti di maggioranza. Oggi governate voi, oggi scrivete i bilanci voi, oggi decidete le priorità voi. Lo ripeto, assumetevi le vostre responsabilità. (Applausi).
Lo dico anche al Parlamento. Ho già ricordato le responsabilità di quest'Assemblea durante la discussione sulla norma del "tutto sui server italiani". Noi proponemmo - con un mio emendamento - una soluzione selettiva e seria: protezione rafforzata per i dati strategici e sensibili, non un cappio burocratico su qualsiasi dato. In Aula ci avete risposto che si poteva salvaguardare tutto; poi alla Camera siete tornati indietro e oggi non salvaguardate nemmeno l'essenziale. Non è polemica, ma è quanto accaduto ancora qui pochi minuti fa. È una delle cause dei vostri ritardi e non è l'unico caso.
Noi abbiamo provato a migliorare questa norma, ad esempio sul lavoro - lo ha ricordato la collega Camusso - perché l'innovazione va accompagnata con diritti e formazione, sulla tutela da deepfake violazioni del diritto d'autore con il collega Nicita. Abbiamo anche proposto la costituzione di un'autorità indipendente, capace di garantire i diritti senza trasformare l'IA in un labirinto di reati e cavilli tecnici. Molti di questi emendamenti sono stati respinti per pregiudizio, come quello sui dati strategici. Abbiamo avanzato altre proposte pratiche e finanziabili: accesso al calcolo per piccole e medie imprese e ricerca tramite un consorzio nazionale che eroghi crediti di calcolo con criteri di efficienza energetica; un fondo competenze per lavoratori, pubblica amministrazione e management su sicurezza, dati e processi; centri sandbox nella pubblica amministrazione per casi low risk con metriche aperte; trasparenza dei contenuti sintetici; una task force contro i deepfake; regole per i data center: efficienza, riuso del calore, una corsia veloce solo a chi si impegna con rinnovabili e piani di flessibilità della rete. Le alternative c'erano e le abbiamo presentate, non per fermare l'innovazione, ma per governarla, abilitare dove serve, proteggere dove serve.
La complessità e la velocità dei cambiamenti tecnologici stanno ridisegnando poteri e dipendenze: dati, calcolo, energia valgono oggi quanto ieri petrolio e rotte commerciali. C'è chi ha imparato la lezione del proprio "secolo dell'umiliazione" e investe per non dipendere da altri.
L'Italia, per colpa del Governo Meloni, si presenta a questa sfida senza risorse e senza visione. Non possiamo permettere che questo diventi il secolo dell'umiliazione per l'Italia; la sfida che abbiamo davanti è troppo importante per il futuro del Paese. Al Governo continueremo a chiedere di mettere risorse vere su calcolo, competenze, standard e trasparenza, di dare una regia unica, smettendo le guerre interne tra Ministeri, di aprire una stagione di sperimentazione nella pubblica amministrazione che mostri al Paese che l'intelligenza artificiale si può usare bene, con regole chiare, diritti esigibili, incentivi e responsabilità. Oggi avete scelto di essere il Governo del rinvio e non quello del futuro: solo slogan e nessuna risorsa. È per questo che il Partito Democratico voterà contro questo provvedimento. (Applausi).
DE PRIAMO (FdI). Domando di parlare per dichiarazione di voto.
PRESIDENTE. Ne ha facoltà.
DE PRIAMO (FdI). Signor Presidente, Governo, colleghi, ci apprestiamo oggi ad approvare un provvedimento di particolare importanza e di valore strategico. Non vi è infatti dubbio che l'intelligenza artificiale rappresenti un cambiamento epocale, la rivoluzione industriale del nostro tempo. Come all'epoca fu per la macchina a vapore, per il motore a scoppio e per l'elettricità, oggi l'intelligenza artificiale è al centro di questo processo. Basti pensare che l'attuale pontefice Leone XIV ha scelto il suo nome anche in ossequio al predecessore Leone XIII, che pose il problema della questione sociale proprio nel contesto della rivoluzione industriale.
Voglio ringraziare il Governo e in particolar modo il sottosegretario, il collega senatore Butti, che ha guidato questo percorso con grande attenzione alle istanze del Parlamento (non solo della maggioranza), tanto che la dinamica parlamentare in questo caso è stata ampiamente rispettata, con una terza lettura e con interventi emendativi sul testo sia al Senato sia alla Camera. Possiamo davvero dire che in questo caso il Parlamento ha svolto in pieno la sua funzione.
I capisaldi di questo disegno di legge sono da un lato l'attenzione alla crescita e alla capacità di attrarre e veicolare investimenti e dall'altro l'attenzione alla sicurezza e alla protezione degli utenti, con la messa in campo di un quadro regolatorio adeguato. Non era facile attuare e mettere in campo regole che non appesantissero ulteriormente la normativa europea, ma che invece la rafforzassero, tutelando la nostra sovranità nazionale. Quest'obiettivo è stato raggiunto, tanto che questo testo, frutto del lavoro del Governo e del Parlamento, proprio in questi giorni è oggetto di osservazione e di valutazioni positive a livello internazionale.
Certo, c'è il tema dell'Europa in questo senso. Proprio ieri abbiamo ascoltato il presidente Draghi rinnovare le sue critiche all'Europa, anche sotto l'aspetto di una iper-regolamentazione che toglie competitività. A questo proposito, ci ha sorpreso ascoltare in quest'Aula i colleghi di Italia Viva e di Azione (penso in particolar modo ai colleghi Fregolent e Lombardo), che per anni, insieme alle loro forze politiche, ci hanno detto che l'Unione europea era la soluzione, dire oggi che invece è il problema. Come dire, meglio tardi che mai.
Da questo punto di vista, certo, l'Europa regolamenta troppo, ma forse in questo caso dobbiamo dire che sull'intelligenza artificiale, al di là delle pesantezze di alcuni eccessivi aspetti burocratici della normativa europea, era doverosa e necessaria una regolamentazione a livello continentale. La normativa europea rappresenta comunque un punto di riferimento importante dal punto di vista della civiltà giuridica. Infatti il divario che abbiamo rispetto, ad esempio, agli USA e alla Cina su questo tema è legato sicuramente di più all'aspetto degli investimenti messi in campo negli anni che non a quello della regolamentazione, se è vero, com'è vero, che gli Stati Uniti non sono privi di legislazione, come si pensa, ma anzi stanno mettendo in campo delle legislazioni statali, che per definizione sono meno uniformi e omogenee rispetto a quella europea.
È sicuramente un passaggio e una conquista di civiltà importante quella europea, nella quale la legge italiana che andremo ad approvare si inserisce organicamente, senza appesantire - questo è il rischio - il sistema. Proprio il comma 2 dell'articolo 1 evidenzia questa complementarietà tra i due strumenti. L'obiettivo di fondo è regolare sotto il profilo della sicurezza senza perdere terreno su quello dello sviluppo tecnologico, anche attraverso la delega al Governo su temi delicati e fondamentali come l'addestramento dei sistemi e degli algoritmi.
Questo testo si fonda su principi chiari: trasparenza, proporzionalità, sicurezza e protezione dei dati personali, riservatezza, accuratezza, pari opportunità e sostenibilità. Sui sistemi di intelligenza artificiale si giocano grandi sfide, anche legate alla tutela dei diritti fondamentali della persona. In questo senso diverse norme esprimono la necessità di tutelarsi da ingerenze e interferenze, sia nella gestione dei dati che dei contenuti. Pensiamo alle tante, troppe autocrazie al governo oggi in importanti e ampie parti del mondo, magari ossessivamente legate al controllo della vita della persona, come accade in Cina, anche se - piccolo inciso - forse solo l'ex presidente D'Alema sembra non essersene accorto. (Applausi).
Diventa quindi fondamentale il tema di un'etica nell'intelligenza artificiale. Pensiamo alla tutela dei minori (Applausi), sulla quale il testo fa riferimento al codice della privacy e alla necessità del consenso dei genitori. È un tema, quello della tutela dei minori, su cui intendiamo fare ulteriori passi avanti, perché è fondamentale e su cui non cederemo di un millimetro. (Applausi).
Sotto il profilo degli investimenti, poi, viene data attenzione, con l'articolo 5, al tema della robotica, sul quale il Governo Meloni sta investendo per rilanciare la nostra vocazione creativa e industriale, sostenendo la piccola e media impresa, in particolare le microimprese. Da questo punto di vista, a chi dell'opposizione si è lamentato perché ha ritenuto non sufficiente lo stanziamento fino ad oggi di un miliardo di euro, segnaliamo che noi questo miliardo ce lo abbiamo messo e non ci risulta che lo abbia fatto chi ci ha preceduto. (Applausi).
Tornando alla tutela, l'articolo 8 prevede un'adeguata e dettagliata comunicazione al Garante dei dati personali per quanto riguarda i processi di sperimentazione e di ricerca, che sappiamo essere pure un tema sensibile, affinché siano sviluppati nel rispetto della protezione dei dati personali e degli utenti. Viene anche istituito un comitato di coordinamento di fondamentale importanza fra tutte le autorità che sono adibite a gestire questo fenomeno, sia in fase regolatoria sia in fase sanzionatoria o di controllo.
Insomma, stiamo facendo un passo importante senza paura, ma anche senza leggerezza, verso un futuro che in realtà è già presente e che era nella mente umana già da decenni, se è vero, senza scomodare Asimov o la letteratura distopica, che si parla di intelligenza artificiale già in un articolo di Alan Turing, inventore del computer nel 1950. L'intelligenza artificiale si realizza, però, solo dopo che i dati a disposizione dell'uomo, in soli 15 anni, si sono moltiplicati di 90 volte rispetto a tutti quelli accumulati in tutte le biblioteche del mondo nei precedenti 5.000 anni, da quando per la prima volta un uomo tracciò dei segni cuneiformi su una tavola d'argilla in Mesopotamia. Il tema dei dati apre anche questioni fondamentali ovviamente sulla sfida energetica e sugli scenari globali, tanto che, appunto, si deve ragionare in termini di ecosistema.
Questo cambiamento, come dicevamo, non ci spaventa e anche temi molto seri e delicati, come le ricadute occupazionali o l'utilizzo superficiale dell'intelligenza artificiale (pensiamo anche qui al tema educativo e al rischio che diventi uno strumento sostitutivo della mente umana), possono e devono essere governati.
Per quanto riguarda il tema occupazionale, negli Stati Uniti, che oggi sono sicuramente molto più avanti rispetto all'Europa dal punto di vista degli investimenti sull'intelligenza artificiale, ad oggi il saldo occupazionale è positivo. È vero, infatti, che molte professioni si andranno a ridefinire, anche a perdere, ma ce ne sono tante altre che si possono generare, se si lavora con attenzione a questo tema.
Questo processo va quindi guidato e non subìto. Quale esempio migliore per esercitare e riconquistare la sovranità della politica? La sfida è rimettere insieme il nomos e la paideia, le regole giuridiche e la formazione dei cittadini, sviluppare consapevolezza nella società ed orientarsi in questo continuo mutamento. Insomma, l'intelligenza artificiale deve essere al servizio dell'intelligenza umana e non il contrario. (Applausi).
Come dicevamo, è una sfida anche etica, perché l'attualità ci porta brutalmente all'attenzione casi come quelli del giovane sedicenne che si è suicidato negli Stati Uniti probabilmente dopo un contraddittorio, un confronto con l'intelligenza artificiale, o anche casi di violenti omicidi politici come quello di Charlie Kirk, che potrebbero essere stati indotti da false informazioni attinte all'intelligenza artificiale e alla rete, così come molti altri casi. Del resto, il nostro presidente del Consiglio Giorgia Meloni ha dato un segnale chiaro a tutto il mondo sull'importanza di questi temi, invitando per la prima volta un Pontefice al G7 per parlare proprio di intelligenza artificiale.
Insomma, l'intelligenza artificiale deve essere uno strumento per migliorare la vita e il benessere del genere umano. In questo senso ci aiuta - e vado a concludere, signor Presidente - una nota citazione di Immanuel Kant che dice: «Agisci in modo da trattare l'umanità, sia nella tua persona sia in quella di ogni altro, sempre come fine e mai come mezzo.». L'intelligenza artificiale deve cioè essere un mezzo sicuramente importante, ma la persona umana, la sua dignità, la sua unicità deve essere e sempre sarà un fine.
Per questo dichiaro il voto favorevole del mio Gruppo sul provvedimento in esame. (Applausi).
PRESIDENTE. Ai sensi dell'articolo 120, comma 3, del Regolamento, indìco la votazione nominale con scrutinio simultaneo del disegno di legge, nel suo complesso.
(Segue la votazione).
Il Senato approva. (v. Allegato B). (Applausi).