L’Italia conquista un ruolo da protagonista nello sviluppo europeo dell’Intelligenza Artificiale grazie a IT4LIA – L’Italia per L’Intelligenza Artificiale, una delle 13 AI Factory europee annunciate nel quadro dell’AI Continent Action Plan presentato il 9 aprile dalla Commissione europea.
Entro la fine del 2025, nel data center Cineca situato presso il complesso DAMA Tecnopolo Data Manifattura Emilia-Romagna di Bologna, si prevede la realizzazione del nuovo supercalcolatore che affiancherà il sistema Leonardo.
L’iniziativa – alla quale prende parte anche AgID – promette di trasformare il tessuto produttivo del Paese e rafforzare la competitività delle imprese italiane grazie a infrastrutture all’avanguardia e servizi specialistici dedicati a PMI, start-up, pubblica amministrazione e mondo della ricerca.
Il progetto si propone di istituire un ecosistema aperto capace di facilitare l’adozione delle tecnologie di intelligenza artificiale. Una delle innovazioni chiave è l’acquisizione di un supercomputer ottimizzato per applicazioni AI, che integrerà il sistema Leonardo e vedrà la sua prima partizione operativa nel 2025 presso il data center Cineca a Bologna.
IT4LIA avrà il compito di costruire un ecosistema di innovazione capace di accelerare la competitività dell’Italia nel settore dell’intelligenza artificiale e di favorire il trasferimento tecnologico a tutto il tessuto produttivo del Paese.
Il progetto IT4LIA è cofinanziato al 50% dalla Commissione Europea e al 50% dalla partecipazione italiana del Ministero dell’Università e della Ricerca, dell’Agenzia per la Cybersicurezza Nazionale, della Regione Emilia-Romagna, dell’Istituto Nazionale di Fisica Nucleare, di AI4I Istituto italiano di Intelligenza Artificiale per l’Industria, della Fondazione Bruno Kessler, dell’Agenzia ItaliaMeteo e di Cineca, che svolge il ruolo di hosting entity e di coordinatore del progetto.
Anche AgID partecipa al progetto come parte interessata; al termine della fase di implementazione dell’infrastruttura HPC, l’Agenzia potrà assumere un ruolo attivo nel monitoraggio dello strato applicativo dei servizi.
Insieme ai cofinanziatori e ai numerosi partner, l’iniziativa si avvarrà inoltre di una serie di aggregatori, distribuiti sul territorio nazionale, che svolgeranno il ruolo di porte di ingresso (gate), coinvolgendo i centri di competenza Industria 4.0, i digital innovation hub, le facility di test e sperimentazione, i centri di eccellenza in HPC.
La partecipazione dell’Italia al progetto IT4LIA, nell’ambito dell’iniziativa europea AI Factory, rappresenta un momento strategico di rilevante importanza nel processo di costruzione di un ecosistema continentale dell’intelligenza artificiale che sia coerente con i valori fondanti dell’Unione Europea. Il progetto è descritto dall’Agenzia per l’Italia Digitale come un’occasione per posizionare il Paese tra i protagonisti dello sviluppo tecnologico europeo, non soltanto sotto il profilo industriale ma, soprattutto, nella definizione di un’intelligenza artificiale giuridicamente conforme, eticamente sostenibile e socialmente inclusiva.
In un contesto europeo che ha da poco visto l’adozione del Regolamento (UE) 2024/1689 sull’intelligenza artificiale, noto come AI Act, l’iniziativa IT4LIA si presenta come una delle prime implementazioni pratiche di quella visione normativa. L’obiettivo del progetto non è semplicemente tecnologico, ma si configura come una risposta politica e regolatoria alle tensioni che attraversano la digitalizzazione contemporanea: la tutela dei diritti fondamentali, la gestione del rischio algoritmico, la sostenibilità sociale e la sovranità tecnologica.
Il riferimento esplicito all’intelligenza artificiale “legale” e “inclusiva” suggerisce la volontà di affrontare, sin dalla fase progettuale, le problematiche più controverse emerse nel dibattito dottrinale e giurisprudenziale in materia di tecnologie predittive e automatizzate. La legalità, in questo contesto, non è meramente intesa come conformità formale alle norme positive, ma come rispetto sostanziale dell’impianto assiologico europeo, incentrato sulla dignità della persona, sulla non discriminazione e sulla trasparenza procedurale.
Il primo nodo giuridico che si impone all’attenzione dell’interprete riguarda il rapporto tra l’AI Act e il Regolamento generale sulla protezione dei dati personali (Regolamento (UE) 2016/679 – GDPR). Se il secondo stabilisce il quadro normativo per il trattamento lecito, proporzionato e sicuro dei dati personali, il primo introduce obblighi specifici per i sistemi di IA, con particolare riferimento a quelli classificati come ad alto rischio. L’AI Act prevede requisiti stringenti in materia di documentazione tecnica, tracciabilità, accuratezza, robustezza e supervisione umana. Tali obblighi si intersecano con i principi di privacy by design, accountability e minimizzazione, già presenti nel GDPR, creando una fitta trama regolatoria che richiede approcci di compliance integrata. Progetti come IT4LIA diventano così strumenti sperimentali per tradurre questa complessità normativa in architetture operative sostenibili.
Un secondo aspetto di rilievo riguarda il metodo con cui si intende perseguire l’innovazione. L’iniziativa AI Factory prevede una collaborazione estesa tra enti pubblici, università, centri di ricerca, imprese tecnologiche e organizzazioni della società civile. Questo modello di partenariato multilivello riflette l’approccio europeo alla governance dell’innovazione, fondato sul principio di co-creazione e su un pluralismo epistemico che mira a evitare lo strapotere di pochi attori privati nel definire gli standard tecnologici. In tale prospettiva, il ruolo dell’AgID appare cruciale, non soltanto come coordinatore tecnico, ma come garante della coerenza sistemica tra innovazione e interesse pubblico.
Un altro tema da considerare è quello della sicurezza. La recente normativa italiana di recepimento della Direttiva NIS 2 ha rafforzato i presidi normativi in materia di cybersicurezza, imponendo obblighi puntuali di gestione del rischio, notifica degli incidenti e audit periodici. Le applicazioni di IA, specie se integrate nei servizi pubblici o in settori critici come la sanità, l’istruzione e la giustizia, devono rispondere a standard elevati di resilienza, prevedendo meccanismi di verifica continua della qualità dei dati, della coerenza degli output e della reattività ai tentativi di manipolazione o avvelenamento dei modelli. L’introduzione di sistemi IA in ambienti operativi senza una robusta infrastruttura di sicurezza espone infatti al rischio non solo di errori tecnici, ma anche di minacce sistemiche, come la manipolazione di decisioni pubbliche o la discriminazione automatizzata.
La dimensione inclusiva del progetto merita un’analisi autonoma. Inclusività significa, in questo contesto, garantire che lo sviluppo e l’implementazione dell’IA non producano effetti discriminatori né consolidino disuguaglianze preesistenti. Si tratta di un principio che impone un’attenzione specifica alla qualità dei dataset utilizzati per l’addestramento dei modelli, alla trasparenza delle metriche di valutazione e alla possibilità, per i soggetti impattati, di comprendere, contestare ed eventualmente correggere le decisioni automatizzate che li riguardano. L’inclusività richiede altresì che i benefici dell’IA siano equamente distribuiti, anche in termini territoriali, promuovendo lo sviluppo tecnologico in aree svantaggiate e garantendo l’accesso universale ai servizi digitali.
La sfida più complessa è probabilmente quella di trasformare IT4LIA in una piattaforma permanente di innovazione normativa e istituzionale. Un laboratorio nazionale per l’attuazione dell’IA etica, dove la ricerca teorica, la sperimentazione tecnica e la riflessione giuridica possano convergere in soluzioni concrete. A tal fine, sarà essenziale dotare il progetto di un sistema efficace di monitoraggio, valutazione e aggiornamento normativo, capace di intercettare i rischi emergenti e di adattarsi alle evoluzioni tecnologiche.
In ultima istanza, IT4LIA non è soltanto un progetto tra gli altri. È un banco di prova per misurare la capacità dello Stato italiano di tradurre la propria ambizione tecnologica in leadership regolatoria. In un contesto globale in cui il controllo dell’IA è diventato una questione di sovranità, democrazia e diritti fondamentali, l’Italia può scegliere se restare periferica oppure contribuire, con competenza e visione, alla costruzione di un’Europa digitale fondata sul diritto.
Entro la fine del 2025, nel data center Cineca situato presso il complesso DAMA Tecnopolo Data Manifattura Emilia-Romagna di Bologna, si prevede la realizzazione del nuovo supercalcolatore che affiancherà il sistema Leonardo.
L’iniziativa – alla quale prende parte anche AgID – promette di trasformare il tessuto produttivo del Paese e rafforzare la competitività delle imprese italiane grazie a infrastrutture all’avanguardia e servizi specialistici dedicati a PMI, start-up, pubblica amministrazione e mondo della ricerca.
Il progetto si propone di istituire un ecosistema aperto capace di facilitare l’adozione delle tecnologie di intelligenza artificiale. Una delle innovazioni chiave è l’acquisizione di un supercomputer ottimizzato per applicazioni AI, che integrerà il sistema Leonardo e vedrà la sua prima partizione operativa nel 2025 presso il data center Cineca a Bologna.
IT4LIA avrà il compito di costruire un ecosistema di innovazione capace di accelerare la competitività dell’Italia nel settore dell’intelligenza artificiale e di favorire il trasferimento tecnologico a tutto il tessuto produttivo del Paese.
Il progetto IT4LIA è cofinanziato al 50% dalla Commissione Europea e al 50% dalla partecipazione italiana del Ministero dell’Università e della Ricerca, dell’Agenzia per la Cybersicurezza Nazionale, della Regione Emilia-Romagna, dell’Istituto Nazionale di Fisica Nucleare, di AI4I Istituto italiano di Intelligenza Artificiale per l’Industria, della Fondazione Bruno Kessler, dell’Agenzia ItaliaMeteo e di Cineca, che svolge il ruolo di hosting entity e di coordinatore del progetto.
Anche AgID partecipa al progetto come parte interessata; al termine della fase di implementazione dell’infrastruttura HPC, l’Agenzia potrà assumere un ruolo attivo nel monitoraggio dello strato applicativo dei servizi.
Insieme ai cofinanziatori e ai numerosi partner, l’iniziativa si avvarrà inoltre di una serie di aggregatori, distribuiti sul territorio nazionale, che svolgeranno il ruolo di porte di ingresso (gate), coinvolgendo i centri di competenza Industria 4.0, i digital innovation hub, le facility di test e sperimentazione, i centri di eccellenza in HPC.
La partecipazione dell’Italia al progetto IT4LIA, nell’ambito dell’iniziativa europea AI Factory, rappresenta un momento strategico di rilevante importanza nel processo di costruzione di un ecosistema continentale dell’intelligenza artificiale che sia coerente con i valori fondanti dell’Unione Europea. Il progetto è descritto dall’Agenzia per l’Italia Digitale come un’occasione per posizionare il Paese tra i protagonisti dello sviluppo tecnologico europeo, non soltanto sotto il profilo industriale ma, soprattutto, nella definizione di un’intelligenza artificiale giuridicamente conforme, eticamente sostenibile e socialmente inclusiva.
In un contesto europeo che ha da poco visto l’adozione del Regolamento (UE) 2024/1689 sull’intelligenza artificiale, noto come AI Act, l’iniziativa IT4LIA si presenta come una delle prime implementazioni pratiche di quella visione normativa. L’obiettivo del progetto non è semplicemente tecnologico, ma si configura come una risposta politica e regolatoria alle tensioni che attraversano la digitalizzazione contemporanea: la tutela dei diritti fondamentali, la gestione del rischio algoritmico, la sostenibilità sociale e la sovranità tecnologica.
Il riferimento esplicito all’intelligenza artificiale “legale” e “inclusiva” suggerisce la volontà di affrontare, sin dalla fase progettuale, le problematiche più controverse emerse nel dibattito dottrinale e giurisprudenziale in materia di tecnologie predittive e automatizzate. La legalità, in questo contesto, non è meramente intesa come conformità formale alle norme positive, ma come rispetto sostanziale dell’impianto assiologico europeo, incentrato sulla dignità della persona, sulla non discriminazione e sulla trasparenza procedurale.
Il primo nodo giuridico che si impone all’attenzione dell’interprete riguarda il rapporto tra l’AI Act e il Regolamento generale sulla protezione dei dati personali (Regolamento (UE) 2016/679 – GDPR). Se il secondo stabilisce il quadro normativo per il trattamento lecito, proporzionato e sicuro dei dati personali, il primo introduce obblighi specifici per i sistemi di IA, con particolare riferimento a quelli classificati come ad alto rischio. L’AI Act prevede requisiti stringenti in materia di documentazione tecnica, tracciabilità, accuratezza, robustezza e supervisione umana. Tali obblighi si intersecano con i principi di privacy by design, accountability e minimizzazione, già presenti nel GDPR, creando una fitta trama regolatoria che richiede approcci di compliance integrata. Progetti come IT4LIA diventano così strumenti sperimentali per tradurre questa complessità normativa in architetture operative sostenibili.
Un secondo aspetto di rilievo riguarda il metodo con cui si intende perseguire l’innovazione. L’iniziativa AI Factory prevede una collaborazione estesa tra enti pubblici, università, centri di ricerca, imprese tecnologiche e organizzazioni della società civile. Questo modello di partenariato multilivello riflette l’approccio europeo alla governance dell’innovazione, fondato sul principio di co-creazione e su un pluralismo epistemico che mira a evitare lo strapotere di pochi attori privati nel definire gli standard tecnologici. In tale prospettiva, il ruolo dell’AgID appare cruciale, non soltanto come coordinatore tecnico, ma come garante della coerenza sistemica tra innovazione e interesse pubblico.
Un altro tema da considerare è quello della sicurezza. La recente normativa italiana di recepimento della Direttiva NIS 2 ha rafforzato i presidi normativi in materia di cybersicurezza, imponendo obblighi puntuali di gestione del rischio, notifica degli incidenti e audit periodici. Le applicazioni di IA, specie se integrate nei servizi pubblici o in settori critici come la sanità, l’istruzione e la giustizia, devono rispondere a standard elevati di resilienza, prevedendo meccanismi di verifica continua della qualità dei dati, della coerenza degli output e della reattività ai tentativi di manipolazione o avvelenamento dei modelli. L’introduzione di sistemi IA in ambienti operativi senza una robusta infrastruttura di sicurezza espone infatti al rischio non solo di errori tecnici, ma anche di minacce sistemiche, come la manipolazione di decisioni pubbliche o la discriminazione automatizzata.
La dimensione inclusiva del progetto merita un’analisi autonoma. Inclusività significa, in questo contesto, garantire che lo sviluppo e l’implementazione dell’IA non producano effetti discriminatori né consolidino disuguaglianze preesistenti. Si tratta di un principio che impone un’attenzione specifica alla qualità dei dataset utilizzati per l’addestramento dei modelli, alla trasparenza delle metriche di valutazione e alla possibilità, per i soggetti impattati, di comprendere, contestare ed eventualmente correggere le decisioni automatizzate che li riguardano. L’inclusività richiede altresì che i benefici dell’IA siano equamente distribuiti, anche in termini territoriali, promuovendo lo sviluppo tecnologico in aree svantaggiate e garantendo l’accesso universale ai servizi digitali.
La sfida più complessa è probabilmente quella di trasformare IT4LIA in una piattaforma permanente di innovazione normativa e istituzionale. Un laboratorio nazionale per l’attuazione dell’IA etica, dove la ricerca teorica, la sperimentazione tecnica e la riflessione giuridica possano convergere in soluzioni concrete. A tal fine, sarà essenziale dotare il progetto di un sistema efficace di monitoraggio, valutazione e aggiornamento normativo, capace di intercettare i rischi emergenti e di adattarsi alle evoluzioni tecnologiche.
In ultima istanza, IT4LIA non è soltanto un progetto tra gli altri. È un banco di prova per misurare la capacità dello Stato italiano di tradurre la propria ambizione tecnologica in leadership regolatoria. In un contesto globale in cui il controllo dell’IA è diventato una questione di sovranità, democrazia e diritti fondamentali, l’Italia può scegliere se restare periferica oppure contribuire, con competenza e visione, alla costruzione di un’Europa digitale fondata sul diritto.
Views: 1
Correlati
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link