Intelligenza Artificiale Università Cassino

Intelligenza Artificiale: all’Università di Cassino l’evoluzione tecnologica e le sfide del domani

Lo scorso 12 novembre, presso l’Università di Cassino e del Lazio Meridionale, il Dipartimento di Ingegneria Informatica e delle Telecomunicazioni ha ospitato il seminario “Intelligenza Artificiale: l’evoluzione tecnologica e le sfide del domani”, organizzato dai professori Mario Molinara e Marco Plutino. Un evento dove accademici, professionisti e aziende si sono confrontati su uno dei temi più rilevanti della nostra epoca: il ruolo dell’intelligenza artificiale nella società e nell’economia
Indice dei contenuti

Diffondere i contenuti della tecnologia dell’Intelligenza Artificiale insieme all’ecosistema territoriale delle aziende e degli enti che collaborano con l’Università: questo l’obiettivo di Background AI, azione strategica dell’Ateneo di Cassino che prevede incontri, seminari, formazione e attività con il territorio sul tema della intelligenza artificiale, con la collaborazione della Camera di Commercio di Frosinone e Latina,  della sua agenzia speciale INFORMARE e del Consorzio industriale del Lazio. 

Durante l’incontro del 12 novembre presso la Facoltà di Ingegneria dell’università, esperti del settore hanno esplorato le molteplici sfaccettature dell’IA, evidenziando l’importanza di integrare questa tecnologia nelle imprese del territorio e promuovendo un dialogo tra ricerca accademica e mondo imprenditoriale. Un tema centrale è stato l’impatto dell’intelligenza artificiale generativa, tecnologia emergente che sta ridefinendo il concetto stesso di innovazione, offrendo strumenti capaci di trasformare il modo in cui lavoriamo, comunichiamo e prendiamo decisioni. 

Il corso di Alta Formazione sull’Intelligenza Artificiale Generativa 

Il seminario si è aperto con la presentazione di un’importante iniziativa: il corso di Alta Formazione sull’Intelligenza Generativa, illustrato dal professor Claudio Marrocco dell’Università di Cassino. Questo progetto mira a creare un ponte tra l’innovazione tecnologica e le esigenze delle imprese del territorio, fornendo strumenti pratici per integrare l’IA generativa nelle strategie aziendali.   

L’obiettivo principale è aiutare le aziende a sfruttare il potenziale di queste tecnologie per aumentare la produttività e rimanere competitive in un mercato in continua evoluzione. Il percorso formativo, che prenderà il via a gennaio 2025, prevede otto incontri e si rivolge a professionisti desiderosi di acquisire competenze avanzate sull’IA generativa. Le iscrizioni saranno aperte fino al 4 dicembre, offrendo un’opportunità unica per chi vuole mantenere il passo con l’innovazione. 

Da Turing a ChatGPT: l’evoluzione dell’Intelligenza Artificiale dagli anni ’50 ad oggi 

Il seminario è proseguito con l’intervento del professor Carlo Sansone, docente dell’Università Federico II di Napoli, che ha offerto una panoramica sull’evoluzione dell’Intelligenza Artificiale, dai primi passi negli anni ’50 fino agli sviluppi più recenti.

Sono state poi ripercorse le tappe fondamentali di questa disciplina, a partire dal celebre Test di Turing, concepito per misurare la capacità di una macchina di imitare l’intelligenza umana. Da quel punto di partenza, l’IA ha attraversato decenni di progressi, passando dalla creazione del percettrone negli anni ’50, capace di apprendere dai dati, all’introduzione delle reti neurali profonde che, dagli anni 2010, hanno rivoluzionato settori come la visione artificiale e l’elaborazione del linguaggio naturale.   

Tra i momenti chiave evidenziati, l’emergere del Deep Learning, la nascita delle Generative Adversarial Networks (GAN) e lo sviluppo dei transformer, che hanno reso possibile strumenti come ChatGPT. Sansone ha sottolineato come ogni innovazione abbia ampliato non solo le capacità tecniche dell’IA, ma anche le sfide etiche e regolamentari che ne derivano.   

Dai grandi modelli proprietari alla rivoluzione degli Small Language Models open source 

L’intervento successivo è stato quello dell’ingegnere Paolino Madotto, CEO e Founder di Intelligentiae, che ha affrontato il tema della transizione dai grandi modelli linguistici proprietari (LLM) agli Small Language Models (SLM) open source.   

Madotto ha spiegato come i Large Language Models (LLM), sviluppati da colossi come OpenAI, Microsoft e Google, siano potenti strumenti per l’intelligenza artificiale, ma con limiti importanti per il loro utilizzo in ambiti aziendali. I grandi modelli richiedono enormi quantità di dati per l’addestramento, comportano costi operativi elevati e presentano problematiche legate alla sicurezza delle informazioni. Inoltre, la loro natura generalista può tradursi in risposte non sempre precise o rilevanti per applicazioni specifiche.   

cassino_intelligenza_artificiale
Alcuni momenti del seminario svoltosi a Cassino sulle tecnologie che abilitano l’Intelligenza Artificiale: dai chip alle infrastrutture cloud, con un focus sul loro impatto ambientale

In questo contesto, gli SLM rappresentano una soluzione innovativa. Questi modelli più piccoli e mirati offrono una maggiore sostenibilità, riducendo la dipendenza da risorse massicce e consentendo un addestramento specifico sulle esigenze delle singole aziende. Gli SLM possono essere implementati su infrastrutture cloud, garantendo un controllo più sicuro sui dati e una maggiore sostenibilità economica. Inoltre, grazie alla possibilità di fare fine-tuning, gli SLM permettono di specializzarsi su linguaggi e processi aziendali unici, migliorando significativamente la produttività e l’efficienza.   

Madotto ha anche evidenziato il potenziale degli SLM per ridurre i costi tecnologici e aumentare la flessibilità delle imprese, prevedendo che in un futuro prossimo molte aziende potrebbero preferire un ecosistema di modelli specializzati piuttosto che affidarsi esclusivamente a grandi sistemi generalisti. Tuttavia, sono state sottolineate le sfide legate alla sostenibilità economica e alla governance di queste tecnologie open source, un tema che richiede attenzione per garantire un uso consapevole e strategico.   

Chip e Infrastrutture: il Cuore Tecnologico dell’Intelligenza Artificiale 

L’intervento dell’ingegnere Leo Sorge, divulgatore ed esperto di microprocessori, ha esplorato le fondamenta tecnologiche che rendono possibile l’evoluzione dell’intelligenza artificiale. Partendo dall’importanza dei chip, Sorge ha illustrato le diverse categorie che costituiscono le basi hardware per le applicazioni di IA, tra cui GPU, NPU, TPU e i più innovativi chiplet.   

Ha sottolineato come l’efficienza e le capacità computazionali dei chip siano cruciali sia nella fase di training sia in quella di inferenza. Inoltre, ha evidenziato il ruolo chiave delle memorie ad alte prestazioni e delle infrastrutture di storage rapide, indispensabili per ridurre i tempi di attesa delle GPU e ottimizzare i processi.   

Infine, Sorge ha discusso delle sfide legate ai consumi energetici nei data center e del crescente bisogno di fonti rinnovabili per rendere sostenibile l’industria dell’IA.   

AI e ESG: un impegno per un futuro sostenibile 

L’intervento dell’Ingegnere Luca Crocioni, Hewlett Packard Enterprise, ha approfondito il legame tra intelligenza artificiale e sostenibilità, mettendo in luce il ruolo cruciale degli aspetti ESG (ambientali, sociali e di governance) nel contesto della ricerca, delle imprese e del loro impatto sociale

La cronistoria che ha tracciato il relatore ha mostrato l’evoluzione delle normative sull’informativa non finanziaria, dal 2014, con l’introduzione della European Non-Financial Reporting Directive, fino alle recenti modifiche del Corporate Sustainability Reporting Directive del 2022. Questi sviluppi regolatori riflettono l’importanza crescente per le aziende di rendicontare i loro impatti sociali e ambientali in modo trasparente, un fattore diventato centrale per gli investitori. 

I dati rivelano l’enorme consumo energetico e idrico legato all’IA: ogni interazione con modelli come ChatGPT contribuisce al consumo di circa mezzo litro d’acqua, di qui l’urgenza di un approccio più responsabile nell’utilizzo di queste tecnologie e l’importanza di un approccio olistico che comprenda la costruzione di fondamenta dati adeguate, l’ottimizzazione dei sistemi AI e l’adozione di modelli ibridi, garantendo così che la tecnologia possa evolversi senza compromettere le risorse naturali. 

Le infrastrutture Cloud specializzate per l’Intelligenza Artificiale 

L’intervento di Antonio Baldassarra, CEO Seeweb, si è focalizzato sul ruolo delle infrastrutture cloud specializzate per l’Intelligenza Artificiale e il Machine Learning, settori in continua evoluzione grazie alle nuove frontiere dell’IA generativa. Sebbene gli algoritmi alla base dell’IA siano noti fin dagli anni ’50, è stato l’incontro tra la potenza di calcolo accessibile a basso costo e la maturazione della data science che ha spinto l’IA generativa alla ribalta, rendendola un fenomeno globale. 

L’IA generativa, con la sua capacità di creare contenuti autonomamente, richiede una potenza di calcolo senza precedenti: le infrastrutture cloud rivestono un ruolo fondamentale. Seeweb, come cloud provider, offre server con GPU ad alte prestazioni, ma non solo: ha sviluppato soluzioni come Serverless GPU, con risorse di calcolo accessibili direttamente tramite Kubernetes, che semplificano l’uso delle risorse computazionali senza che l’utente debba gestire complessità tecniche. Questa proposta consente agli sviluppatori di accedere a enormi potenze di calcolo in modo più flessibile e scalabile, fondamentale per l’addestramento di modelli complessi. 

Tuttavia, l’espansione dell’uso dell’IA porta con sé anche sfide energetiche significative. L’uso intensivo di risorse computazionali per l’addestramento e l’inferenza dei modelli IA genera un alto consumo energetico. Baldassarra ha sottolineato che, pur essendo le tecnologie cloud fondamentali per alimentare l’IA, è necessario ottimizzare l’uso delle risorse per ridurre l’impatto ambientale. In risposta a tale necessità, Seeweb sta lavorando su soluzioni mirate a bilanciare le esigenze di calcolo con l’efficienza energetica, un passo importante verso una tecnologia specializzata per l’AI più verde. 

Conclusioni

Durante il seminario è stato evidenziato come l’intelligenza artificiale stia diventando un motore fondamentale per la crescita delle imprese, richiedendo però nuovi approcci, più sostenibili, e nuove soluzioni infrastrutturali, in particolare nel campo del cloud computing. 

Per maggiori informazioni sulle iniziative inerenti IA e tecnologia dell’Ateneo di Cassino, è possibile visitare la pagina https://www.unicas.it/didattica/formazione-continua/corsi-di-alta-formazione/corsi-alta-formazione-aa-2024-2025/corso-alta-formazione-intelligenza-artificiale-generativa/ 

CONDIVIDI SUI SOCIAL

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

36 − = 29