Si parla sempre più di intelligenza artificiale e sempre di più la si adotta: nella sola Italia il 2023 ha raggiunto un valore di 760 milioni di euro, con 6 grandi imprese italiane che, su 10, la hanno adottata come tecnologia.
In particolare, “(…) il 24% degli italiani la usa per lavoro, il 46% ne prevede un boom in tre anni” (fonte: Ey Italy AI Barometer, Il Sole 24 Ore Radiocor). Insomma, il nostro è tra i primi tre Paesi che hanno adottato l’intelligenza artificiale, dopo Spagna e Svizzera. Dallo stesso studio emerge che AI è tra le priorità di investimento del prossimo anno per 1 azienda su 3, con particolare adozione nei settori energetico, finanziario e media/telecomunicazioni.
Questo utilizzo sempre più importante farà sì che la richiesta di risorse computazionali crescerà sempre di più: le previsioni indicano che l’utilizzo dei datacenter aumenterà di sei volte; l’International Energy Agency prevede un consumo di energia molto più importante nel 2026 rispetto al 2023.
Tra i benefici derivanti dall’adozione di soluzioni di IA, l’ottimizzazione dei processi e l’aumento dell’efficienza e della riduzione degli errori nei task aziendali a minor valore aggiunto.
Evidente il successo particolare dei Large Language Models o LLM, modelli di reti neurali profonde (Deep Neural Network) tipo chatGPT, in grado di acquisire una vasta conoscenza del linguaggio umano, e con cui possiamo interagire e a cui possiamo fare domande.
IA e tecnologia abilitante: i GPU server
Per servire l’elaborazione di algoritmi e i carichi di lavoro tipici dell’intelligenza artificiale, le infrastrutture hosting hanno un ruolo essenziale: le macchine che devono imparare hanno fame di risorse. Con le GPU o Graphic Processing Units è possibile accelerare in modo sensibile l’addestramento di modelli: esse sono infatti l’hardware specifico per il deep learning e più in generale per i task dell’IA.
Le GPU sono risorse molto ambite oggi e anche molto costose: averle in cloud – in alternativa all’averle on premise – consente di ottimizzare i costi e utilizzarle on demand, con fatturazione in pay per use e il vantaggio della flessibilità tipica della nuvola.
I server GPU in cloud sono il modo più elastico per soddisfare le esigenze computazionali del training di modelli: erogate in cloud, le GPU vengono richieste al bisogno e aggiornate, gestite e monitorate direttamente dal provider.
Esiste, in questo contesto, anche un ulteriore strato di questo tipo di infrastrutture che facilita ancora di più la gestione del lavoro ai team di sviluppo, alle aziende, ai ricercatori: sfruttando Kubernetes, la tecnologia di gpu computing può accelerare in modo straordinario il deploy di codice AI.
Kubernetes GPU ovvero efficientare il GPU provisioning
Per supportare workload intensivi come quelli del machine learning, è possibile rendere più snello e flessibile l’utilizzo dei server GPU in cloud.
Del resto, tra le varie funzioni che offre, Kubernetes – piattaforma open-source che facilità le attività di configurazione, automazione, load balancing – consente anche di semplificare scalabilità e provisioning di risorse.
Con un nome che deriva dal greco e che significa “timoniere” o “pilota”, noto anche con la sua abbreviazione “K8s”, Kubernetes può offrire anche al mondo del machine learning nonché dell’HPC un supporto rilevante, soprattutto nei casi in cui i dev team e i team di ricerca abbiano già a disposizione risorse GPU e vogliano espanderle in modo dinamico, anche solo per poco tempo.
Soluzioni di Kubernetes GPU possono quindi favorire l’upgrade dei propri ambienti di calcolo permettendo di sviluppare ed eseguire container su cluster diversi di server sia virtuali che fisici, sfruttando in modo snello e orchestrato più infrastrutture in load balancing, monitorando i vari container che concorreranno all’esecuzione dei carichi di lavoro AI.
Serverless GPU: il vantaggio di GPU remote
Con Serverless GPU – il servizio di Kubernetes GPU che nasce per semplificare e ottimizzare i processi di gpu provisioning – puoi dimenticarti completamente della gestione, e di come dietro la potenza di elaborazione disponibile ci sia un’architettura IT: non dovrai gestire server né configurare nulla, perché tutto è demandato al provider.
Che tu abbia un cluster GPU già attivo nel tuo CED, che tu abbia già affittato dei GPU server su altri Cloud Provider, con il nostro servizio, progettato e costruito insieme a Clastix, tech startup italiana specializzata in soluzioni Kubernetes multitenancy, potrai vedere le GPU Seeweb in cloud come fossero “remote” dentro la tua infrastruttura.
In questo modo, scalare la potenza di elaborazione necessaria per addestrare modelli e fare fine tuning sarà molto più semplice ed efficace: con una fatturazione esclusivamente in pay per use orario, potrai fare il deploy di applicazioni di intelligenza artificiale scalando senza limiti, e accedendo in modo on demand, veloce e più economico all’estrema potenza delle schede grafiche disponibili dal tuo pannello cloud.
Deploy di applicazioni AI più rapido con Kubernetes
Come possiamo vedere da questo video, con il nostro servizio di gpu kubernetes soddisfi esigenze di scheduling e pooling avanzati: k8sgpu consente infatti di allocare i tuoi carichi di lavoro nella prima istanza cloud GPU identificata come disponibile.
Tale modello di GPU provisioning, ti consente di non allocare alcuna modifica alle tue pipeline, consentendoti di eseguire in modo trasparente le tue applicazioni AI su risorse messe a disposizione da più cloud provider.
Se desideri accelerare il rilascio di codice AI e aumentare in modo rapido, senza alcuno sforzo, i micro-servizi disponibili per i tuoi workload AI, puoi lanciare le tue nuove istanze GPU con Serverless GPU.
Articoli correlati:
- Kubernetes Storage: scalabilità e ottimizzazione per le applicazioni cloud-native
- Seeweb lancia Cloud Serverless in partnership con Nimbella
- Tecnologie per IA e ML: contraddizioni e soluzioni
- Kubernetes Community Days Italy 2024: un successo di collaborazione e innovazione
- Potenza di Cloud Server GPU disponibile da qualsiasi dispositivo con Parallels RAS
- Server per intelligenza artificiale: il ruolo delle GPU


