installazione-driver-gpu-servizio-intelligenza-artificiale

Cloud GPU: primi passi e installazione driver

Una breve guida all'installazione dei driver e alla preparazione dell'ambiente cloud GPU Seeweb. Per sfruttare al massimo la potenza di NVIDIA QUADRO RTX 6000
Indice dei contenuti

In questa guida troverete i dettagli su come muovere i primi passi per utilizzare al meglio Cloud Server GPU, la soluzione Seeweb per il mondo AI e machine learning, e sfruttare al meglio la scheda video NVIDIA QUADRO RTX 6000.

La prima cosa da fare è installare i driver NVIDIA e il CUDA Toolkit. Per facilitare tale operazione, Seeweb descrive due procedure: una totalmente automatizzata, già presente all’ interno del sistema operativo, e una manuale.

Installazione driver automatizzata Seeweb

Prima di procedere con l’installazione dei driver è fondamentale avere il sistema operativo aggiornato.
La prima operazione da eseguire è l’installazione dell’ ultimo kernel con i comandi:

apt-get install linux-image-amd64 (debian)
yum upgrade (CentOS)

reboot

A riavvio completato, per installare e configurare i driver NVIDA sarà sufficiente eseguire il comando nvidia-installer

sudo su -

nvidia-installer

Una volta che l’installer avrà completato le attività sarà necessario riavviare nuovamente il server e verificare il corretto funzionamento dei driver con il comando:

nvidia-smi

che mostrerà un output come segue.

Installazione driver manuale

Se volete invece procedere con l’installazione manuale, perché avete bisogno di una versione specifica di cuda o dei driver, è possibile procedere come segue:

  • Accedere al sito ufficiale NVIDIA https://developer.nvidia.com/cuda-downloads?target_os=Linux
  • Selezionare il sistema operativo
  • Consigliamo di selezionare come metodo di installazione runfile
  • A questo punto, nel box in basso “Base Installer” verranno mostrati i comandi da eseguire

 

Esempio Debian 10:

Esempio CentOS7:

 

Una volta completata l’installazione sarà possibile verificarne il corretto funzionamento tramite nvidia-smi

Installazione cuDNN

La libreria NVIDIA CUDA Deep Neural Network (cuDNN) è una libreria di primitive per reti neurali profonde.

cuDNN fornisce implementazioni altamente ottimizzate per routine standard come la convoluzione, il pooling, la normalizzazione e altro, cuDNN fa parte di NVIDIA Deep Learning SDK.

I ricercatori di deep learning e gli sviluppatori di framework di tutto il mondo si affidano a cuDNN per l’accelerazione delle GPU. Consente loro di concentrarsi sull’addestramento delle reti neurali e sullo sviluppo di applicazioni software anziché dedicare tempo all’ottimizzazione delle prestazioni della GPU di basso livello.

cuDNN accelera i framework di deep learning ampiamente utilizzati ed è disponibile gratuitamente per i membri dell’NVIDIA Developer Program.

La libreria è disponibile solo per gli sviluppatori, per l’installazione è quindi necessario registrarsi come sviluppatori sul sito NVIDIA

https://developer.nvidia.com/developer-program

e poi procedere al download della libreria, di seguito potete trovare la guida dettagliata

https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html

Per qualunque delucidazione, approfondimento o supporto il nostro team di tecnici sarà lieto di supportarvi!

CONDIVIDI SUI SOCIAL

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

8 + 1 =