In questa guida troverete i dettagli su come muovere i primi passi per utilizzare al meglio Cloud Server GPU, la soluzione Seeweb per il mondo AI e machine learning, e sfruttare al meglio la scheda video NVIDIA QUADRO RTX 6000.
La prima cosa da fare è installare i driver NVIDIA e il CUDA Toolkit. Per facilitare tale operazione, Seeweb descrive due procedure: una totalmente automatizzata, già presente all’ interno del sistema operativo, e una manuale.
Installazione driver automatizzata Seeweb
Prima di procedere con l’installazione dei driver è fondamentale avere il sistema operativo aggiornato.
La prima operazione da eseguire è l’installazione dell’ ultimo kernel con i comandi:
apt-get install linux-image-amd64 (debian)
yum upgrade (CentOS)reboot
A riavvio completato, per installare e configurare i driver NVIDA sarà sufficiente eseguire il comando nvidia-installer
sudo su -
nvidia-installer
Una volta che l’installer avrà completato le attività sarà necessario riavviare nuovamente il server e verificare il corretto funzionamento dei driver con il comando:
nvidia-smi
che mostrerà un output come segue.
Installazione driver manuale
Se volete invece procedere con l’installazione manuale, perché avete bisogno di una versione specifica di cuda o dei driver, è possibile procedere come segue:
- Accedere al sito ufficiale NVIDIA https://developer.nvidia.com/cuda-downloads?target_os=Linux
- Selezionare il sistema operativo
- Consigliamo di selezionare come metodo di installazione runfile
- A questo punto, nel box in basso “Base Installer” verranno mostrati i comandi da eseguire
Esempio Debian 10:
Esempio CentOS7:
Una volta completata l’installazione sarà possibile verificarne il corretto funzionamento tramite nvidia-smi
Installazione cuDNN
La libreria NVIDIA CUDA Deep Neural Network (cuDNN) è una libreria di primitive per reti neurali profonde.
cuDNN fornisce implementazioni altamente ottimizzate per routine standard come la convoluzione, il pooling, la normalizzazione e altro, cuDNN fa parte di NVIDIA Deep Learning SDK.
I ricercatori di deep learning e gli sviluppatori di framework di tutto il mondo si affidano a cuDNN per l’accelerazione delle GPU. Consente loro di concentrarsi sull’addestramento delle reti neurali e sullo sviluppo di applicazioni software anziché dedicare tempo all’ottimizzazione delle prestazioni della GPU di basso livello.
cuDNN accelera i framework di deep learning ampiamente utilizzati ed è disponibile gratuitamente per i membri dell’NVIDIA Developer Program.
La libreria è disponibile solo per gli sviluppatori, per l’installazione è quindi necessario registrarsi come sviluppatori sul sito NVIDIA
https://developer.nvidia.com/developer-program
e poi procedere al download della libreria, di seguito potete trovare la guida dettagliata
https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html
Per qualunque delucidazione, approfondimento o supporto il nostro team di tecnici sarà lieto di supportarvi!
Articoli correlati:
- Drupal 8 come muovere i primi passi: installazione CMS e moduli
- Magento 2: primi passi per la creazione di un template custom
- Plesk ed Easy Cloud Server: installazione e configurazione
- Cloud Server GPU: applicazioni nella ricerca
- Cloud Server GPU: usi, dettagli tecnici e benchmark del servizio basato su NVIDIA QUADRO RTX6000
- Come addestrare un algoritmo di Machine Learning con tensorflow e keras: un caso d’uso di Cloud Server GPU