Une nouvelle version de l'API de programmation graphique à usage général NVIDIACUDA 10.2, près de dix mois après la version 10.1. Cette bibliothèque inclut l'ajout d'une API complète pour la gestion de la mémoire virtuelle sur la carte graphique, avec des fonctions plus précises pour l'allocation de mémoire et les plages d'adresses mémoire.
Cuda est une plate-forme informatique parallèle créée par Nvidia qui peut être utilisé pour augmenter les performances en exploitant la puissance de l'unité de traitement graphique (GPU) de votre système. Cuda est une couche logicielle permettant aux développeurs de logiciels d'accéder au jeu d'instructions virtuelles du GPU et aux éléments de calcul parallèles, pour l'exécution des cœurs de calcul.
CUDA essayez d'exploiter les avantages des GPU par rapport aux CPU usage général en utilisant le parallélisme offert par ses cœurs multiples, qui permettent le lancement d'un très grand nombre de threads simultanés.
Par conséquent, si une application est conçue à l'aide de plusieurs threads qui effectuent des tâches indépendantes (ce que font les GPU lors du traitement des graphiques, leur tâche naturelle), un GPU sera en mesure d'offrir d'excellentes performances.
Quoi de neuf dans Nvidia CUDA 10.2?
Cette version regorge de bibliothèques offrant des fonctionnalités nouvelles et étendues., corrections de bogues et améliorations des performances pour les environnements GPU uniques et multiples.
Dans cette version a ajouté une nouvelle couche d'interopérabilité de votre système d'exploitation en temps réel (RTOS) pour NVIDIA DRIVE OS, Llamado Interopérabilité de l'interface de communication du logiciel NVIDIA.
Il existe deux interfaces principales disponibles: NvSciBuf pour l'échange de zones mémoire complètes et NvSciSync pour la synchronisation. Ces fonctionnalités sont dans l'aperçu.
Au niveau des plateformes gérées, CUDA 10.2 est la dernière version disponible pour macOS, De plus, RHEL 6 ne sera plus pris en charge car RHEL 2010 ne le sera plus du tout dans la prochaine version de CUDA (tout comme les compilateurs Microsoft C ++ 2013 à XNUMX).
En plus de cela, Nvidia prépare également un petit type sur les fonctions disponibles. Maintenant que nvJPEG est une bibliothèque séparée, les fonctions correspondantes des primitives de compression NPP sont sur le point de disparaître.
Parmi les autres changements qui ressortent de l'annonce, Nous pouvons constater que les performances et l'évolutivité ont été améliorées pour les cas d'utilisation suivants:
- Multi-GPU sans puissance de transformation 2
- Transformations de taille impaire R2C et Z2D
- Transformations 2D avec de petites tailles et un grand nombre de lots.
Si vous souhaitez en savoir plus sur cette nouvelle version de CUDA, vous pouvez consulter le lien suivant.
Comment installer Nvidia CUDA sur Ubuntu et ses dérivés?
Afin d'installer CUDA sur le système, il faut que nous ayons les pilotes Nvidia installée. Si vous ne les avez toujours pas, vous pouvez consulter l'article suivant.
Maintenant comme première étape il faut télécharger le script d'installation de CUDA, que nous pouvons obtenir à partir d'un terminal en tapant la commande suivante:
wget http://developer.download.nvidia.com/compute/cuda/10.2/Prod/local_installers/cuda_10.2.89_440.33.01_linux.run
Fait ça maintenant nous devons donner des autorisations d'exécution au script avec:
sudo chmod +x cuda_10.2.89_440.33.01_linux.run
Nous allons installer certains packages nécessaires.
sudo apt-get install gcc-6 g++-6 linux-headers-$(uname -r) -y sudo apt-get install freeglut3 freeglut3-dev libxi-dev libxmu-dev
Et maintenant, nous allons exécuter le script avec:
sudo sh cuda_10.2.89_440.33.01_linux.run
Pendant le processus d'installation on nous posera quelques questions Dont nous devrons répondre, en gros il nous demandera si nous acceptons les conditions d'utilisation, si nous voulons changer le répertoire par défaut, entre autres.
Où ils doivent faire attention quand on leur demande si vous souhaitez installer les pilotes Nvidia où ils répondront non puisqu'ils doivent les faire installer.
Une fois l'installation terminée, il leur suffit de définir leurs variables d'environnement dans le fichier que nous allons créer dans le chemin suivant /etc/profile.d/cuda.sh.
sudo nano /etc/profile.d/cuda.sh
Et dans le nous allons placer le contenu suivant:
export PATH=$PATH:/usr/local/cuda/bin export CUDADIR=/usr/local/cuda
Ils créent également le fichier:
sudo nano /etc/ld.so.conf.d/cuda.conf
Et nous ajoutons la ligne:
/usr/local/cuda/lib64
Et enfin nous exécutons:
export PATH=/usr/local/cuda-10.2/bin:/usr/local/cuda-10.2/NsightCompute-2019.1${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda-10.2/lib64\
${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
sudo ldconfig