Technologie en vedette : TensorRT
TensorRT est une plateforme de NVIDIA employée pour effectuer des inférences par apprentissage profond. Cette plateforme comprend un optimisateur d’inférences par apprentissage profond et réduit la latence tout en augmentant le débit des modèles à apprentissage profond. On peut élaborer et former le modèle avec de nombreux cadres d’apprentissage profond (comme TensorFlow), puis l’optimiser et l’étalonner pour en alléger la précision et en faciliter le déploiement en milieu de production avec TensorRT. TensorRT repose sur le modèle de programmation en parallèle CUDA de NVIDIA, qui permet une exploitation et une optimisation maximales sur les GPU.
Ressources
Le tableau qui suit dresse une liste partielle des hyperliens menant à de la documentation de base utile.
Tutoriels
Le tableau ci-dessous dresse une liste partielle des hyperliens conduisant vers les didacticiels que l’auteur juge les plus utiles.
Documentation
Le tableau qui suit renvoie à de la documentation sur TensorRT.
Soutien
Vous trouverez de l’aide sur TensorRT à la partie « Support » de la documentation.
Pratiques exemplaires
La section « Best Practices » de la documentation officielle sur TensorRT dresse une liste des pratiques exemplaires.
Trucs et hics
Versions
Certaines versions de TensorRT ne sont compatibles qu’avec une version précise de CUDA et de TensorFlow. D’autre part, quelques versions de CUDA ne sont compatibles qu’avec une version précise des pilotes de la GPU. Vérifiez la grille de compatibilité de TensorRT et lisez les note de la boîte à outils CUDA pour éviter les problèmes d’incompatibilité. TensorRT propose des versions compatibles en contenants Docker préemballés. Lire la page de la Solution type : Recommandeur de films pour voir comment effectuer l’installation.
Python vs C++ API
TensorRT propose une API en Python et en C++. Au départ, la majeure partie de la documentation et des tutoriels étaient rédigés en C++. Si vous avez du mal à trouver des tutoriels et de l’aide en ligne pour Python, il vaudrait peut-être la peine d’examiner les solutions en C++, car les deux API s’équivalent largement et il est facile de passer de l’une à l’autre.
Technologie en vedette : perceptron multicouche pour le filtrage collaboratif
Le filtrage collaboratif est une approche abondamment utilisée avec les systèmes de recommandation. Les méthodes de filtrage collaboratif reposent sur le comportement, les activités ou les préférences de l’utilisateur, et prédisent ce que ce dernier aimera d’après le comportement des utilisateurs qui lui ressemblent.
Un perceptron multicouche est une sorte de réseau neuronal comprenant une couche d’entrée qui reçoit les données, une couche de sortie qui formule la prévision d’après les données recueillies et, entre les deux, un nombre arbitraire de couches invisibles correspondant aux fonctions non linéaires qui, collectivement, apprennent au système à résoudre des problèmes complexes.
Dans leur article intitulé Neural Collaborative Filtering (He et coll. 2017), les auteurs proposent un cadre d’apprentissage profond pour le filtrage collaboratif. Un des modèles évalués est le perceptron multicouche. Le problème examiné en est un de classification et le modèle est formé avec les longs métrages que les utilisateurs regardent puis notent (les valeurs positives dans l’exemple) ou ne regardent pas (les valeurs négatives).
Ressources
Les sections qui suivent présentent des ressources qui vous en apprendront davantage sur l’usage d’un perceptron multicouche pour le filtrage collaboratif.
Tutoriels
Le tableau ci-dessous dresse une liste partielle des hyperliens menant aux didacticiels que l’auteur juge les plus utiles.
Documentation
Le tableau qui suit propose de la documentation utile sur le sujet.
Pratiques exemplaires
On adoptera les pratiques générales applicables à l’apprentissage machine. Les ressources en ligne sur le sujet ne manquent pas. En voici quelques-unes.