AI, Deep Learning, Machine learning : quelle infrastructure choisir ?

Partager :
Copied!

AI, Deep Learning, Machine learning : quelle infrastructure choisir ?

De plus en plus d’entreprises souhaitent tirer parti d’infrastructures plus intelligentes. Mais dans la jungle des technologies émergentes et prometteuses, comment effectuer le bon choix ? Voici quelques clés de lecture pour (enfin) y voir clair dans la révolution des infrastructures.

Elle nourrit beaucoup d’espoir. Elle alimente aussi des craintes. Les promesses et les fantasmes qui entourent l’intelligence artificielle (ou AI, pour Artificial Intelligence) sont nombreux. Une chose est en tout cas certaine, son extraordinaire potentiel ne laisse pas les entreprises indifférentes. Dans une enquête publiée par CNBC, plus d’un quart des directeurs financiers de grandes entreprises jugent l’IA et l’apprentissage machine « critiques » pour leur activité. Ils sont également 43,6 % à les considérer « très importants ». Selon les prévisions du cabinet IDC, 75 % des entreprises et des développeurs de logiciels intégreront de l’intelligence artificielle ou de l’apprentissage machine dans au moins une application en 2018.

Ces technologies ne sont pourtant pas particulièrement récentes et existent même depuis plusieurs dizaines d’années. Si elles font aujourd’hui l’objet d’un tel engouement, c’est parce que le contexte numérique a changé. Tout d’abord, les entreprises disposent aujourd’hui de volumes de données considérables pour alimenter ces systèmes. Ensuite, les infrastructures HPC (High Performance Computing) sous-jacentes deviennent de plus en plus accessibles. Intelligence artificielle, apprentissage machine et apprentissage profond réclament en effet des ressources spécifiques pour fonctionner efficacement. Alors que de nombreux cas d’usage se développent actuellement, des solutions spécialement conçues pour bâtir ces scénarios innovants facilitent leur mise en œuvre.

Simplifier l’utilisation

Reconnaître un visage parmi des centaines ou des milliers d’autres sur une photo ou une vidéo est un procédé complexe pour lequel la machine va devoir ingérer et comprendre un très grand nombre de paramètres physiques en analysant des quantités considérables d’images. L’utilisation des frameworks Hadoop et Spark, capables de traiter rapidement de très grandes quantités de données de manière distribuée, prend ici tout son sens. Mais les data scientists, habitués à manipuler ces environnements Apache, ne sont pas forcément des spécialistes du machine learning et du deep learning. C’est la raison d’être d’offres comme les Dell EMC Ready Solutions, des infrastructures préconfigurées et prêtes à l’emploi élaborées pour exécuter des workloads très précis. Les entreprises qui souhaitent se lancer dans un projet de machine learning pourront par exemple opter pour une appliance intégrant la bibliothèque BigDL, grâce à laquelle elles pourront exécuter leurs nouveaux traitements directement sur le cluster Hadoop/Spark qu’elles connaissent et sur lequel les données sont déjà stockées. La plateforme logicielle Data Robot, elle aussi pré-intégrée, va même plus loin en permettant aux statisticiens, aux analystes métier et aux développeurs d’utiliser des modèles prédictifs open-source, automatisés et spécialisés par secteur (finance, santé, marketing, etc.).

Doper les recommandations

La FinTech, ces startups qui viennent bousculer le monde de la finance à grands coups d’intelligence logicielle, est évidemment avide d’AI. Si les grandes institutions savent depuis longtemps exploiter le HPC pour des applications de trading haute fréquence, les progrès de l’intelligence artificielle permettent de passer un nouveau cap en termes de prédiction des mouvements, d’évaluation des risques, de détection des signaux faibles et, in fine, de prise de décisions. Mais encore faut-il aller suffisamment vite. Les performances du processeur seront au cœur de l’efficacité de l’intelligence artificielle. Ici, aucune concession possible ; il vous faudra exploiter des puces de dernière génération comme celles de la gamme Intel Xeon Scalable. Outre leur rapidité, ces processeurs ont également la particularité de supporter des FPGA (Field Programmable Gate Arrays), ces circuits programmables qui peuvent être reconfigurés autant de fois que nécessaire pour mieux servir un workload spécifique.  « Levyx, qui développe des applications big data, affirme qu’avec le serveur Dell EMC R640 équipé des cartes FPGA Arria 10 FX […], elle a accéléré de plus de deux fois des simulations boursières par rapport aux implémentations Spark traditionnelles », indique Le Monde Informatique.

Accélérer l’inférence

L’inférence est la capacité d’un système à tirer une conclusion à partir d’une base de connaissance. En un mot : son raisonnement. Prenons l’exemple des transactions en ligne. Selon Statista, les ventes mondiales des plateformes de e-commerce vont passer de 1 548 milliards de dollars en 2016 à plus de 4 000 milliards en 2021. Comment détecter les transactions frauduleuses dans une telle quantité de données ? En faisant analyser ces millions d’échanges par un algorithme qui va pouvoir identifier ceux présentant une anomalie. L’enjeu est ensuite d’utiliser une infrastructure suffisamment rapide pour que cette détection se fasse en temps réel, afin de bloquer la fraude avant qu’elle ne soit effectuée. C’est ici qu’entre en jeu l’accélération GPU. Conçu en premier lieu pour effectuer des tâches graphiques intensives, le GPU offre un parallélisme qui se révèle également très performant pour les tâches de deep learning. Le Nvidia Tesla V100 par exemple, embarque 640 cœurs « Tensor ». Ces unités offrent aux réseaux neuronaux une capacité de calcul de plus de 100 téraflops et sont particulièrement adaptées aux frameworks populaires comme Caffe et TensorFlow.

Penser long terme

L’intelligence artificielle est encore bien loin d’avoir dévoilé l’étendue de ses capacités et de nouveaux cas d’usages apparaissent quotidiennement. C’est pourquoi il est important de miser sur des infrastructures évolutives. Les nouvelles solutions hyperconvergées par exemple, permettent d’ajouter très simplement des nœuds dans un cluster au fur et à mesure que les besoins évoluent. En matière de stockage, les technologies scale-out comme Isilon facilitent les mises à niveau par rapport à des systèmes scale-up souvent lourds à gérer et difficiles à faire évoluer. Dans tous les cas, les scénarios d’IA ont ceci de commun qu’ils reposent sur des infrastructures puissantes qui exploitent les dernières innovations aussi bien matérielles que logicielles.

Continue Reading
Aimeriez-vous lire davantage de contenus similaires ?

Related Posts

Charger plus d'articles
Tous les commentaires sont soumis à l'équipe de modération. Les commentaires sans rapport avec la publication et les demandes de services ne seront pas publiés, tout comme les contenus jugés inappropriés, incluant sans s'y limiter, les commentaires promotionnels ou offensants. Merci de publier vos questions techniques sur le forum dédié au support ou de contacter le support DELL EMC pour le service client et le support technique.