Les 3 piliers du Edge Computing

Les 3 piliers du Edge Computing

D’ici 2020, 50 % des données seront générées en dehors du datacenter et du cloud. Quels sont les trois fondamentaux que les architectes IT vont devoir prendre en compte à l’ère du Edge Computing.

C’est ce qu’on appelle l’edge computing : l’internet des objets est tout simplement en train de faire exploser le traitement des données en périphérie du réseau. Alors que de plus en plus d’applications exploitent les informations remontées par des objets connectés, nécessitant faible latence, autonomie et sécurité, il devient critique que les ressources de calcul se rapprochent physiquement du lieu où la donnée est générée. Selon les analyses de Gartner, en 2020, environ 50 % des données générées par les entreprises seront créées et traitées en dehors des datacenters centralisés traditionnels et des environnements cloud, contre environ 10 % actuellement*.

Ces nouveaux besoins décentralisés vont créer de nouvelles exigences que les architectes IT vont devoir prendre en compte pour proposer des solutions edge computing efficaces.

#1 : Prise de décision rapide

Les applications IoT ont besoin de prendre très rapidement des décisions critiques au fur et à mesure que des données sont générées. Transporter les données vers un site distant pour les traiter n’est pas une option réaliste. Un aller-retour des données vers une plateforme cloud ne permettra pas non plus de satisfaire le besoin d’une latence extrêmement basse. Des décisions visant à contourner des accidents de la circulation ou à éviter qu’un équipement ne tombe en panne dans une usine doivent être prises rapidement si l’on veut que ces applications innovantes offrent les bénéfices espérés.

#2 : Compression et nettoyage

Plus de 500 zettaoctets (1 zettaoctet = 1 000 milliards de gigaoctets) de données seront créées d’ici 2019**. Gérer, trier et analyser les jeux de données massifs générés par les capteurs requiert des moyens efficaces de nettoyage et d’agrégation. Non seulement ces larges volumes de données devront être analysées au plus près de la source, mais ils devront être filtrés avant d’être envoyés vers le datacenter ou le cloud. Mettre en place des systèmes de compression et de nettoyage des données à la source permettra en effet de réduire le coût du transport et du stockage de ces données.

#3 : Sécurité locale

Toujours selon les estimations Gartner, le nombre de points d’accès de l’internet des objets devrait croître de 8 millions d’appareils en 2017 à plus de 25 milliards en 2021. Ces dispositifs sont employés dans des secteurs où la sécurité est un enjeu critique, comme la défense ou la finance. Chaque point d’accès supplémentaire déployé étend la surface d’attaque possible et augmente donc le risque d’intrusion. L’architecture edge computing implique que les nœuds de calcul aient été conçus dès le départ avec cette réalité à l’esprit et embarquent donc nativement des mesures robustes de protection des données.

Quelle infrastructure ?

Une fois ces prérequis posés, quelle infrastructure choisir pour montrer une architecture edge computing ? La gamme PowerEdge propose deux modèles spécifiquement conçus pour ce type de scénario : les R6415 (1U) et R7415 (2U). Les deux machines embarquent jusqu’à 2 To de mémoire et 32 cœurs pour accélérer les prises de décision. Le nettoyage et la compression des données sont assurés par 128 voies PCIe et des disques NVMe, qui ensemble forment une plateforme de stockage à très faible latence. Et pour ce qui est de la sécurité, toute la famille PowerEdge 14G intègre nativement des fonctionnalités comme le verrouillage du système, le démarrage et l’effacement sécurisé ou la récupération du BIOS.

Si vous souhaitez creuser davantage le sujet, je vous recommande chaudement l’écoute de cet échange issu du Podcast Luminaries, au cours duquel Ravi Pendekanti, vice-président senior et responsable produit et marketing serveur chez Dell EMC, et Scott Aylor, vice-président corporate et directeur général des solutions entreprise chez AMD, font le tour de la question.

* Forecast Analysis: Internet of Things — Endpoints, Worldwide, 2017 Update, Dec 2017, Gartner.
** Business Insider, Edge Computing in the IoT: Forecasts, key benefits, and top industries adopting an analytics model that improves processing and cuts costs, Oct 2016.

About the Author: Sébastien Verger

Sébastien Verger est CTO France de Dell Technologies. Technologue dans l’âme et porte-parole Dell Technologies, il intervient quotidiennement auprès de nos clients, d’événements marché et de conférences de presse pour mettre en perspective les évolutions technologiques majeures et leurs impacts sur les systèmes d’information des entreprises. Sébastien a rejoint EMC en 1999 en tant qu'avant-vente grand compte. Il a exercé des responsabilités de management, contribué au développement du pôle d’expertise et fut un acteur clé de la mise en place d’une organisation avant-vente résolument tournée vers les Partenaires et le segment Commercial. Précédemment, il a exercé des fonctions commerciales chez Sequent.