« Sans big data, une entreprise erre sur le web comme un cerf sur une autoroute, aveugle et sourde ». Cette citation de Geoffrey Moore, écrivain et consultant américain en nouvelles technologies, résume bien la situation. La capacité à collecter des données et à en tirer une information de valeur pour son business sera le facteur clé qui permettra à de nouveaux leaders de sortir gagnant de la transformation numérique en cours. C’est ce qu’on appelle le « data-driven business », ou l’activité pilotée par la donnée. Dans les années à venir, les volumes de traitements analytiques vont exploser dans les entreprises. Pourtant, beaucoup ont d’ores et déjà des difficultés à réaliser les charges de travail actuelles sur l’infrastructure existante. Doubler ou tripler le nombre d’applications reposant sur cette infrastructure n’est tout simplement pas envisageable. La première chose à faire est donc de se doter d’une plateforme capable de supporter vos besoins d’analyse maintenant et pour les années à venir.
En premier lieu, le choix de l’environnement logiciel est critique pour votre entreprise. La solution doit pouvoir répondre aux exigences des data-scientists les plus expérimentés, mais également d’une grande diversité d’utilisateurs métier qui ont aujourd’hui besoin d’accéder en self-service à des outils d’analyse à la fois simples et puissants. La base de données SQL Server 2016 offre cette dualité de service. La solution Microsoft propose aussi bien des fonctionnalités dédiées aux analystes, comme SSAS (SQL Server Analysis Services) qui permet de créer des cubes OLAP pour les systèmes décisionnels, qu’aux décideurs métiers, comme la possibilité de créer des rapports consultables sur des smarpthones ou tablettes. Le lancement rapide de SQL Server 2017, illustre par ailleurs la volonté de Microsoft d’accélérer son cycle de développement pour garantir aux entreprises un accès permanent aux technologies les plus en pointe.
La recette de la performance analytique
La plateforme d’analyse sera donc de plus en plus sollicitée par les spécialistes du big data et les métiers, comme on l’a vu plus haut, mais aussi par les objets connectés, les intelligences artificielles et les systèmes de machine learning. Il convient dès aujourd’hui d’anticiper cette croissance considérable des flux en bâtissant une infrastructure suffisamment solide. Pour cela, pas de surprise, un matériel de dernière génération est indispensable : des modules NVDIMM, plus puissants que la DRAM classique, des SSD de grande capacité, plus rapide que les HDD traditionnels et des solutions hyperconvergées, pour une plus grande flexibilité.
C’est précisément la recette que propose aujourd’hui Dell EMC avec sa nouvelle génération de serveurs, les PowerEdge 14G. Selon un benchmark TPC-E, un serveur récent r740 exécutant un workload OLTP avec SQL Server 2016 peut effectuer 41 % de transactions supplémentaires par seconde et diminuer de 50 % les temps de réponse. Selon une autre analyse effectuée par le cabinet Principled Technologies, associer 4 modules NVDIMM à un stockage SSD permettrait d’augmenter de près de 40 % les performances. Enfin, une dernière étude, elle aussi menée par Principled Technologies, souligne que l’utilisation de SSD NVMe autoriserait les entreprises à consolider jusqu’à 8 serveurs de base de données legacy en un seul équipement 14G. De quoi circuler en toute sérénité sur l’autoroute de la donnée.