Protéger et économiser : résoudre le dilemme de la donnée

Partager :
Copied!

Protéger et économiser : résoudre le dilemme de la donnée

Avec des volumes de données en constante augmentation et des applications de plus en plus critiques pour le business, les entreprises font face à un nouveau défi : comment conjuguer protection du SI et diminution des coûts ? Voici la réponse.

Les années passent, les technologies se succèdent, et pourtant, deux problématiques reviennent constamment lorsqu’on interroge les responsables informatiques : la première est la protection des données, la seconde le coût de leur système d’information. La première est tout simplement une obligation : un nombre toujours plus grand d’entreprises dépend de services numériques pour faire tourner leur activité. La donnée est donc au cœur du business et est de plus en plus complexe à gérer, notamment en raison de ses formats variés et de ses volumes importants. Les DSI doivent donc investir dans de nouveaux outils pour accompagner la numérisation des tâches et garantir la continuité de l’activité. Mais la seconde problématique est toujours là. D’après une étude ESG, 35 % des responsables IT chargés de la mise en œuvre des processus et technologies de protection des données citent couramment les coûts comme étant l’un de leurs principaux défis.  Près de 30 % des personnes interrogées par l’analyste également ont fait part de leur intention d’acquérir de nouvelles technologies offrant un meilleur retour sur investissement. La bonne nouvelle est que ces technologies existent.

Segmenter pour économiser

La clé tient en un mot : déduplication. Petit rappel du principe de base : en découpant les fichiers en segments de données, il devient possible d’identifier les segments identiques qui composent différents fichiers et ainsi de ne stocker qu’une seule fois le même segment. Les bénéfices du processus sont nombreux, particulièrement dans le domaine de la protection des données qui nous intéresse aujourd’hui. Le plus évident est bien entendu la capacité à stocker une quantité plus importante de données dans un même espace de stockage. Cela implique donc moins de dépenses en supports de stockage mais également un encombrement moins important dans le datacenter. Et cet avantage prend tout son sens dans un scénario de sauvegarde et de restauration.

« Avec la déduplication à la source, seuls les blocs de données uniques sont envoyés de la source vers la cible durant l’opération de sauvegarde, ce qui allège considérablement le trafic réseau », souligne ESG. Non seulement la performance globale du SI s’en trouve améliorée, et donc par la productivité de l’organisation par la même occasion, mais en plus le réseau devient capable de supporter la croissance des données sans avoir à procéder à des mises à niveau coûteuses de l’infrastructure. Enfin, qui dit moins de données à sauvegarder dit logiquement opérations de sauvegarde plus rapides. Une accélération qui permet non aux entreprises de réaliser des backup plus fréquents et de réduire ainsi les risques de pertes de données qui elles aussi, peuvent s’avérer très coûteuses. Et les choses vont également plus vite dans l’autre sens. En cas d’incident, la restauration des données sera elle aussi plus rapide, ce qui limitera la durée d’indisponibilité d’applications critiques pour le business et donc de perdre un temps précieux.

92 Po de données sur 10 Po d’espace

L’équation est donc finalement assez simple. Moins de données, moins de stockage, moins de bande passante, moins de risques, moins de coûts. Mais comme on vient de le voir, le point de départ est une déduplication efficace. Le cabinet ESG a analysé dans son étude 12 entreprises de différents secteurs avec des volumes de données à protéger allant de 270 To à plus de 90 Po. En exploitant la technologie Data Domain, il est parvenu à obtenir un taux de déduplication moyen de 44 :1, le taux le plus élevé atteignant 126 :1 et le plus faible 9 :1. Même en prenant en considération le scénario le plus négatif, « l’entreprise parvient à protéger près de 92 Po de données en utilisant une capacité de seulement 10 Po », constate ESG. Pour atteindre de tels résultats, plusieurs technologies entrent en jeu.

L’architecture SISL (Stream-Informed Segment Layout) tout d’abord, permet de réaliser 99 % du traitement au sein du processeur et de la mémoire vive, ce qui évite de voire les performances limitées par la vitesse de rotation des disques. La segmentation à longueur variable ensuite, garantit les meilleurs taux de déduplication en créant des segments d’une taille adaptée aux différents types de fichiers. Elle offre également une meilleure évolutivité en permettant de modifier ultérieurement la taille d’un segment afin qu’il incorpore de nouvelles informations. Le logiciel DD Boost va quant à lui délester une partie du travail de déduplication sur le poste client ou le serveur. Un procédé qui permet de libérer des ressources du côté du système cible qui offrira à son tour de meilleures performances de déduplication.

Tout ceci concoure à résoudre le dilemme des DSI, qui peuvent désormais mieux protéger leurs données sans grever le budget. Si l’on prend l’exemple des 12 entreprises analysées par ESG, le coût de la protection varie de 0,062 à 1,2 centime par gigaoctet. Et si vous souhaitez vous faire une première idée des économies que cela peut représenter pour votre entreprise, vous pouvez d’ores et déjà utiliser le CTP (cost-to-protect) Calculator accessible en ligne.

Continue Reading
Aimeriez-vous lire davantage de contenus similaires ?

Related Posts

Charger plus d'articles
Tous les commentaires sont soumis à l'équipe de modération. Les commentaires sans rapport avec la publication et les demandes de services ne seront pas publiés, tout comme les contenus jugés inappropriés, incluant sans s'y limiter, les commentaires promotionnels ou offensants. Merci de publier vos questions techniques sur le forum dédié au support ou de contacter le support DELL EMC pour le service client et le support technique.