3 innovations prometteuses pour faire évoluer son SDS (Software-Defined Storage)

Le stockage IoT (stockage sur des objets connectés, mais aussi le stockage des données générés par les objets connectés), le fog storage et le stockage computationnel sont, d’après moi, trois axes particulièrement prometteurs dans le domaine du stockage dans le cloud et applicables aux solutions SDS. Après avoir rappelé les fondamentaux du SDS, il est utile de se poser la question de savoir comment les systèmes de stockage vont évoluer au cours des prochaines années.

Le SDS aujourd’hui : qu’est-ce que c’est et quels sont les principaux acteurs ?

Pour faire face à la croissance exponentielle du volume de données non-structurées générée notamment par les réseaux sociaux et les services de cloud personnel, des solutions nouvelles sont apparues au cours des dernières années. Elles consistent à découpler les couches matérielles et logicielles au sein d’une même infrastructure de stockage. C’est ce qu’on appelle le Software-Defined Storage.

Nous avons déjà eu l’occasion de présenter, cette tendance dans un précédent article. Des solutions SDS sont déjà déployées dans les entreprises et de nombreuses autres projettent de l’utiliser. Plusieurs produits, fournis par des acteurs traditionnels de l’IT (EMC, IBM, NetApp, VMWare, etc.) ou des nouveaux entrants (CEPH, Nexenta, Scality, etc.) existent et rencontrent déjà un certain succès, en raison notamment des potentialités qu’ils présentent en termes d’évolutivité et d’optimisation des coûts.

Le SDS demain : 3 axes d’innovation pour réduire davantage le TCO (Total Cost of Ownership ou Coût total de possession) et améliorer la QoE (Quality of User Experience ou Qualité d’Expérience Utilisateur)

Quels sont les challenges auxquels doivent maintenant faire face ces solutions SDS et comment doit-on envisager de les faire évoluer, dans le but notamment de réduire encore le coût des systèmes de stockage et d’améliorer la qualité des services qui les utilisent ?

Trois pistes me paraissent particulièrement pertinentes :

1-le stockage IoT pour les données très hétérogènes générées par les objets connectés
La multiplication des objets connectés rend nécessaire l’adaptation des infrastructures de stockage actuelles. En effet, ces objets, qu’il s’agisse de capteurs ou d’actuateurs, sont susceptibles de produire et de stocker des données très hétérogènes (formats, tailles, usages, structurées/non structurées, etc.). Il importe que les systèmes de stockage puissent s’adapter au contexte proposé par ces nouveaux objets alors que, jusqu’ici, les données associées à un service étaient de nature relativement homogène (par exemple : pour un service de cloud personnel, on sait que l’on va manipuler des contenus texte et multimédias, dont le format va varier de quelques kilo-octets à quelques méga-octets). La gestion des données issues de ces objets connectés, la manière dont elles doivent être stockées pour en faciliter l’usage (eg. Big data), constituent donc l’un des principaux axes d’innovation dans le domaine des infrastructures de stockage.

2-Le fog storage pour étendre les infrastructures de stockage en y intégrant les ressources situées en bordure de réseaux
En lien avec la vision présentée par Cisco sous le nom de « fog computing », le fog storage vise à étendre les infrastructures de stockage cloud, habituellement constituées de ressources hébergées dans de gros datacenters, en y associant des capacités de stockage situées en bordure de réseaux (au sein d’installations appelées PoP – pour Point-of-Presence – voire jusqu’à certains terminaux utilisateurs, telles que les boxes d’opérateurs). Faire transiter toutes les données à l’aide d’un lien réseau, en vue de les stocker dans des datacenters, présente en effet d’importantes limitations, en termes de performance (débit de la bande passante remontante) et d’efficacité économique (coût relatif du stockage en datacenter versus coût du stockage sur un disque dur local). Une approche alternative consiste donc à répartir les capacités de stockage le long de cette chaîne réseau allant du terminal utilisateur jusqu’au datacenter et, grâce à des algorithmes de placement intelligent, à stocker les données à l’endroit le plus opportun le long de cette chaîne, en fonction notamment de l’usage auquel elles sont destinées (par exemple, si l’utilisateur souhaite pouvoir les partager avec un tiers ou non, ou bien s’il a besoin d’y accéder lorsqu’il n’est pas chez lui). Les infrastructures de stockage actuellement déployées reposent encore sur une approche très centralisée du cloud et ne s’inscrivent pas encore dans cette vision verticalement distribuée (ou à de très rares exceptions). De mon point de vue, il s’agit pourtant d’un des principaux axes d’innovation dans le domaine du stockage en ligne.

Pour des informations plus détaillées sur ce sujet, on pourra notamment consulter l’article publié sur le blog de la recherche d’Orange.

3- le stockage computationnel pour effectuer les opérations de traitement au plus près du stockage des données
Dans une majorité des infrastructures déployées aujourd’hui, les traitements à effectuer sur les données sont gérés de manière centralisée par un composant mutualisé. A titre d’exemple, on peut citer le cas du transcodage d’images : lorsqu’un utilisateur dépose une photo sur son cloud personnel, celle-ci va être transcodée en plusieurs formats, afin de pouvoir être lue sur différents terminaux (PC, téléphone mobile, TV, etc.). Chacune de ces nouvelles versions de la photo d’origine va alors être conservée sur l’infrastructure de stockage.

En lien avec l’arrivée des objets connectés et le développement du stockage en bordure de réseaux, tel que nous venons de l’évoquer dans les paragraphes précédents, il devient possible, dans l’esprit des architectures micro-services, de déplacer les opérations de traitement au plus près de l’endroit où les données sont stockées.

C’est un changement de paradigme, dans la mesure où, jusqu’alors, la recherche d’économies d’échelle avait poussé à bâtir des infrastructures les plus centralisées et massives possibles pour y stocker les données et y réaliser les opérations de traitement sur ces données.

Le stockage computationnel consiste donc à étudier quel est le meilleur endroit pour réaliser les traitements à effectuer sur une donnée stockée. Et dans certains cas, c’est le traitement qui va être déplacé, plutôt que la donnée. Ajoutons enfin que ce traitement, grâce notamment aux technologies de conteneurs, pourra être dynamiquement déployé ou désactivé, utilisant et libérant les ressources dont il a besoin au gré des opérations à réaliser.

Jérôme

Pour aller plus loin :

Télécharger le guide gratuit : « Le SDS est-il le futur du stockage cloud ? »

Télécharger le guide gratuit : « 10 conseils pour réussir le stockage des données d’entreprise dans le cloud »

Le Software-Defined Storage : faire face à l'explosion du volume de données

4 bonnes raisons de penser que le Cloud Storage est devenu incontournable

Jérôme Bidet

A ceux qui ne sont pas du tout de la partie, je dis en général que mon job consiste à lire et écrire des mails, rédiger des présentations et participer à des réunions.

A ceux qui connaissent un peu le secteur, je précise que je travaille dans les télécoms et plus précisément en recherche et innovation, dans le domaine du cloud.

Aux plus courageux ou compatissants, j’explique que je suis responsable d’une équipe de R&D et en charge d’un domaine technique sur l’évolution des infrastructures de stockage dans le cloud.

Avant ça, j’ai débuté ma carrière comme consultant en stratégie dans un grand groupe de conseil français, après des études en sciences économiques et en droit.

Puis, j’ai rejoint le groupe Orange pour assurer des fonctions de chef de projet R&D.

Je travaille actuellement au sein des Orange Labs, où mon rôle consiste essentiellement à organiser et promouvoir nos activités de recherche et d’innovation dans le domaine du cloud storage.

Pour ce faire, je m’appuie sur les nombreuses expertises présentes au sein de nos équipes.