Les lois du Cloud Computing - Les 10 règles structurelles (3/11)

Dans cet article, je traite de ma seconde règle

la scalabilité des infrastructures Cloud Computing

Règle numéro 1

La connectivité où le principe d'accès universel à l'infrastructure

Règle numéro 2

La Scalabilité de l'infrastructure où le principe de croissance à la demande

Règle numéro 3

Tout objet utilisé est quantifié où le principe de gestion des ressources à l'usage

Règle numéro 4

La guérison automatique où le principe de la continuité de la disponibilité de la ressource

Règle numéro 5

L'interopérabilité avec mon SI interne où le principe de communication entre systèmes d'informations

Règle numéro 6

Le multi-tenant où le principe de partage des ressources

Règle numéro 7

La sécurité où le principe de pérennité de mon infrastructure

Règle numéro 8

L'orchestration où le principe d'une nouvelle gouvernance de mon IT

Règle numéro 9

L'architecture universelle où le principe d'accepter des systèmes hétérogènes

Règle numéro 10

La simplicité (du point de vue de l'utilisateur)

 
 
 
 
 
 

scalabilité de l'infrastructure ou le principe de croissance à la demande

Les ressources délivrées par le Cloud Computing doivent pouvoir être simplement étendues. Je considère que le Cloud Computing est avant tout un support d'exécution qui délivre de la ressource pour l'exécution de Services. Que ce soit en mode PaaS, SaaS, IaaS ou autres, un utilisateur connecté au nuage accède et utilise des typologies de ressources comme par exemple une application, une machine virtuelle ou simplement du CPU. 
 

la scalabilité, c'est quoi ?

La scalabilité, c'est la capacité d'évolution de la plateforme sans remettre en cause son socle d'infrastructure. Je distingue deux  types de scalabilité, la scalabilité linéaire et l'horizontale.
 
La scalabilité linéaire suit l'évolution du nombre d'utilisateurs. Du point de vue des performances, une plateforme de Cloud Computing doit être constante. Cela implique que plus le nombre d'utilisateurs augmente, plus la quantité de ressources doit être importante. On parle de scalabilité linéaire lorsque le niveau global de ressources de la plateforme suit l'évolution de la consommation de ces ressources de façon à rester constant et permettre à la plateforme de délivrer toujours le même niveau de services.
 
La scalabilité horizontale quant à elle, n'est pas liée directement à l'augmentation du nombre d'utilisateurs. Il s'agit de la croissance et de l'amélioration des services de la plateforme de Cloud Computing. Par exemple, l'ajout sur une même plateforme de nouvelles applications, d'une solution de sauvegarde en ligne, d'un module de haute disponibilité, etc. Le champion en la matière est surement Google avec sa solution applicative en mode SaaS Google Apps qui améliore régulièrement sa richesse fonctionnelle tout en restant sur les mêmes engagements de services et la même tarification.

le principe de croissance à la demande

Ce qui est important dans ce concept, c'est la simplicité de mise en œuvre. Pour qu'une plateforme soit réellement scalable et puisse être définie comme « Cloud Computing » compliant, il faut que son évolution soit transparente pour l'utilisateur final et n'entraine pas d'arrêts de services et en conséquences que l'architecture de la plateforme soit conçue pour évoluer sans interruptions de services. En cela la virtualisation simplifie la tâche des administrateurs en permettant :
  • d'être indépendant par rapport à la couche matérielle. A architectures CPU comparable, il est possible de mélanger dans la même infrastructure les constructeurs différents, les générations de serveurs et différentes baies de stockages et ou équipementiers réseaux. La virtualisation amène une couche d'abstraction du matériel qui permet de gérer des parcs hétérogènes. Le composant physique, du point de vue de l'administrateur, n'est perçu que comme une ressource. Dans le cadre de la scalabilité linéaire, il suffit de « plugger » les nouveaux éléments dans le datacenter et de les enregistrer pour que l'infrastructure Cloud puisse bénéficier immédiatement de l'ajout des ressources. 
 
  • d'être isolé. Un des principes fondamentaux de la virtualisation est l'isolation des ressources. Il est plus simple de faire évoluer une plateforme lorsque l'on sait que la gestion des dépendances aura peu d'impacts sur la production. On sait isoler le système d'exploitation du matériel, ce qui a du sens dans une infrastructure IaaS, mais on sait aussi limiter les adhérences entre les applications (pas toutes) et le système d'exploitation, ce qui permet de faire fonctionner par exemple deux versions d'une même application sur un même système.
 
On le voit, un des intérêts de la virtualisation est de limiter les infrastructures en silo et de proposer des environnements de production mutualisés. C'est la mutualisation qui donne à l'utilisateur final le sentiment de croissance à la demande de son infrastructure Cloud Computing.
 
Si j'affine ma définition du Cloud Computing, nous avons désormais une plateforme connectée à internet qui accepte des périphériques clients hétérogènes, qui est mutualisée et qui est scalable.
 
Dans un prochain article, j'aborderai le principe de gestion des ressources à l'usage pour affiner cette réflexion.
 
Olivier Domy
 
Olivier Domy

Je suis un pragmatique qui a cœur de proposer des solutions cohérentes et en phase avec un contexte client spécifique. Je travaille essentiellement autour des concepts liés à la rationalisation des infrastructures des systèmes d’information et particulièrement sur les projets de transformation des environnements utilisateurs.