Le VDI et ses limites

Qui de Citrix, Vmware ou Microsoft gagnera la course à la virtualisation du poste client ?

Franchement aucune idée !

Pour le moment les 3 grands se battent à coup de nouvelles fonctionnalités, de prise en charge de périphériques, d'expérience utilisateur.

Les vrais problèmes ne sont pourtant pas traités complètement, juste abordés.

En effet le réel enjeu de la virtualisation du poste de travail est son TCO lié essentiellement à la faible capacité des hyperviseurs à faire tourner un nombre important de machines virtuelles, mais surtout au stockage extravagant que cette architecture demande.
En effet, dans les grands groupes, le poste de travail est au cœur de la problématique informatique, il est mastérisé, déployé, inventorié, référencé, maintenu, en un mot industrialisé !
Garder les mêmes process avec un poste virtuel n'a aujourd'hui qu'une seule possibilité, 1 poste = 1 utilisateur, et ce poste ne peut être que persistant, donc occupant un espace SAN important (plusieurs Giga).

Mes détracteurs vont tout de suite avancer le provisionning de machines à la volée, la présence de cache persistant système, de profils utilisateurs qui permettent de ne pas conserver l'image complète d'une machine virtuelle mais de travailler à partir de templates et de différentiels systèmes et applicatifs.

Belle tentative marketing !

Pour du maquettage, des démos, ou de petites structures, cela fonctionne effectivement, sur de grands groupes le contexte est trop rigide. Il existe plusieurs centaines d'applications (à combiner entre elles) qui empêchent d'avoir seulement quelques templates tous prêts pour générer des machines virtuelles à la volée. De plus les mises à jours sont fréquentes (antivirus, patchs, outils divers, nouvelles applications), ce qui a pour effet de faire exploser le fameux cache système.  
Concernant le déploiement, tout poste lourd est généré à partir d'un master socle, sur lequel vient se télé distribuer une liste applicative selon les besoins de l'utilisateur; il faut souvent compter 2 ou 3 heures pour avoir un poste opérationnel, installations et habilitations comprises. Encore une fois ce mode de gestion est incompatible avec le provisionnng à la volée.

Alors pas de solution ?

Si, plusieurs axes principaux sont à approfondir :

  • Utiliser des SAN qui optimisent le stockage (thin provisionning, déduplication) et des matériels moins onéreux (à base de disques SATA, de connexion NFS plutôt qu'en FC)
  • Modifier/repenser les règles de gestion des postes virtuels pour être adaptées à ce type d'architecture et ne plus être qu'une variante des postes lourds classiques.
  • Implémenter le provisionning à la volée mais en repensant toute la chaine : master à jour, application, cache, et profil selon le principe novateur du recompose.
vdi recompose.jpg

Il faut pour cela virtualiser tous les composants, applications incluses (avec thinapp, app-v) et imposer la gestion de l'environnement (via gpo, script ou  mieux RES/Powerfuse)
A la connexion l'environnement complet est recomposé comme un puzzle dont chaque pièce viendrait d'une source différente.

Patrice Boukobza
Patrice Boukobza
Aujourd'hui consultant en virtualisation, et cela depuis plus de 12 ans avec une forte expérience des grands comptes, Patrice a commencé l'informatique au siècle dernier, quand internet n'existait pas encore et que les premiers réseaux de PC commençaient à voir le jour. Il a vu l'avènement de ces PC et de Microsoft en entreprise puis chez les particuliers, et a connecté les premiers modems pour surfer sur internet. 
Il garde un souvenir suranné des années "internet" avec le fameux bug de l'an 2000 où il a fait partie des équipes luttant contre cette crise potentielle, comme 10 ans plus tard il fût acteur sur le sujet de la pandémie H1N1.
Habitué des blogs (il en possède 3 personnels), il est un des contributeurs principaux du blog virtualisation d'Orange.