Infrastructures convergentes : stratégie du futur ou retour vers le passé ?

Métiers - Stratégie & projets IT

Publié le

Historiquement, lors de la mise en place d’une infrastructure IT, l’approche des décideurs était souvent basée sur la juxtaposition de plusieurs silos, plus ou moins indépendants, répondant à un besoin spécifique du SI. Cette démarche permettait de garantir la maîtrise d’un silo, d’une application ou d’un service donné mais aboutissait souvent à des infrastructures rigides peu enclines aux changements. Aujourd’hui, pour répondre à des exigences métiers qui évoluent rapidement, de grands fabricants du marché proposent de construire une infrastructure prête à l’emploi et tournée vers la productivité grâce aux solutions d’infrastructures convergentes.

Une infrastructure prépackagée livrée clé en main

Dans une infrastructure convergente, les différents composants (serveurs, stockage, réseau, sécurité) sont considérés comme des ressources interopérables gérées par une plate-forme commune : un moteur de services partagés. Ces infrastructures donnent la possibilité d’assembler ou de désassembler un pool de ressources à la demande pour ajuster au mieux le dimensionnement de l’ensemble du socle technique aux besoins réels d’une application. L’infrastructure est alors facilement scalable en cas d’augmentation de la charge.

Avec ce type de solutions, plutôt que d’assembler des composants individuellement, le client peut maintenant acheter un « bloc » de composants dans une offre prépackagée et préconfigurée par le fabricant. Ces offres sont généralement déclinées en plusieurs niveaux différents ayant chacun un dimensionnement spécifique et contenant plus ou moins de modules. Selon le besoin, le client peut ainsi choisir une offre « standard » (des serveurs d’application avec prise en charge du stockage et mise en réseau par exemple), ou opter pour une offre « haut de gamme » donnant accès en plus à des mécanismes intégrés de redondance.

Par ailleurs, à la différence des mécanismes de virtualisation serveurs, les infrastructures convergentes permettent une virtualisation de bout-en-bout d’une architecture en couvrant plusieurs types de composants, du matériel au logiciel.

Les infrastructures convergentes, un gain en efficacité et en productivité

Les systèmes d’information de nos clients sont souvent constitués de plusieurs outils  hétérogènes complexifiant le déploiement de nouvelles infrastructures. Avant même de commencer l’installation des composants applicatifs, un temps non négligeable est consacré aux phases amont d’évaluation des ressources, d’installation du matériel, d’intégration des serveurs et des périphériques. Cette étape amont est à la fois gourmande en temps et en ressources, pour une valeur ajoutée métier faible. En proposant la construction d’une infrastructure opérationnelle à partir d’une pile d’éléments pré-intégrée et pré-testée, les infrastructures convergentes réduisent considérablement la durée de cette phase.

Outre le gain de temps, les solutions d’infrastructures convergentes permettent un suivi centralisé et outillé des composants du SI. En effet, elles consolident plusieurs outils de supervision en une seule console assurant la gestion intégrale de l’environnement du datacenter. Les administrateurs sont alors capables d’avoir une vision globale du SI, d’orchestrer les différentes briques de manière optimale en éliminant les tâches manuelles, à la fois fastidieuses et génératrices d’erreurs.

La convergence au détriment de la souplesse du SI

Si les solutions d’infrastructures convergentes semblent séduisantes, elles exigent néanmoins un pilotage et une organisation sans faille des ressources, ce qui est possible lorsque l’ensemble de la pile est non seulement convergent, mais également administré à partir d’un cadre unique englobant à la fois les infrastructures physiques et virtuelles.

De plus, pour conserver un catalogue de services diversifié, les DSI ne souhaitent pas « s’enfermer » dans un modèle mono-fabricant sur tout ou partie des couches de leur infrastructure.

Par conséquent, un des enjeux des fabricants de solutions d’infrastructures convergentes reste à gérer la combinaison de différentes solutions (physiques ou virtuelles) de plusieurs fabricants pour mieux répondre aux attentes réelles des hébergeurs et des entreprises disposant de salles hétérogènes.

Accélérer les déploiements mais à quel prix ?

En gestion des infrastructures, la convergence n’est plus seulement une possibilité technologique mais devient un véritable facteur de productivité. Le but ultime des solutions d’infrastructures convergentes est d’aboutir à un système unifié et géré depuis un point central ; une sorte d’ « appliance d’infrastructure » qui serait à la fois scalable et interchangeable. À terme, cette rationalisation permettra de répondre à des besoins de performance économique et de réactivité des outils informatiques.

Néanmoins, telle qu’elle est envisagée actuellement par les grands fabricants, la rapidité opérationnelle de ces infrastructures se fait au détriment de l’ouverture du SI et de son agilité. Sur le long terme, les limitations de ce type de solutions pourraient impacter l’évolutivité du SI et son adaptabilité à des besoins futurs.

Par ailleurs, les retours d’expériences montrent des difficultés dans la définition du partage de responsabilité entre les équipes des silos techniques traditionnels. Ces solutions demandant donc à revoir les organisations pour les aligner aux fonctionnalités fournies.

Pour conclure, la transition vers la convergence de l’infrastructure implique d’avoir des besoins très homogènes en technologie sans pour autant vouloir recourir aux offres cloud. De plus, une migration vers une infrastructure convergente doit être réalisée avec précaution en s’assurant de la réversibilité de la migration d’une part et de l’évolutivité de la solution d’autre part pour éviter les écueils des systèmes « fermés » (mainframes par exemple).