<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>datacenter - RiskInsight</title>
	<atom:link href="https://www.riskinsight-wavestone.com/en/tag/datacenter-en/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.riskinsight-wavestone.com/en/tag/datacenter-en/</link>
	<description>The cybersecurity &#38; digital trust blog by Wavestone&#039;s consultants</description>
	<lastBuildDate>Tue, 31 Dec 2019 11:00:35 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.riskinsight-wavestone.com/wp-content/uploads/2024/02/Blogs-2024_RI-39x39.png</url>
	<title>datacenter - RiskInsight</title>
	<link>https://www.riskinsight-wavestone.com/en/tag/datacenter-en/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Le réseau de demain sera-t-il hybride ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2013/11/le-reseau-de-demain-sera-t-il-hybride/</link>
		
		<dc:creator><![CDATA[Guillaume Vaquero]]></dc:creator>
		<pubDate>Fri, 08 Nov 2013 10:24:25 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[accès internet]]></category>
		<category><![CDATA[datacenter]]></category>
		<category><![CDATA[MPLS]]></category>
		<category><![CDATA[performance]]></category>
		<category><![CDATA[réseaux hybrides]]></category>
		<category><![CDATA[télécoms d'entreprise]]></category>
		<category><![CDATA[WAN]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=4502</guid>

					<description><![CDATA[<p>Le concept de réseau hybride devient de plus en plus présent dans les réflexions des grands comptes autour de leurs réseaux WAN. En effet, face à l’augmentation des besoins en bande passante et sous la pression du contexte économique, le...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/11/le-reseau-de-demain-sera-t-il-hybride/">Le réseau de demain sera-t-il hybride ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Le concept de réseau hybride devient de plus en plus présent dans les réflexions des grands comptes autour de leurs réseaux WAN. En effet, face à l’augmentation des besoins en bande passante et sous la pression du contexte économique, le règne du tout-MPLS semble s’achever. Les technologies réseaux hybrides font la promesse de performances et de disponibilité accrues pour un coût moindre. Promesse tenue ?</p>
<h2>Qu’est-ce qu’un réseau hybride ?</h2>
<p>Les réseaux d’interconnexion (WAN) des grands comptes se sont majoritairement construits ces dernières années sur la technologie MPLS. Ces réseaux se concentraient autour de quelques sites centraux (Datacenters) où étaient hébergés applications et accès internet centralisés. Dans certains cas, un accès secondaire (MPLS ou internet) était également présent sur les sites distants afin d’assurer le secours du lien primaire.</p>
<p style="text-align: left;">A contrario, les réseaux hybrides combinent l’utilisation beaucoup plus massive de liens internet à une limitation de l’usage des réseaux MPLS. Des accès internet locaux permettent ainsi d’acheminer les flux non critiques vers les datacenters et peuvent même constituer des passerelles locales de sortie vers le web. Seuls les flux critiques restent alors véhiculés par les réseaux MPLS, conduisant à une réduction massive du débit de ces liens, voire à leur suppression dans un certain nombre de cas.</p>
<p style="text-align: center;"><img fetchpriority="high" decoding="async" class="aligncenter  wp-image-4503" title="réseaux hybrides" src="http://www.solucominsight.fr/wp-content/uploads/2013/11/réseaux-hybrides.jpg" alt="" width="396" height="342" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2013/11/réseaux-hybrides.jpg 440w, https://www.riskinsight-wavestone.com/wp-content/uploads/2013/11/réseaux-hybrides-221x191.jpg 221w, https://www.riskinsight-wavestone.com/wp-content/uploads/2013/11/réseaux-hybrides-45x39.jpg 45w" sizes="(max-width: 396px) 100vw, 396px" /></p>
<h2>De potentiels bénéfices économiques et fonctionnels</h2>
<p>Outre l’utilisation de toute la bande passante disponible sur chaque site, les réseaux hybrides peuvent amener des bénéfices de nature économique ou fonctionnelle.</p>
<p>Les liaisons MPLS traditionnelles offrent des garanties de performance mais coûtent cher, en particulier à l’international. Les liens internet offrent au contraire un meilleur ratio bande passante / coût. Par ailleurs, leurs caractéristiques (très standards) permettent d’optimiser l’équation économique en recourant à des opérateurs domestiques plus compétitifs.</p>
<p>En outre, le mouvement de fond des entreprises vers le cloud entraîne un déplacement de plus en plus marqué des ressources de l’entreprise vers internet (messagerie, applications bureautiques voire métier). Dans ce contexte, les réseaux hybrides permettent de « rapprocher » l’accès internet des utilisateurs, et d’augmenter le débit moyen disponible.</p>
<h2>Des risques de sécurité et de performance à ne pas négliger</h2>
<p>La mise en place de réseaux hybrides implique l’utilisation massive d’accès internet sur les sites distants. Il convient donc de traiter avec attention les risques associés sur les performances et la sécurité.</p>
<p>Internet fonctionne en « Best Effort » et ne garantit pas les performances ou encore la priorisation des données. L’identification fine des flux est donc primordiale pour garantir la performance nécessaire aux applications critiques (en les routant vers le MPLS) et faire transiter les autres par les accès internet. Ceci pose également la question du bon dimensionnement de chacun des liens (MPLS et internet).</p>
<p>Par ailleurs, les accès internet sur les sites deviennent une porte d’entrée vulnérable pour le réseau de l’entreprise. Il convient donc de redoubler de vigilance pour protéger les sites des attaques, qu’elles soient localisées (DoS…) ou plus globales (intrusion, contamination virale…).</p>
<h2>Où en sommes-nous aujourd’hui ?</h2>
<p>Les acteurs du marché (acteurs réseaux &#8211; Cisco, Juniper, Ipanema, Riverbed… – ou acteurs sécurité &#8211; Fortinet, Stonesoft…)  disposent de solutions techniques qui atteignent un bon niveau de maturité aujourd’hui. Ces solutions assurent l’identification des flux, leur routage et peuvent intégrer les fonctions de sécurité.</p>
<p>Les grands comptes, attirés par les apports financiers et fonctionnels des réseaux hybrides, ont quasiment tous entamé leur réflexion autour de ces sujets. Cette tendance est surtout vraie pour les périmètres internationaux. Les déploiements restent en revanche encore limités.</p>
<p style="text-align: center;"><img decoding="async" class="size-full wp-image-4504  aligncenter" title="chiffres réseaux hybrides" src="http://www.solucominsight.fr/wp-content/uploads/2013/11/chiffres-réseaux-hybrides.png" alt="" width="404" height="218" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2013/11/chiffres-réseaux-hybrides.png 404w, https://www.riskinsight-wavestone.com/wp-content/uploads/2013/11/chiffres-réseaux-hybrides-354x191.png 354w, https://www.riskinsight-wavestone.com/wp-content/uploads/2013/11/chiffres-réseaux-hybrides-71x39.png 71w" sizes="(max-width: 404px) 100vw, 404px" /></p>
<address style="text-align: center;"><em>chiffres basés sur un échantillon de 8 grands comptes à présence internationale</em></address>
<address style="text-align: center;"> </address>
<p>Les entreprises doivent également prendre en compte les impacts de cette transformation qui ne sont pas uniquement techniques : le changement de modèle implique une complexification de l’architecture et de l’exploitation (liée à la multiplication des liens et des acteurs). Les impacts associés, qu’ils soient opérationnels ou économiques, doivent bien être pris en compte dans le <em>business case</em> du projet. Pour éviter que ce risque ne neutralise les gains escomptés, nous préconisons ainsi d’initier le déploiement par la mise en place d’un périmètre pilote, permettant de confirmer la pertinence de la stratégie retenue en fonction de l’environnement.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/11/le-reseau-de-demain-sera-t-il-hybride/">Le réseau de demain sera-t-il hybride ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Datacenter contre cloud computing : mort programmée de l’hébergement en datacenter « traditionnel » ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2013/10/datacenter-contre-cloud-computing-mort-programmee-de-lhebergement-en-datacenter-traditionnel/</link>
		
		<dc:creator><![CDATA[Thomas Guibourg]]></dc:creator>
		<pubDate>Wed, 30 Oct 2013 09:21:25 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Cloud computing]]></category>
		<category><![CDATA[datacenter]]></category>
		<category><![CDATA[hébergement]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=4449</guid>

					<description><![CDATA[<p>Complexes et manquant de souplesse, les modèles d’hébergement en datacenter existant commencent à plier sous le poids de l’historique du SI. A l’inverse, les sirènes du cloud computing ne cessent de chanter : agilité, performance, juste coût… et séduisent de...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/10/datacenter-contre-cloud-computing-mort-programmee-de-lhebergement-en-datacenter-traditionnel/">Datacenter contre cloud computing : mort programmée de l’hébergement en datacenter « traditionnel » ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Complexes et manquant de souplesse, les modèles d’hébergement en datacenter existant commencent à plier sous le poids de l’historique du SI. A l’inverse, les sirènes du cloud computing ne cessent de chanter : agilité, performance, juste coût… et séduisent de plus en plus de donneurs d’ordres. Face à cet engouement pour le cloud computing, quelle place restera-t-il aux datacenters traditionnels ?</em></p>
<h2>Le <em>datacenter</em> d’hier à aujourd’hui</h2>
<p>Le modèle de datacenter traditionnel est divisé en 3 couches de service. Tout d’abord, il y a l’hébergement, qui intègre la fourniture d’énergie électrique / de climatisation, les raccordements « réseau » et « télécom », sans oublier la sécurité physique. La 2<sup>ème</sup> couche est l’infrastructure qui comprend de son côté les infrastructures mutualisées (réseau, stockage, sécurité, sauvegarde…) et les serveurs dédiés aux applications. Enfin, la dernière couche est celle de l’infogérance : MCO*, administration, suivi des niveaux de services…</p>
<p>Les datacenters consolidés et externalisés tels que nous les connaissons sont nés de <strong>2 grandes mutations</strong> :</p>
<ul>
<li>Le passage de salles informatiques décentralisées et dont la sécurisation des accès est faible <strong>vers des datacenters consolidés</strong> a d’abord permis de mieux répondre aux besoins croissants d’hébergement et de sécurité tout en réduisant les coûts du fait de la rationalisation des moyens humains et matériels.</li>
<li>L’accélération de la croissance des besoins d’hébergement (capacité et disponibilité des infrastructures primaires) et du cycle de vie des applications ainsi que la volonté des grands groupes de se recentrer sur leur cœur de métier ont ensuite généré  l’<strong>externalisation des services d’hébergement et infogérance</strong>.</li>
</ul>
<h2>Les limites du <em>datacenter</em> actuel</h2>
<p>Aujourd’hui, le <em>datacenter </em>traditionnel peine parfois à satisfaire les besoins des grands groupes.</p>
<p>Les coûts et les délais d’activation de nouveaux services sont importants. Le service d’opérations n’est plus suffisamment agile pour répondre aux exigences de flexibilité demandées par les Métiers.</p>
<p>Par ailleurs, la gestion en interne du socle IT force les DSI à s’engager à long terme sur leurs choix de technologies et à conserver en interne les compétences <em>ad hoc</em>. Dans ce contexte de réduction des coûts, ce modèle consommateur de CAPEX ne permet pas aux DSI d’atteindre leurs objectifs.</p>
<p>Enfin, l’évolution, toujours plus grande difficilement prévisible, des besoins d’hébergement rend difficile le dimensionnement des <em>datacenters</em> qui sont conçus pour une durée de 10 à 15 ans.</p>
<h2>Des services <em>clouds</em> qui dépassent ces limites…</h2>
<p>Le <em>Cloud computing</em> est pour ainsi dire l’évolution du modèle de datacenter traditionnel vers une approche orientée service. Le client commande des ressources packagées sous la forme d’un service (IaaS, PaaS ou SaaS) et ne se préoccupe pas des technologies qui les supportent.</p>
<p>Il est plus souvent vendu sous forme de <em>Cloud</em> privé, infrastructure dédiée dont l’usage est exclusif à une organisation, ou sous forme de <em>Cloud</em> public, infrastructure mutualisée et ouverte à tous.</p>
<p>Le <em>Cloud</em>, de par ses caractéristiques, semble en effet plus apte à répondre aux attentes des DSI, car il s’avère :</p>
<ul>
<li><strong>Agile :</strong> le cycle d’activation des nouveaux services est court, de l’ordre de quelques heures à comparer à 3 ou 4 semaines pour le datacenter traditionnel (possible réduction des délais avec la virtualisation)</li>
<li><strong>Élastique :</strong> la capacité du SI s’adapte à la demande du client donnant l’impression d’infini</li>
<li><strong>Simple à gérer :</strong> l’approche « unité d’œuvre » permet de transférer la complexité technique et financière du SI au fournisseur. De plus, la facturation à l’usage optimise les coûts du service</li>
<li><strong>Conçu dans l’optique de qualité de service</strong> grâce à la standardisation de son modèle</li>
</ul>
<h2>… sans pour autant être illimités eux-mêmes !</h2>
<p>Certes standardisées et performantes, les offres <em>Cloud</em> nécessitent souvent une adaptation préalable du client, qui peut se révéler coûteuse et chronophage. Aujourd’hui seuls des périmètres standardisés du SI s’avèrent de fait éligibles au <em>Cloud</em>. Cette éligibilité restreinte, ainsi que la complexité accrue pour rendre les SI interopérables, pouvant au final faire du Cloud un élément complexifiant le SI plus qu’il ne le simplifie. Par ailleurs, la capacité du <em>Cloud</em> à respecter les contraintes de confidentialité et de localisation des données imposées par les réglementations (données personnelles…) pose encore question.</p>
<p>Enfin, la perte de la maîtrise du SI en interne de bout en bout inhérente au <em>Cloud </em>effraie beaucoup les DSI. La dépendance au fournisseur est grande et la réversibilité est encore floue.</p>
<h2>Quels services de <em>datacenter</em> pour demain ?</h2>
<p>Malgré les freins qui sont inhérents au Cloud et à anticiper, du fait de ses nombreux avantages, ce dernier se développe, même si principalement sous forme « privée » ou sur des périmètres restreints. La mouvance vers le Cloud passera par deux étapes.</p>
<p><strong>Dans un premier temps, le mouvement va préférentiellement s’opérer du datacenter traditionnel vers le cloud privé, qu’il soit interne ou externe.</strong> Ce mouvement sera naturel dans le cas des services infogérés externes, notamment par l’évolution des contrats vers une approche orientée service. Pour les datacenters internes, il sera provoqué par les pressions des Métiers sur la DSI pour l’implémentation d’un service moins coûteux et plus lisible. Ces premières implémentations participeront à la levée des freins à l’adoption du cloud, ce qui permettra le développement du Cloud public dans un second temps.</p>
<p>Même si le <em>cloud</em> risque de faire perdre des parts de marché au <em>datacenter</em> traditionnel, l’avenir n’est pas à la disparition mais à la cohabitation. De son côté, le datacenter traditionnel restera présent pour les infrastructures spécifiques (Mainframe ZOS, AS400…) ou dans le cas d’un SI très spécifique. Le <em>Cloud</em> privé quant à lui sera exploité dans le cas de SI standards ou standardisables mais contenant des données stratégiques. Enfin, le <em>Cloud</em> public fera loi dans le cas de SI standards ou standardisables dont les données manipulées sont non stratégiques et non confidentielles et dont le besoin d’intégration avec les infrastructures hors du <em>Cloud</em> est faible.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/10/datacenter-contre-cloud-computing-mort-programmee-de-lhebergement-en-datacenter-traditionnel/">Datacenter contre cloud computing : mort programmée de l’hébergement en datacenter « traditionnel » ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Infrastructures convergentes : stratégie du futur ou retour vers le passé ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2013/01/infrastructures-convergentes-strategie-du-futur-ou-retour-vers-le-passe/</link>
		
		<dc:creator><![CDATA[zephSolucomBO]]></dc:creator>
		<pubDate>Fri, 11 Jan 2013 09:29:48 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Agilité]]></category>
		<category><![CDATA[convergence]]></category>
		<category><![CDATA[datacenter]]></category>
		<category><![CDATA[Infrastructure]]></category>
		<category><![CDATA[rationalisation]]></category>
		<category><![CDATA[stockage]]></category>
		<category><![CDATA[virtualisation]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=2892</guid>

					<description><![CDATA[<p>Historiquement, lors de la mise en place d’une infrastructure IT, l’approche des décideurs était souvent basée sur la juxtaposition de plusieurs silos, plus ou moins indépendants, répondant à un besoin spécifique du SI. Cette démarche permettait de garantir la maîtrise...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/01/infrastructures-convergentes-strategie-du-futur-ou-retour-vers-le-passe/">Infrastructures convergentes : stratégie du futur ou retour vers le passé ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Historiquement, lors de la mise en place d’une infrastructure IT, l’approche des décideurs était souvent basée sur la juxtaposition de plusieurs silos, plus ou moins indépendants, répondant à un besoin spécifique du SI. Cette démarche permettait de garantir la maîtrise d’un silo, d’une application ou d’un service donné mais aboutissait souvent à des infrastructures rigides peu enclines aux changements. Aujourd’hui, pour répondre à des exigences métiers qui évoluent rapidement, de grands fabricants du marché proposent de construire une infrastructure prête à l’emploi et tournée vers la productivité grâce aux solutions d’infrastructures convergentes.</em></p>
<p><span id="more-2892"></span></p>
<h2>Une infrastructure prépackagée livrée clé en main</h2>
<p>Dans une infrastructure convergente, les différents composants (serveurs, stockage, réseau, sécurité) sont considérés comme des ressources interopérables gérées par une plate-forme commune : un moteur de services partagés. Ces infrastructures donnent la possibilité d’assembler ou de désassembler un pool de ressources à la demande pour ajuster au mieux le dimensionnement de l’ensemble du socle technique aux besoins réels d’une application. L’infrastructure est alors facilement scalable en cas d’augmentation de la charge.</p>
<p>Avec ce type de solutions, plutôt que d’assembler des composants individuellement, le client peut maintenant acheter un « bloc » de composants dans une offre prépackagée et préconfigurée par le fabricant. Ces offres sont généralement déclinées en plusieurs niveaux différents ayant chacun un dimensionnement spécifique et contenant plus ou moins de modules. Selon le besoin, le client peut ainsi choisir une offre « standard » (des serveurs d&#8217;application avec prise en charge du stockage et mise en réseau par exemple), ou opter pour une offre « haut de gamme » donnant accès en plus à des mécanismes intégrés de redondance.</p>
<p>Par ailleurs, à la différence des mécanismes de virtualisation serveurs, les infrastructures convergentes permettent une virtualisation de bout-en-bout d’une architecture en couvrant plusieurs types de composants, du matériel au logiciel.</p>
<h2>Les infrastructures convergentes, un gain en efficacité et en productivité</h2>
<p>Les systèmes d’information de nos clients sont souvent constitués de plusieurs outils  hétérogènes complexifiant le déploiement de nouvelles infrastructures. Avant même de commencer l’installation des composants applicatifs, un temps non négligeable est consacré aux phases amont d’évaluation des ressources, d’installation du matériel, d’intégration des serveurs et des périphériques. Cette étape amont est à la fois gourmande en temps et en ressources, pour une valeur ajoutée métier faible. En proposant la construction d’une infrastructure opérationnelle à partir d’une pile d’éléments pré-intégrée et pré-testée, les infrastructures convergentes réduisent considérablement la durée de cette phase.</p>
<p>Outre le gain de temps, les solutions d’infrastructures convergentes permettent un suivi centralisé et outillé des composants du SI. En effet, elles consolident plusieurs outils de supervision en une seule console assurant la gestion intégrale de l&#8217;environnement du datacenter. Les administrateurs sont alors capables d’avoir une vision globale du SI, d’orchestrer les différentes briques de manière optimale en éliminant les tâches manuelles, à la fois fastidieuses et génératrices d’erreurs.</p>
<h2>La convergence au détriment de la souplesse du SI</h2>
<p>Si les solutions d’infrastructures convergentes semblent séduisantes, elles exigent néanmoins un pilotage et une organisation sans faille des ressources, ce qui est possible lorsque l’ensemble de la pile est non seulement convergent, mais également administré à partir d’un cadre unique englobant à la fois les infrastructures physiques et virtuelles.</p>
<p>De plus, pour conserver un catalogue de services diversifié, les DSI ne souhaitent pas « s’enfermer » dans un modèle mono-fabricant sur tout ou partie des couches de leur infrastructure.</p>
<p>Par conséquent, un des enjeux des fabricants de solutions d’infrastructures convergentes reste à gérer la combinaison de différentes solutions (physiques ou virtuelles) de plusieurs fabricants pour mieux répondre aux attentes réelles des hébergeurs et des entreprises disposant de salles hétérogènes.</p>
<h2>Accélérer les déploiements mais à quel prix ?</h2>
<p>En gestion des infrastructures, la convergence n’est plus seulement une possibilité technologique mais devient un véritable facteur de productivité. Le but ultime des solutions d’infrastructures convergentes est d’aboutir à un système unifié et géré depuis un point central ; une sorte d’ « appliance d’infrastructure » qui serait à la fois scalable et interchangeable. À terme, cette rationalisation permettra de répondre à des besoins de performance économique et de réactivité des outils informatiques.</p>
<p>Néanmoins, telle qu’elle est envisagée actuellement par les grands fabricants, la rapidité opérationnelle de ces infrastructures se fait au détriment de l’ouverture du SI et de son agilité. Sur le long terme, les limitations de ce type de solutions pourraient impacter l’évolutivité du SI et son adaptabilité à des besoins futurs.</p>
<p>Par ailleurs, les retours d’expériences montrent des difficultés dans la définition du partage de responsabilité entre les équipes des silos techniques traditionnels. Ces solutions demandant donc à revoir les organisations pour les aligner aux fonctionnalités fournies.</p>
<p>Pour conclure, la transition vers la convergence de l’infrastructure implique d’avoir des besoins très homogènes en technologie sans pour autant vouloir recourir aux offres cloud. De plus, une migration vers une infrastructure convergente doit être réalisée avec précaution en s’assurant de la réversibilité de la migration d’une part et de l’évolutivité de la solution d’autre part pour éviter les écueils des systèmes « fermés » (<em>mainframes</em> par exemple).</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/01/infrastructures-convergentes-strategie-du-futur-ou-retour-vers-le-passe/">Infrastructures convergentes : stratégie du futur ou retour vers le passé ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Les plans de continuité informatique des cloud à l’épreuve de l’ouragan Sandy</title>
		<link>https://www.riskinsight-wavestone.com/en/2012/12/les-plans-de-continuite-informatique-des-cloud-a-lepreuve-de-louragan-sandy/</link>
		
		<dc:creator><![CDATA[Yannick Neff]]></dc:creator>
		<pubDate>Fri, 28 Dec 2012 08:30:49 +0000</pubDate>
				<category><![CDATA[Cloud & Next-Gen IT Security]]></category>
		<category><![CDATA[Cybersecurity & Digital Trust]]></category>
		<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Cloud security]]></category>
		<category><![CDATA[datacenter]]></category>
		<category><![CDATA[PCI]]></category>
		<category><![CDATA[RaaS]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=2778</guid>

					<description><![CDATA[<p>Quand l’ouragan « Katrina » a frappé la Côte du Golf des États-Unis, en Août 2005, ravageant une bonne partie de l’infrastructure de télécommunications, seule une poignée de datacenters a pu tenir le choc. « Katrina » n’a pas seulement anéanti ces centres de...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2012/12/les-plans-de-continuite-informatique-des-cloud-a-lepreuve-de-louragan-sandy/">Les plans de continuité informatique des cloud à l’épreuve de l’ouragan Sandy</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Quand l’ouragan « Katrina » a frappé la </em><em>Côte du Golf des États-Unis, en Août 2005, ravageant une bonne partie de l’infrastructure de télécommunications, seule une poignée de datacenters a pu tenir le choc. « Katrina » n’a pas seulement anéanti ces centres de données, mais a également mis en défaut un nombre important de plans de continuité informatique (PCI).</em></p>
<p><em>Des sinistres de cette ampleur ont permis d’alerter les DSI sur leur exposition face aux risques naturels. La régularité et la violence de ces évènements climatiques ont poussé les entreprises à prendre des mesures pour faire face à de futures tempêtes de la dimension de «Sandy». Les leçons du passé ont-elles pour autant été retenues ? Ont-elles toutes réussi ce test grandeur nature ? si oui, comment y sont- elles parvenues ?</em></p>
<p><span id="more-2778"></span></p>
<h2>Les conséquences de l’ouragan « Sandy »</h2>
<p>Annoncé comme une catastrophe majeure dans l’histoire des États-Unis, l’ouragan « Sandy » a capté l’attention de la plupart des DSI des acteurs économiques de la côte Est qui ont mobilisé leurs efforts pour déclencher leurs plans de continuité informatique. Ces PCI, mis à niveau depuis les attentats du 11 Septembre 2001, sont fondés notamment sur des procédés de géo-réplication.</p>
<p>Les acteurs du web et plus largement du marché du cloud sont plus enclins à communiquer sur leur capacité de reprise et à faire des retours sur les incidents subis que les entreprises traditionnelles. Les informations disponibles proviennent donc essentiellement de ces acteurs.</p>
<p>De nombreuses pannes d&#8217;électricité causées par la tempête, ont entraîné une indisponibilité partielle ou totale de services (Huffington Post, Gawker, Cafemon, Gizmodo, Buzzfeed, etc.) dans bon nombre de datacenters. Les hébergeurs et fournisseurs de services cloud <strong>Datagram</strong> et<strong> 75 Broad</strong> ont été indisponibles à causes d’inondations ou réserves insuffisantes de carburant pour le fonctionnement des groupes électrogènes.</p>
<p>« Sandy » a ainsi rendu apparente la vulnérabilité des nombreux datacenters présents dans cette zone (New York, New Jersey, et Virginie) des États-Unis. En effet, plusieurs centres de données géo-répliqués n’étaient distants que d’une centaine de kilomètres (150 datacenters) et donc dans le rayon d’impact de Sandy.</p>
<p>Ces dysfonctionnements mettent en exergue la nécessité, même pour des PCI bien pensés comme ceux de Wall Street, d’être mis à l’épreuve dans des conditions proches de la réalité, avant d’être jugés comme fiables.</p>
<h2><strong> Des PCI à l&#8217;épreuve des ouragans </strong></h2>
<p>Certains opérateurs de datacenter, comme <a href="http://searchcloudprovider.techtarget.com/news/2240170482/Hurricane-Sandys-wake-How-did-providers-data-center-DR-plans-do"><strong>Telx</strong></a>, ont résisté à Sandy car ils avaient appliqué précédemment des tests simulant jusqu’au bout un sinistre. Par cette initiative, Telx a pu identifier certaines insuffisances dans son PCI comme la surchauffe de ses générateurs en mode dégradé et a donc pu limiter l’impact de Sandy.</p>
<p>Un cas d’école est celui de Buzzfeed qui, malgré le crash de Datagram qui hébergeait ses serveurs primaires, a réussi à réduire considérablement le temps d’indisponibilité de ses services. Cette réussite s’explique par :</p>
<ul>
<li>la mise en cache de la plupart de ses pages chez Akamai, le gestionnaire et diffuseur de contenu</li>
<li>l’hébergement dans un second datacenter des données répliquées en temps réel.</li>
</ul>
<p>La réplication de ces données a permis le rétablissement des services de Buzzfeed chez Amazon Web services (AWS). Quelques heures ont suffi pour assurer la migration complète des données vers AWS et ainsi basculer leur service sur les infrastructures d’Amazon. Cet exploit est à relativiser car il a nécessité la configuration manuelle d’une bonne partie du socle technique de Buzzfeed et reste donc peu applicable en l’état à un SI complexe.</p>
<h2>Les leçons de « Sandy »</h2>
<p>Chaque incident majeur est une façon pour les Grands Comptes d’apprendre par le réel et d’anticiper les futures catastrophes. Au-delà d’une stratégie multi-datacenters, Sandy a  mis en exergue la nécessité d’anticiper, de tester et d’adapter le PCI.</p>
<p>Elle a aussi révélé le cloud comme une alternative envisageable pour réaliser un PCI. Alternative que les offreurs cloud commencent à mettre en avant par le biais de leurs offres packagées de <a title="Recovery-as-a-Service (RaaS) : une révolution pour le secours informatique ?" href="http://www.solucominsight.fr/2012/06/recovery-as-a-service-raas-une-revolution-pour-le-secours-informatique/">Disaster Recovery As A Service.</a></p>
<p>Les entreprises européennes et notamment françaises, qui ont moins l’occasion de mettre à l’épreuve de la réalité leur PCI, devraient néanmoins s’inspirer des retours d’expériences plus nombreux acquis par les américains. D’autant plus que les hébergeurs de cloud ne rechignent pas à communiquer sur leur stratégie PCI gagnante afin d’en faire un argument marketing. En effet, même si moins fréquentes, l’Europe n’est pas à l’abri de catastrophes équivalentes en termes d’impact à « Sandy ».</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2012/12/les-plans-de-continuite-informatique-des-cloud-a-lepreuve-de-louragan-sandy/">Les plans de continuité informatique des cloud à l’épreuve de l’ouragan Sandy</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>LANs des datacenters : une mutation nécessaire vers le modèle « Fabric Ethernet »</title>
		<link>https://www.riskinsight-wavestone.com/en/2012/06/lans-des-datacenters-une-mutation-necessaire-vers-le-modele-fabric-ethernet/</link>
		
		<dc:creator><![CDATA[Laurent Bousquet]]></dc:creator>
		<pubDate>Mon, 11 Jun 2012 08:56:32 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[convergence LAN/SAN]]></category>
		<category><![CDATA[datacenter]]></category>
		<category><![CDATA[Fabric Ethernet]]></category>
		<category><![CDATA[FCoE]]></category>
		<category><![CDATA[LAN]]></category>
		<category><![CDATA[réseau unifié]]></category>
		<category><![CDATA[SPB]]></category>
		<category><![CDATA[Trill]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=1903</guid>

					<description><![CDATA[<p>[Article écrit en collaboration avec Jean-Tristan Allègre et Mathieu Millet] &#160; Si les serveurs ont connu leur révolution il y a plusieurs années, c’est au tour du réseau LAN de faire la sienne. Pourquoi une telle révolution ? Quels sont les...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2012/06/lans-des-datacenters-une-mutation-necessaire-vers-le-modele-fabric-ethernet/">LANs des datacenters : une mutation nécessaire vers le modèle « Fabric Ethernet »</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>[Article écrit en collaboration avec Jean-Tristan Allègre et Mathieu Millet]</em></p>
<p>&nbsp;</p>
<p>Si les serveurs ont connu leur révolution il y a plusieurs années, c’est au tour du réseau LAN de faire la sienne. Pourquoi une telle révolution ? Quels sont les enjeux ?</p>
<h2>Un modèle historique en rupture avec les nouveaux SI</h2>
<p>Il y a 5 années encore, le LAN des datacenters suivait le même modèle d’architecture que tous les réseaux de gros sites utilisateurs et s’appuyait sur les mêmes matériels et technologies.</p>
<p>Outre un défaut de stabilité, ce modèle hiérarchique (cœur, agrégation, accès) est aujourd’hui en rupture avec les SI actuels évoluant toujours plus vite. Une évolution du SI soutenue par la consolidation des serveurs (virtualisation et <em>blade</em>) et les nouvelles infrastructures orientées service, qui demandent des débits plus élevés et une flexibilité du réseau permettant de déplacer à la volée des serveurs virtuels dans tout le datacenter.</p>
<p>Très statiques du fait de leur hiérarchie, les LANs ne peuvent supporter un SI qui évolue trop vite pour eux.</p>
<h2>Les prémisses d’une révolution : vers un réseau unifié, flexible au rythme du SI</h2>
<p>Frein de plus en plus évident à l’évolution du SI, le LAN en datacenter connaît une véritable mutation et tous ses fondements sont revisités.</p>
<p>Sous la dénomination « Fabric Ethernet », le LAN de demain sera un réseau convergent supportant tout type de flux et permettant une connexion Any-to-Any sans couture dans l’ensemble du datacenter. Tel est l’enjeu pour répondre à toutes les évolutions du SI.</p>
<p><a href="http://www.solucominsight.fr/2012/06/lans-des-datacenters-une-mutation-necessaire-vers-le-modele-%c2%ab-fabric-ethernet-%c2%bb/schema-lan-solucominsight-3/" rel="attachment wp-att-1906"><img decoding="async" class="alignnone size-full wp-image-1906" title="schema LAN solucomINSIGHT" src="http://www.solucominsight.fr/wp-content/uploads/2012/06/schema-LAN-solucomINSIGHT2.png" alt="" width="658" height="363" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2012/06/schema-LAN-solucomINSIGHT2.png 658w, https://www.riskinsight-wavestone.com/wp-content/uploads/2012/06/schema-LAN-solucomINSIGHT2-346x191.png 346w, https://www.riskinsight-wavestone.com/wp-content/uploads/2012/06/schema-LAN-solucomINSIGHT2-71x39.png 71w" sizes="(max-width: 658px) 100vw, 658px" /></a></p>
<p>Depuis deux ans environ, la course vers cette évolution incontournable est lancée chez tous les constructeurs Réseau qui s’orientent vers des solutions techniques aujourd’hui en concurrence : les principales étant la norme <a href="http://tools.ietf.org/wg/trill/" target="_blank">Trill</a> (<em>Transparent Interconnect of Lots of Links</em>) et la norme<a href="http://www.ieee802.org/1/pages/802.1aq.html" target="_blank"> SPB</a> (<em>Shortest Path Bridging</em>) approuvée par IEEE en mars 2012 même si d’autres solutions propriétaires existent.</p>
<p>La maturité n’est toutefois pas encore acquise et une convergence des implémentations est à prévoir. Nous en sommes au stade du maquettage et il faudra encore attendre deux à trois ans pour se lancer en production.</p>
<h2>Une transition à initier dès aujourd’hui</h2>
<p>Si les solutions de demain doivent encore gagner en maturité, les premières briques de consolidation sont néanmoins posées et tout projet de refonte LAN en datacenter doit en profiter. Ceci d’autant plus que le matériel d’aujourd’hui est compatible avec les évolutions de demain.</p>
<p>Le premier levier de consolidation est la réduction du nombre de commutateurs réseau dans le datacenter. Les gains sont à la fois techniques et financiers : techniques car la simplification de l’architecture améliore la stabilité, et financiers car les investissements matériel sont moindres.</p>
<p>Cette consolidation s’appuie sur des débits plus élevés de 10 à 40 Gbps, et du matériel plus rapide  embarquant de nouvelles fonctionnalités avancées (virtualisation et mise en clusters des commutateurs en tête).</p>
<p>Cette consolidation n’est toutefois qu’une étape vers le Fabric Ethernet car elle continue à s’appuyer sur les anciennes fondations.</p>
<p>La convergence LAN / SAN, aussi appelée FCoE (<em>Fiber Channel over Ethernet</em>), est un autre axe fort de convergence. Elle consiste à unifier les réseaux LAN et SAN sur une même infrastructure physique (équipements actifs et câblage) qui transporte à la fois les flux IP et Fiber Channel.</p>
<p>Si elle semble prometteuse, il n’est pas évident qu’elle soit adaptée à tous les contextes. Son gain financier est ainsi encore à prouver alors que le retour d’expérience est toujours très limité. La transformation technologique doit par ailleurs être accompagnée d’une convergence des équipes Réseau et Stockage qui partagent dorénavant la même infrastructure.</p>
<p>Les vieux paradigmes LAN ne sont déjà ainsi plus et les premières briques de consolidation réseau sont déjà posées. Bien que très prometteuse, la transformation connue par le LAN en datacenter amène toutefois des défis organisationnels et cache bien souvent une complexité sous le capot : la simplicité doit rester le maître-mot.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2012/06/lans-des-datacenters-une-mutation-necessaire-vers-le-modele-fabric-ethernet/">LANs des datacenters : une mutation nécessaire vers le modèle « Fabric Ethernet »</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
