<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Clément Morizot, Auteur</title>
	<atom:link href="https://www.riskinsight-wavestone.com/en/author/clement-morizot/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.riskinsight-wavestone.com/author/clement-morizot/</link>
	<description>The cybersecurity &#38; digital trust blog by Wavestone&#039;s consultants</description>
	<lastBuildDate>Wed, 04 Nov 2015 16:24:37 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.riskinsight-wavestone.com/wp-content/uploads/2024/02/Blogs-2024_RI-39x39.png</url>
	<title>Clément Morizot, Auteur</title>
	<link>https://www.riskinsight-wavestone.com/author/clement-morizot/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Big data : comprendre la jungle technologique</title>
		<link>https://www.riskinsight-wavestone.com/en/2015/11/comprendre-la-jungle-technologique/</link>
		
		<dc:creator><![CDATA[Clément Morizot]]></dc:creator>
		<pubDate>Mon, 02 Nov 2015 12:49:03 +0000</pubDate>
				<category><![CDATA[Métiers - Assurance]]></category>
		<category><![CDATA[Métiers - Marketing et relation client]]></category>
		<category><![CDATA[assurance]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[chaîne de valeur]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=8470</guid>

					<description><![CDATA[<p>Le Big data est né d’une rupture technologique : la distribution des traitements et du stockage. Là où, en 2012, ce concept était novateur, il devient une offre à part entière de la plupart des éditeurs du marché, créant ainsi une...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/11/comprendre-la-jungle-technologique/">Big data : comprendre la jungle technologique</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Le <a href="http://www.solucominsight.fr/2015/10/demythifier-la-magie-du-big-data-le-processus-dexploitation-de-la-donnee/" target="_blank">Big data</a> est né d’une rupture technologique : la distribution des traitements et du stockage. Là où, en 2012, ce concept était novateur, il devient une offre à part entière de la plupart des éditeurs du marché, créant ainsi une jungle technologique dans laquelle il faut savoir se repérer. On compte aujourd’hui plus d’une centaine de solutions packagées sous différentes formes.</em></p>
<p>&nbsp;</p>
<figure id="post-8472 media-8472" class="align-none"><img fetchpriority="high" decoding="async" class="aligncenter" src="http://www.solucominsight.fr/wp-content/uploads/2015/11/JungleTechnologiqueSchema1.png" alt="" width="490" height="408" /></figure>
<p>&nbsp;</p>
<figure id="post-8474 media-8474" class="align-none"><img decoding="async" class="aligncenter" src="http://www.solucominsight.fr/wp-content/uploads/2015/11/JungleTechnologiqueSchema2.png" alt="" width="622" height="130" /></figure>
<h1>NAVIGUER DANS LA DIVERSITÉ DE SOLUTIONS</h1>
<p>Quelles solutions répondront aux besoins présents et futurs ?</p>
<p>Trouver la solution ou la combinaison de solutions techniques est une phase critique d’un projet Big data. Or quel que soit le secteur, il n’y a pas de solution Big data universelle.<br />
Le porte-étendard technologique du Big data est Hadoop &#8211; un écosystème <em>open source</em> de distribution du stockage et des traitements sous l’égide de la fondation Apache. L’ensemble des grands éditeurs et constructeurs ont investi dans cette technologie. Toutefois, d’autres types de solutions sont toutes aussi légitimes suivant les usages. Ainsi, dans le cas où la rapidité d’exécution est recherchée, les technologies <a href="http://www.forbes.com/sites/danwoods/2012/02/28/understanding-in-memory-technology/" target="_blank">InMemory</a> sont à privilégier en raison de leur capacité à stocker les données en mémoire et non sur disque. Le NoSQL (<a href="http://www.journaldunet.com/developpeur/outils/comparatif-des-bases-nosql/" target="_blank">Not Only SQL</a>) a quant à lui un avantage dans le monde « pseudo-transactionnel » où il sera un accélérateur dans le stockage et la manipulation de données hors d’une structure relationnelle. La variété des solutions implique une connaissance de l’écosystème technologique et ce dès la phase « <em>test and try</em> ».</p>
<p>En 2015, Hadoop possède plus d’une vingtaine de modules formant un socle riche. Ces modules sont créés au fur et à mesure par une importante, et dynamique, communauté d’acteurs et développeurs <em>open source</em>. Ils apportent constamment de nouvelles fonctionnalités tout en renforçant l’environnement existant.</p>
<p>Une illustration simple : historiquement Hadoop ne savait traiter que les données massives par des traitements de type <em>batch</em>. Face à ce constat, la communauté a enrichi l’écosystème par la création de modules de type <em>Storm</em> ou <em>Spark</em> permettant de traiter des données unitaires en temps réel et démocratisant encore plus l’usage de plateformes Hadoop.</p>
<p>Cette diversité de fonctions peut conduire à de mauvais choix et par conséquent certaines initiatives à l’échec. Pour tirer le maximum de valeur des données, il faut choisir les modules les plus adaptés aux traitements désirés et aux données manipulées. L’expertise et la connaissance fine sont le prérequis à la création de valeur en vue d’une industrialisation.</p>
<h1>LE BIG DATA SOUS DIFFÉRENTES FORMES</h1>
<p>Une fois la ou les solutions techniques choisies, il convient de définir le mode de distribution (même si certaines solutions  peuvent imposer le leur). Quatre formes sont alors possibles :</p>
<h3>1 &#8211; La distribution construite et gérée par la DSI</h3>
<p>L’entreprise construit une infrastructure Big data en agrégeant ses infrastructures conventionnelles via l’intégration d’une distribution. Ce type de solution est principalement destiné aux entreprises ayant un besoin d’évolutivité et d’appropriation fort.</p>
<h3>2 &#8211; L’« appliance » ou solution clé en main</h3>
<p>Les grands éditeurs comme Oracle, Microsoft, IBM et les constructeurs proposent une infrastructure sur étagère où matériel et logiciels sont intégrés, préconfigurés et optimisés. Ce modèle a l’avantage d’une efficacité opérationnelle immédiate en contrepartie d’un coût d’investissement qui peut s’avérer élevé.</p>
<h3>3 &#8211; La « plateforme as a Service » ou <em>BDaaS</em></h3>
<p>Cette formule connue basée sur le Cloud provisionne un environnement opérationnel et élastique comprenant l’ensemble des composants Big data pré configurés. L’intérêt de ces offres Cloud est le coût (à l’usage) et la rapidité de mise en place, qui en font une cible parfaite pour des usages de type POC afin de tester la valeur du Big data pour l’entreprise. En production, le gain sera plus limité du fait des contraintes liées à l’expatriation des données à l’extérieur de l’entreprise.</p>
<h3>4 &#8211; Le « Software as a Service » ou <em>SaaS</em></h3>
<p>Le <em>SaaS</em>, une formule connue depuis l’arrivée du Cloud, permet la mise à disposition de services métiers sur le web. Le Big data donne un accélérateur à ce modèle en permettant la création de nouveaux services comme l’analyse des réseaux sociaux, l’e-réputation, le marketing ciblé… Ces services reposent sur des moteurs Big data néanmoins invisibles par les utilisateurs finaux.</p>
<p>Dans le secteur de l’Assurance, les 4 formules sont légitimes et dépendent réellement du souhait d’investissement et d’appropriation de la technologie. La complexité de ces solutions laisse à penser que le marché va tendre vers une externalisation des problématiques techniques favorisant les offres de type appliance ou Cloud.</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/11/comprendre-la-jungle-technologique/">Big data : comprendre la jungle technologique</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Au menu du Big data, 3 formules : à intégrer, packagé ou dans le nuage</title>
		<link>https://www.riskinsight-wavestone.com/en/2014/03/au-menu-du-big-data-3-formules-integrer-package-nuage/</link>
		
		<dc:creator><![CDATA[Clément Morizot]]></dc:creator>
		<pubDate>Wed, 26 Mar 2014 10:41:12 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[BDaaS]]></category>
		<category><![CDATA[best of breed]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Cloud computing]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=5289</guid>

					<description><![CDATA[<p>Dans un monde où les limites techniques du SI freinaient l’extension du business, le Big data promet de s’en affranchir et d’apporter plus de valeur au métier. De fait, il suscite un intérêt grandissant auprès de ces derniers mais aussi...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/03/au-menu-du-big-data-3-formules-integrer-package-nuage/">Au menu du Big data, 3 formules : à intégrer, packagé ou dans le nuage</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="line-height: 1.5em;">Dans un monde où les limites techniques du SI freinaient l’extension du business, le <em>Big data</em> promet de s’en affranchir et d’apporter plus de valeur au métier. De fait, il suscite un intérêt grandissant auprès de ces derniers mais aussi auprès des DSI ; qui commencent à étudier, expérimenter voire, pour les plus avancés, construire des offres Big data au sein de leurs systèmes d’information.</span></p>
<p>Néanmoins, choisir l’approche adéquate et investir sur une ou des solutions reste une étape complexe. Regardons de plus près le menu, et observons les différents types d’offres aujourd’hui disponibles et leur intérêt en fonction des usages.</p>
<h2>Le <em>Big data</em> casse les limites traditionnelles : tout est dans la puissance du nombre</h2>
<p>Traditionnellement, les architectures techniques sont construites à partir de serveurs « <i><a title="Wikipedia - standalone" href="http://fr.wikipedia.org/wiki/Standalone" target="_blank">standalone</a></i>». À gros besoins, gros serveurs. En d’autres termes, plus le besoin de puissance ou de stockage est important, plus les serveurs utilisés sont robustes. Mais, cette approche a une limite finie et ne permet pas de gérer les très grands ensembles de données.</p>
<p>Avec le <em>Big data</em> on change de paradigme : le concept clé des architectures <em>Big data</em> est la distribution ! On distribue les données et les traitements sur un nombre virtuellement infini de ressources. On <b><i>exploite la puissance du nombre</i></b>. C’est la clé pour casser les limites traditionnelles et accéder à une capacité de stockage et de traitement sans limites. L’ensemble des offres <em>Big data</em> repose sur ce principe.</p>
<h2>Quelles sont les formules au menu du jour ?</h2>
<p>La 1<sup>ère</sup> formule s’appuie sur <b>le <a title="JDN - Définition best of breed" href="http://www.journaldunet.com/encyclopedie/definition/301/51/20/best_of_breed.shtml" target="_blank">Best Of breed</a>. </b> Il s’agit ici de faire du <em>Big data</em> en intégrant et capitalisant sur ses ressources IT. Comment ? L’entreprise se construit un environnement distribué en agrégeant ses infrastructures conventionnelles via l’intégration d’une distribution logicielle <em>Big data</em> (de type Hadoop par exemple). N’ayant pas d’investissement matériel, le coût d’investissement pour ce type d’offre reste raisonnable mais engage les entreprises à monter en compétence pour concevoir et mettre en place la nouvelle plateforme.  Ce type de solution est principalement destiné aux entreprises avec un besoin d’évolutivité et d’appropriation fort. Les banques d’investissement en sont un excellent exemple par leur nécessité d’expérimentation permanente, qui les force à innover pour répondre aux enjeux métiers.</p>
<p>La seconde formule s’appuie sur les offres d’<b>« Appliance <em>Big data</em>»</b> : le vendeur va proposer à ses clients une infrastructure sur étagère où matériel et logiciels sont intégrés, pré-configurés et optimisés. C’est une boîte noire, mais l’architecture interne s’appuie sur la logique de distribution : elle encapsule des dizaines de petits serveurs. Ce modèle a le désavantage d’avoir un coût d’investissement élevé mais délivre une efficacité opérationnelle immédiate : il s’adresse principalement aux entreprises qui recherchent cette efficacité et qui sont en capacité de cadrer leurs besoins avec le vendeur.</p>
<p>La dernière offre est légitimement <b>le Cloud.</b> Pourquoi le Cloud ? Et bien parce qu’il est le plus à même de mettre à disposition des entreprises un nombre de ressources presque illimité. On distingue deux offres : celles de type <b>« IaaS »</b> où l’entreprise intégrera elle-même « sa distribution <em>Big data </em>» aux infrastructures louées dans le nuage. Mais, la tendance est plutôt au <b>« BDaaS »</b> (<em>Big data as a Service</em>) : le nuage provisionne un environnement <em>Big data</em> intégré, opérationnel et élastique. L’intérêt de ces offres <i>Cloud</i> est le coût (à l’usage) et la rapidité de mise en place, qui en fait une cible parfaite pour des usages de type POC afin de tester la valeur du <em>Big data</em> pour l’entreprise. Pour les prototypes opérationnels, des questions autour de la sécurité et des données peuvent se poser et les rendre moins attrayantes.</p>
<p>Au final, les socles d’exécution <em>Big data</em> sont bien là ! Le choix de l’un d’entre eux nécessite dans tous les cas une phase d’analyse des besoins et des enjeux afin de trouver l’optimum économique au regard des usages.</p>
<p>&nbsp;</p>
<p><img decoding="async" class="wp-image-5308 aligncenter" src="http://www.solucominsight.fr/wp-content/uploads/2014/03/big-data.png" alt="big data" width="426" height="158" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2014/03/big-data.png 5863w, https://www.riskinsight-wavestone.com/wp-content/uploads/2014/03/big-data-437x162.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2014/03/big-data-71x26.png 71w" sizes="(max-width: 426px) 100vw, 426px" /></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/03/au-menu-du-big-data-3-formules-integrer-package-nuage/">Au menu du Big data, 3 formules : à intégrer, packagé ou dans le nuage</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Big data : comment intégrer les technologies de stockage ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2013/03/big-data-comment-integrer-les-technologies-de-stockage/</link>
		
		<dc:creator><![CDATA[Clément Morizot]]></dc:creator>
		<pubDate>Tue, 26 Mar 2013 09:35:19 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[données]]></category>
		<category><![CDATA[Hadoop]]></category>
		<category><![CDATA[HDFS]]></category>
		<category><![CDATA[map reduce]]></category>
		<category><![CDATA[performance]]></category>
		<category><![CDATA[scalabilité]]></category>
		<category><![CDATA[stockage]]></category>
		<category><![CDATA[variété]]></category>
		<category><![CDATA[vélocité]]></category>
		<category><![CDATA[volume]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=3570</guid>

					<description><![CDATA[<p>Les solutions Big data orientées stockage sont de plus en plus nombreuses et commencent à être déployées dans les entreprises. Tout le monde doit-il s’y intéresser ? Comment doit-on les intégrer ? Quelles sont caractéristiques du Big data ? Comme son nom l’indique,...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/03/big-data-comment-integrer-les-technologies-de-stockage/">Big data : comment intégrer les technologies de stockage ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Les solutions Big data orientées stockage sont de plus en plus nombreuses et commencent à être déployées dans les entreprises. Tout le monde doit-il s’y intéresser ? Comment doit-on les intégrer ?</em></p>
<h2>Quelles sont caractéristiques du <em>Big data</em> ?</h2>
<p>Comme son nom l’indique, le <em>Big data</em> définit une catégorie de données. Elle est souvent résumée par les 3 « V » :</p>
<ul>
<li><strong>Volume : </strong>une quantité de données importante liée à la multiplication des données du client. Les données à manipuler sont de l’ordre de la dizaine de tera octets ;</li>
<li><strong>Variété :</strong> différents types de données  provenant de diverses sources (internes SI, externes comme les réseaux sociaux… Ces données vont du plus structuré (relationnel) au non structuré (fichiers, vidéo…) ;</li>
<li><strong>Vélocité</strong> : une fréquence rapide à laquelle les données doivent être traitées et partagées, liée à la volonté de tendre vers un SI « temps réel ».</li>
</ul>
<h2> Comment savoir si l’on manipule des données <em>Big data</em> ?</h2>
<p>C’est simple, c’est souvent lorsque l’une des couches du SI devient un facteur limitant lors du traitement de gros volume de données, que l’on comprend qu’il s’agit de <em>Big data</em>.</p>
<p>La couche stockage est l’un des premiers facteurs limitant et les problématiques associées sont les suivantes :</p>
<ul>
<li><strong>Performance :</strong> l’augmentation du volume à traiter entraîne une diminution des performances ;</li>
<li><strong>Linéarité :</strong> l’outillage n’étant pas adapté aux gros volumes de données, le modèle de scalabilité n’est pas linéaire, l’ajout de stockage ne permettant pas d’améliorer les performances ;</li>
<li><strong>Dynamisme : </strong>l’allocation d’espace est fixe avec une faible réactivité pour en ajouter ou en retirer.</li>
</ul>
<p>Les solutions du marché reposent sur des implémentations propriétaires.</p>
<p>Les solutions <em>Big data</em> reposent sur un stockage basé sur <strong>le modèle de fichier distribué </strong>: des nœuds de stockage sont répartis physiquement sur le réseau mais vus par les applications comme un seul volume de stockage logique.<em><br />
</em></p>
<p>Ce modèle répond justement aux enjeux suivants, auparavant problématiques :</p>
<ul>
<li><strong>Performance </strong>: les données sont réparties sur plusieurs nœuds de stockage (<em>stripping HADOOP HDFS</em>) et ceux-ci se distribuent intelligemment la donnée afin de diminuer le trafic réseau (les données semblables sur un même nœud) et faciliter des traitements distribués (<em>HADOOP map reduce</em>)</li>
<li><strong>Linéarité</strong> : le modèle distribué permet d’ajouter des nœuds de stockage sans limite et permet de retrouver une scalabilité linéaire ;</li>
<li><strong>Dynamisme</strong> : l’ajout et la suppression de nœud de calcul peuvent se faire simplement et apportent une résilience (via la réplication automatique des données). Si un nœud de stockage tombe, le service est assuré sans arrêt et sans perte de données. On s’approche d’une perte de données « RPO » et d’un temps de reprise « RTO » nulle.</li>
</ul>
<p>Les <strong>solutions </strong><strong>du marché (IBM, EMC, etc.) répondent aux 3 « v » du <em>Big data</em></strong> mais <strong>chacune suit son propre modèle d’implémentation du stockage distribué</strong> : <em>Cluster File System</em>, Parallel File System…. Chaque solution n’a donc pas les mêmes performances ou, capacité d’évolutivité suivant le besoin.</p>
<h2> La qualification des données est la clé du stockage</h2>
<p>C’est pour cela que lors de la mise en œuvre de ces types de solutions, <strong>une étude sur le stockage est nécessaire. </strong> Quelles sont mes données ? Quelle est la volumétrie (max, écart-type, moyenne) ? Quelle est leur croissance ? Quels types de traitements sont effectués ? Doivent-elles être centralisées ? Quel est le ratio de lecture / écriture ? …</p>
<p>Toutes ces réponses permettront de <strong>catégoriser les données</strong>, <strong>un entrant primordial à la qualification</strong> de la solution cible et à son optimisation. Ainsi l’optimisation des  services de stockage <em>Big data</em> permettent à l’entreprise de maîtriser la variabilité et les performances. L’indexation devient plus facile, la taille des caches est optimisée et le <em>stripping</em> (fait de couper le fichier en plusieurs morceaux) est facilité afin de garantir un accès plus rapide à la donnée.</p>
<p><strong>La mise en place d’une technologie stockage distribué est idéale dans les configurations de type grille de calcul</strong> : les nœuds de calcul échangent un grand nombre de données entre eux. À  la place d’une configuration en étoile où tous les nœuds s’échangent directement des fichiers, chaque nœud utilise un même volume logique hébergé sur une infrastructure Big data. Les gains sont doubles : directement sur les temps de lecture / écriture des données partagées et la charge réseau (bien que plus concentrée sur un segment) et indirectement sur les temps de calculs de la grille. Les nœuds de la grille de calcul étant déchargés de leur fonction de distribution de fichiers vers les autres nœuds, les ressources sont exploitées au maximum par le calcul applicatif. L’applicatif est donc plus performant pour le <em>business</em>.</p>
<p align="left">Les solutions de stockage <em>Big data </em><strong>commencent à être adoptées par les entreprises, qui les utilisent sur leurs périmètres stratégiques </strong>pour en tirer <strong>des gains de performance</strong> là où les solutions standards étaient limitantes. <strong>L’intégration de ces solutions reste l’étape clé </strong>: l’étude des données est nécessaire pour choisir la bonne implémentation <em>Big data</em>, faciliter sa configuration et ainsi profiter pleinement des  bénéfices annoncés.</p>
<div>
<hr align="left" size="1" width="33%" />
</div>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/03/big-data-comment-integrer-les-technologies-de-stockage/">Big data : comment intégrer les technologies de stockage ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
