<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Hadoop - RiskInsight</title>
	<atom:link href="https://www.riskinsight-wavestone.com/tag/hadoop/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.riskinsight-wavestone.com/tag/hadoop/</link>
	<description>Le blog cybersécurité des consultants Wavestone</description>
	<lastBuildDate>Thu, 02 Jan 2020 09:57:39 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.riskinsight-wavestone.com/wp-content/uploads/2024/02/Blogs-2024_RI-39x39.png</url>
	<title>Hadoop - RiskInsight</title>
	<link>https://www.riskinsight-wavestone.com/tag/hadoop/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Et si on vous offrait enfin une vision d’ensemble du Big data ?</title>
		<link>https://www.riskinsight-wavestone.com/2013/09/et-si-on-vous-offrait-enfin-une-vision-densemble-du-big-data/</link>
		
		<dc:creator><![CDATA[Jonas Cadillon]]></dc:creator>
		<pubDate>Wed, 18 Sep 2013 12:42:51 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Architecture fonctionnelle]]></category>
		<category><![CDATA[Architecture technique]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Elasticité]]></category>
		<category><![CDATA[Hadoop]]></category>
		<category><![CDATA[Polyvalence]]></category>
		<category><![CDATA[Réactivé]]></category>
		<category><![CDATA[Réutilisation de l’existant]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=4197</guid>

					<description><![CDATA[<p>L’intérêt autour du Big data ne faiblit pas, comme le démontrent les nombreuses publications que l’on peut trouver sur le sujet. Souvent abordé dans la presse sous l’angle business pour vanter les nouveaux apports métiers (optimisation de la relation client,...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2013/09/et-si-on-vous-offrait-enfin-une-vision-densemble-du-big-data/">Et si on vous offrait enfin une vision d’ensemble du Big data ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>L’intérêt autour du Big data ne faiblit pas, comme le démontrent les nombreuses publications que l’on peut trouver sur le sujet. Souvent abordé dans la presse sous l’angle business pour vanter les nouveaux apports métiers (optimisation de la relation client, des ventes…), ou au contraire focalisé uniquement sur une nouvelle technologie, il n’est pas facile de se forger une vision d’ensemble de l’architecture sous-jacente. Démystifions ici cette complexité apparente, en reposant les principes de fonctionnement des architectures Big data et les bonnes pratiques pour construire le socle technologique optimal.</p>
<h2>Le Big data en 5 grands modules d’architecture fonctionnelle</h2>
<p>D’un point de vue fonctionnel, nous pouvons découper les architectures Big data en cinq grands modules :</p>
<p style="padding-left: 30px;">1. <strong>Collecte</strong> : ce module vise à  récupérer les données à transmettre aux unités de transformation et d’analyse. La collecte peut se faire par lot ou en temps réel sur des données internes ou externes à l’entreprise.</p>
<p style="padding-left: 30px;">2. <strong>Transformation</strong> : il s’agit ici d’extraire les informations utiles des données peu ou non structurées. En les interprétant pour les rendre exploitables et cohérentes, notamment via la constitution d’un catalogue de métadonnées. Cette étape n’est pas obligatoire pour les données déjà structurées.</p>
<p style="padding-left: 30px;">3. <strong>Analyse</strong> : alors que la « transformation » se focalise sur l’enrichissement des données de manière unitaire, l’unité d’analyse va de son côté créer de nouvelles informations par identification, corrélation, agrégation ou projection de l’ensemble des données précédemment transformées. Tout comme pour la « collecte », ces analyses peuvent être effectuées par lot ou en temps réel.</p>
<p style="padding-left: 30px;">4. <strong>Restitution</strong> : l’objectif de ce module est de permettre la visualisation des analyses et l’exploration des données.</p>
<p style="padding-left: 30px;">5. <strong>Stockage</strong> : capable de stocker de très gros volumes de données structurées et non structurées, ce module est généralement sous-découpé de la façon suivante :</p>
<ul>
<ul>
<li>Lac de données permettant d’héberger les données brutes ;</li>
<li>Entrepôt de données stockant les données issues de la transformation ;</li>
<li>Cache d’analyse permettant d’accélérer les traitements en vue de la restitution.</li>
</ul>
</ul>
<p style="text-align: center;"><img fetchpriority="high" decoding="async" class="aligncenter  wp-image-4225" title="5_modules_architecture_fonctionnelle_big_data" src="http://www.solucominsight.fr/wp-content/uploads/2013/09/5_modules_architecture_fonctionnelle_big_data.png" alt="" width="614" height="248" /></p>
<h2>Quels critères adopter pour construire le socle technologique ?</h2>
<p>Les modules fonctionnels de l’architecture étant posés, quelle stratégie adopter pour bâtir le socle sous-jacent ? Le Big data invite justement à l&rsquo;adoption d’un triptyque gagnant pour bien choisir les outils :</p>
<div>
<ul>
<li><strong>Élasticité</strong> : opter pour  des outils capables de  maximiser l’utilisation des ressources mises à disposition et les possibilités de scalabilité horizontale : facilité d’ajout de nœud de stockage et de calcul. Il faudra aussi que ces outils soient indépendants  vis-à-vis des technologies de stockage (<a href="http://fr.wikipedia.org/wiki/R%C3%A9seau_de_stockage_SAN">SAN</a>, <a href="http://fr.wikipedia.org/wiki/Stockage_en_r%C3%A9seau_NAS">NAS</a>, <a href="http://fr.wikipedia.org/wiki/Direct_Attached_Storage">DAS</a>) ou de serveurs  (<a href="http://fr.wikipedia.org/wiki/X86" target="_blank" rel="noopener noreferrer">x86</a>, <a href="http://fr.wikipedia.org/wiki/AIX" target="_blank" rel="noopener noreferrer">AIX</a>, …).</li>
</ul>
<ul>
<li><strong>Polyvalence</strong> : choisir des outils permettant d’intégrer des sources de données multiples. Les données peuvent être structurées (base de données, XML …), semi structurées (e-mail), non structurées (vidéo, image), internes à l’entreprise ou externes (sites web, réseaux sociaux, open data…).</li>
</ul>
<ul>
<li><strong>Réactivité</strong> : les outils à sélectionner devront pouvoir réduire au maximum le <em>time to market</em>. Il est en effet important de pouvoir déployer de nouveaux traitements et optimiser leur distribution entre les nœuds de calculs.</li>
</ul>
<div style="text-align: right;"></div>
<h2>Et si les nouvelles technologies n’étaient pas une fin en soi ?</h2>
<p>Les technologies spécifiquement adaptées pour adresser des problématiques purement <em>Big data</em> ne s’opposent pas à l’outillage existant. L’implémentation du module  de « collecte », pourra par exemple tirer partie des <a href="http://fr.wikipedia.org/wiki/Extract_Transform_Load">ETLs</a> et celle de restitution s’intégrer aux outils de type tableaux de bord déjà utilisés. La partie « stockage » quant à elle pourra s’appuyer sur les infrastructures matérielles n’étant plus utilisées en production, mais toujours présentes au sein de l’entreprise.</p>
<p>La réutilisation de ces technologies permettra aux équipes de focaliser leur montée en compétences sur le module de « transformation » et plus particulièrement sur celui d’« analyse », porteurs de la valeur ajoutée, ces derniers étant également plus complexes à mettre en œuvre</p>
<p>Pour implémenter ces deux modules, qui ne peuvent être réalisées à l’aide d’un outillage classique lors de la mise en œuvre d’une architecture Big Data, le <em>framework</em> Hadoop s’avère bien utile. C’est ce que nous découvrirons dans un prochain article.</p>
</div>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2013/09/et-si-on-vous-offrait-enfin-une-vision-densemble-du-big-data/">Et si on vous offrait enfin une vision d’ensemble du Big data ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Aux origines du Big data&#8230;</title>
		<link>https://www.riskinsight-wavestone.com/2013/08/auw-origines-du-big-data/</link>
		
		<dc:creator><![CDATA[Lise Gasnier]]></dc:creator>
		<pubDate>Fri, 02 Aug 2013 14:43:43 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[grid computing]]></category>
		<category><![CDATA[Hadoop]]></category>
		<category><![CDATA[histoire]]></category>
		<category><![CDATA[NoSQL]]></category>
		<category><![CDATA[parallèlisme]]></category>
		<category><![CDATA[shared nothing]]></category>
		<category><![CDATA[valeur]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=3978</guid>

					<description><![CDATA[<p>Comme nous l’avions vu dans un précédent article, derrière le Big data se cache un bon nombre d’idées : l’explosion des données (volume, variété et vélocité), la potentialité de valeur que l’on peut en tirer, sans oublier bien sûr les...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2013/08/auw-origines-du-big-data/">Aux origines du Big data&#8230;</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Comme nous l’avions vu dans un précédent article, <a title="Big data : tour d’horizon  2013 !" href="http://www.solucominsight.fr/2013/06/big-data-tour-dhorizon-2013/" target="_blank" rel="noopener noreferrer">derrière le Big data se cache un bon nombre d’idées </a>: l’explosion des données (volume, variété et vélocité), la potentialité de valeur que l’on peut en tirer, sans oublier bien sûr les technologies pour les traiter.  Pour comprendre ces concepts et imaginer leurs développements futurs, il est indispensable d’en connaître l’origine et l’évolution. Revenons brièvement sur la petite histoire &#8211; à forts rebondissements &#8211; du Big data.</p>
<h2>De l’explosion des données au Big data</h2>
<p>L’expression de « petite histoire du Big data », nous l’empruntons (presque) à Gil Press. Il livre en effet dans un long article documenté sur Forbes.com, daté du 5 mai 2013, « <a href="http://www.forbes.com/sites/gilpress/2013/05/09/a-very-short-history-of-big-data/">une très courte histoire du big data</a> ». En une trentaine de dates de 1944 à 2012, il retrace la prise de conscience précoce de l’explosion des données (dans les rayons des bibliothèques universitaires dans un premier temps, puis via les NTIC), avec comme préoccupation centrale d’en quantifier la croissance tout en apportant  quelques considérations critiques autour du déluge informationnel.</p>
<p>L’explosion des données est en effet  d’abord perçue comme une menace sur la vie privée (« <em>Assault on privacy </em>&#8211; 1971-  Arthur Miller).  Côté technique aussi : l’espace de stockage grandit, mais les données s’étendent systématiquement jusqu’à le combler (Loi de parkinson, 1980). Dans les années 70, la qualité des données est enfin mise en cause : tout est stocké, il n’est plus utile de faire le tri.</p>
<p>L’expression « Big data » fait finalement son apparition en octobre 1997 dans la bibliothèque numérique de l’ACM<sup>1</sup>, au sein d’articles scientifiques qui pointent du doigt les défis technologiques à visualiser les « grands ensembles de données ». Le Big data est né, et avec lui ses nombreux défis.</p>
<h2>Et si ces données avaient de la valeur ?</h2>
<p>Dans les années 2000, alors que l’exabytes<sup>2</sup> entrent en jeu dans la quantification des données produites annuellement, la valeur du Big data est mise en avant, d’abord pour les bénéfices que peuvent en tirer la recherche dans les secteurs de la physique, de la biologie ou des sciences sociales.</p>
<p>Ce que n’illustre pas l’article du Forbes.com, c’est la montée en puissance des Google, Facebook, Linkedin, Amazon et Twitter dans les années 2000 et plus particulièrement à partir de 2005. Celle-ci révèle tout le potentiel des données publiques disponibles sur internet. Les succès économiques des grands du web commencent alors à nourrir deux idées principales :</p>
<p>1- Les données brutes accumulées ont une valeur intrinsèque de par les fameuses 3 composantes en V ( pour volume essentiellement mais aussi variété et vitesse de leur production donc leur fraîcheur). Cette valeur est monétisable et Facebook en est l’illustration par excellence !</p>
<p>2- Ces données brutes ont une autre valeur liée aux analyses et corrélations auxquelles elles s’offrent et l’information qui en découle participe à la chaîne de valeur de l’entreprise (ex. : l’algorithme de recommandation d’Amazon).</p>
<h2>Quelques principes technologiques qui expliquent la montée en puissance du Big data</h2>
<p>Derrière ces succès, il y a évidemment des technologies qui font la différence et que les précurseurs du Big data ont contribué à développer et à faire connaître.  Les architectures Big data se fondent d’ailleurs sur 3 principes technologiques clés :</p>
<ul>
<li><strong>L’accélération matérielle.</strong> Depuis toujours, les composants des systèmes (mémoire, processeur, bus) sont optimisés pour assurer toujours plus efficacement leur fonction.</li>
<li><strong>Le parallélisme.</strong>  C’est dans les années 2000 que ce paradigme devient dominant. Qu’il s’agisse de l’architecture interne d’un ordinateur (multi-cores, multi-processeurs, MPP*, SMP**) ou de l’architecture d’un réseau de machines (<em>grid computing</em>, cluster de machines, cluster hadoop), l’idée est de décomposer les problèmes complexes en plusieurs calculs traités de manière simultanée. Ces architectures sont d’autant plus efficaces qu’aucun composant n’est partagé entre les unités de traitement parallèles (« <em>shared nothing</em> ») et qu’il n’y a donc pas de point de contention.</li>
<li><strong>Le NoSQL</strong>, le mouvement décolle fin des années 2000 et promeut des alternatives aux bases de données relationnelles en en abandonnant certaines contraintes (notamment la consistance du théorème CAP<sup>3</sup>.)</li>
</ul>
<p>Vous l’aurez compris, le Big data a émergé en 2010, mais il est né il y a quinze ans et il porte en lui un demi-siècle de réflexions, de concepts et de défis. Participerez-vous à son histoire ?</p>
<p>&nbsp;</p>
<p>…………………………………………………………………………………………………..<br />
<strong>*MPP :</strong> <em>Massively Parallel Processing</em>, à la différence du SMP, le MPP appliqué à l&rsquo;architecture d&rsquo;un ordinateur consiste en la mise en œuvre parallèle d&rsquo;un grand nombre de processeurs disposant chacun de leur mémoire.</p>
<p><strong>**SMP : </strong><em>Symetric MultiProcessing</em>,  architecture parallèle constituée de plusieurs processeurs identiques partageant une même mémoire au sein d&rsquo;un même ordinateur.</p>
<div><br clear="all" /></p>
<hr align="left" size="1" width="33%" />
<div>
<p><sup>1</sup> Association For Computing Machinery, association américaine à but non lucratif fondée en 1947 et vouée à l’informatique. Sa bibliothèque numérique est particulièrement riche quand il s’agit de retracer l’histoire de la discipline.</p>
</div>
<div>
<p><sup>2   </sup>1000 petabytes.</p>
</div>
<div>
<p align="left"><sup>3 </sup>Le théorème CAP explique que pour un système réparti (tel qu’une base de données répartie sur plusieurs ordinateurs), il n’est pas possible d’assurer simultanément : cohérence, disponibilité (<em>Availability</em>), résistance au partitionnement (<em>Partition Tolerance</em>).</p>
</div>
</div>
<div>
<hr align="left" size="1" width="33%" />
</div>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2013/08/auw-origines-du-big-data/">Aux origines du Big data&#8230;</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Big data : tour d’horizon  2013 !</title>
		<link>https://www.riskinsight-wavestone.com/2013/06/big-data-tour-dhorizon-2013/</link>
		
		<dc:creator><![CDATA[GEneviEveLardon]]></dc:creator>
		<pubDate>Mon, 10 Jun 2013 09:59:17 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[cas d’usage]]></category>
		<category><![CDATA[données]]></category>
		<category><![CDATA[évaluation]]></category>
		<category><![CDATA[Hadoop]]></category>
		<category><![CDATA[pragmatique]]></category>
		<category><![CDATA[pratique]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=3813</guid>

					<description><![CDATA[<p>En 2012, nous avions publié toute une série d’articles autour du  Big data. Un an après, le sujet est suscite toujours autant d’intérêt auprès des DSI. Comment l’expliquer ? Big data : un intérêt qui ne faiblit pas Depuis 2012,...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2013/06/big-data-tour-dhorizon-2013/">Big data : tour d’horizon  2013 !</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>En 2012, nous avions publié toute une série d’articles autour du  Big data. Un an après, le sujet est suscite toujours autant d’intérêt auprès des DSI. Comment l’expliquer ?</em></p>
<h2>Big data : un intérêt qui ne faiblit pas</h2>
<p>Depuis 2012, l’intérêt pour le Big data ne cesse de croître <a href="http://www.google.fr/trends/explore?q=Big+Data#q=Big%20Data&amp;cmpt=q">(cf. courbe google trends)</a>. Pourtant, faute de disposer d’une définition tangible, la pertinence des usages de cette expression reste, aujourd’hui encore, sujette à interprétation.</p>
<p>Prenons un échantillon de définitions produites par les voix les plus influentes du domaine IT (Gartner, Forrester, IBM etc.). Derrière le Big data, une multitude de sujets : il peut s’agir, selon les analystes,  1) des données  (d’un genre caractéristique), 2) d’un phénomène ou encore 3) d’un ensemble de techniques ou technologies. Il en ressort cependant un champ lexical qui fait assez largement consensus et s’est imposé sur la plupart des slidewares (avec aussi des contradicteurs).</p>
<h2>« Petite » analyse lexicale du « Big » data</h2>
<p><strong>3 V. Volume, Variété, Vélocité.</strong> <a href="http://blogs.gartner.com/doug-laney/deja-vvvue-others-claiming-gartners-volume-velocity-variety-construct-for-big-data/">Vision du Gartner de 2001</a> : chacune de ces caractéristiques constituent un défi pour les entreprises qui souhaitent les exploiter ; leur combinaison accentue d’autant la difficulté que représente le traitement des données. Le Big data n’est pas que l’explosion des volumes. C’est aussi la richesse des formats et le temps réel. Ce qui pose question et qui est rarement explicité, c’est la mesure de chacune de ces trois dimensions. Le volume se mesure-t-il en téra- ou en pétabytes ? Où se situent les niveaux d’acceptabilité qui permettent de déterminer qu’une situation ou un cas d’usage relève du Big data ? Le Big data d’aujourd’hui sera-t-il celui de demain ? Car avec la croissance des données et les avancées technologiques, le curseur ne cessera sans doute pas de se déplacer…</p>
<p><strong>4V = 3V+Valeur.</strong> Certains ont noté un <a href="http://www.bigdataparis.com/enjeux-big-data-blandine-laffargue.php?PHPSESSID=pjqo5q09489mkk5o9facotnj15">glissement</a> de l’acception Big data de 3 à 4 V : des caractéristiques de nature technique à celle de « valeur ». Que peut-on tirer des données ? C’est en fait la question essentielle : celle de « l’opportunité à saisir » ou du « besoin à combler ». Une autre question apparaît avec les fournisseurs de données : quel est le prix des données ?</p>
<p><strong>Technologie accessible.</strong> Il n’y a pas de définition technologique du Big data au sens où aucune technologie n’est liée de manière exclusive et catégorique au concept. Tout comme les web services n’étaient pas la SOA, le Big data n’est pas Hadoop*, même si Hadoop est la valeur sure d’un marché en plein essor et encore peu lisible. Certes, l’envolée du Big data doit beaucoup à l’« accessibilité »  d’Hadoop et du noSQL. Mais le coût et le ROI de ces solutions sont-ils à la hauteur des promesses ?</p>
<p><strong>Acquisition, visualisation etc.</strong> Le Big data n’est pas que stockage et analyse de données. Il faut  développer son gisement pour trouver la bonne information. L’information produite doit être comprise, retenue, travaillée et des techniques d’analyse visuelle sont aujourd’hui mises en avant.  Enfin, pour les questions de fiabilité et de sécurité, des évidences en gestion des données, des solutions se positionnent.</p>
<p><strong>Décision.</strong> Le Big data bouscule le décisionnel. Les cas d’usage Big data sont quasiment exclusivement analytiques. Les technologies dont nous parlions ne sont d’ailleurs pas construites pour supporter des processus transactionnels qui restent en périphérie de la « révolution » à la source des données.</p>
<h2>Un Big data à ma sauce</h2>
<p>Le Big data est une véritable problématique, soit littéralement un faisceau de questions. Si l’exercice de définition va se poursuivre, il serait salvateur de l’évacuer rapidement. Mieux vaut se concentrer sur les défis techniques et organisationnels du traitement des données et la recherche de nouveaux leviers de performance.</p>
<p>Forrester propose pour ce faire une approche pragmatique <a href="http://blogs.computerworlduk.com/app-dev-and-programme-management/2012/05/whats-your-big-data-score/index.htm">« Calculer son « Big Data score »</a>, qui vise à s’auto-évaluer sur sa capacité à stocker, traiter, requêter ses données selon chacune des 3 dimensions. Big data ne veut pas dire la même chose pour Google et pour moi. Il faut revenir à des enjeux réalistes : ai-je exploré les opportunités d’utilisation des données « à ma disposition » ? Suis-je capable de « passer à l’échelle » efficacement (délai, coût) si une opportunité se présente ?<br />
Et, à quelle échelle : *10, *100, *1000 ? Que font mes concurrents ?</p>
<p>Alors : <em>in or out</em> ?</p>
<p><em>*Hadoop comme nombre de bases de données noSQL est distribué en open source. Le déploiement d’Hadoop n’exige pas d’infrastructure réseau et/ou serveurs haut de gamme.</em></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2013/06/big-data-tour-dhorizon-2013/">Big data : tour d’horizon  2013 !</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Big data : comment intégrer les technologies de stockage ?</title>
		<link>https://www.riskinsight-wavestone.com/2013/03/big-data-comment-integrer-les-technologies-de-stockage/</link>
		
		<dc:creator><![CDATA[Lionel Bour]]></dc:creator>
		<pubDate>Tue, 26 Mar 2013 09:35:19 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[données]]></category>
		<category><![CDATA[Hadoop]]></category>
		<category><![CDATA[HDFS]]></category>
		<category><![CDATA[map reduce]]></category>
		<category><![CDATA[performance]]></category>
		<category><![CDATA[scalabilité]]></category>
		<category><![CDATA[stockage]]></category>
		<category><![CDATA[variété]]></category>
		<category><![CDATA[vélocité]]></category>
		<category><![CDATA[volume]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=3570</guid>

					<description><![CDATA[<p>Les solutions Big data orientées stockage sont de plus en plus nombreuses et commencent à être déployées dans les entreprises. Tout le monde doit-il s’y intéresser ? Comment doit-on les intégrer ? Quelles sont caractéristiques du Big data ? Comme son nom l’indique,...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2013/03/big-data-comment-integrer-les-technologies-de-stockage/">Big data : comment intégrer les technologies de stockage ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Les solutions Big data orientées stockage sont de plus en plus nombreuses et commencent à être déployées dans les entreprises. Tout le monde doit-il s’y intéresser ? Comment doit-on les intégrer ?</em></p>
<h2>Quelles sont caractéristiques du <em>Big data</em> ?</h2>
<p>Comme son nom l’indique, le <em>Big data</em> définit une catégorie de données. Elle est souvent résumée par les 3 « V » :</p>
<ul>
<li><strong>Volume : </strong>une quantité de données importante liée à la multiplication des données du client. Les données à manipuler sont de l’ordre de la dizaine de tera octets ;</li>
<li><strong>Variété :</strong> différents types de données  provenant de diverses sources (internes SI, externes comme les réseaux sociaux… Ces données vont du plus structuré (relationnel) au non structuré (fichiers, vidéo…) ;</li>
<li><strong>Vélocité</strong> : une fréquence rapide à laquelle les données doivent être traitées et partagées, liée à la volonté de tendre vers un SI « temps réel ».</li>
</ul>
<h2> Comment savoir si l’on manipule des données <em>Big data</em> ?</h2>
<p>C’est simple, c’est souvent lorsque l’une des couches du SI devient un facteur limitant lors du traitement de gros volume de données, que l’on comprend qu’il s’agit de <em>Big data</em>.</p>
<p>La couche stockage est l’un des premiers facteurs limitant et les problématiques associées sont les suivantes :</p>
<ul>
<li><strong>Performance :</strong> l’augmentation du volume à traiter entraîne une diminution des performances ;</li>
<li><strong>Linéarité :</strong> l’outillage n’étant pas adapté aux gros volumes de données, le modèle de scalabilité n’est pas linéaire, l’ajout de stockage ne permettant pas d’améliorer les performances ;</li>
<li><strong>Dynamisme : </strong>l’allocation d’espace est fixe avec une faible réactivité pour en ajouter ou en retirer.</li>
</ul>
<p>Les solutions du marché reposent sur des implémentations propriétaires.</p>
<p>Les solutions <em>Big data</em> reposent sur un stockage basé sur <strong>le modèle de fichier distribué </strong>: des nœuds de stockage sont répartis physiquement sur le réseau mais vus par les applications comme un seul volume de stockage logique.<em><br />
</em></p>
<p>Ce modèle répond justement aux enjeux suivants, auparavant problématiques :</p>
<ul>
<li><strong>Performance </strong>: les données sont réparties sur plusieurs nœuds de stockage (<em>stripping HADOOP HDFS</em>) et ceux-ci se distribuent intelligemment la donnée afin de diminuer le trafic réseau (les données semblables sur un même nœud) et faciliter des traitements distribués (<em>HADOOP map reduce</em>)</li>
<li><strong>Linéarité</strong> : le modèle distribué permet d’ajouter des nœuds de stockage sans limite et permet de retrouver une scalabilité linéaire ;</li>
<li><strong>Dynamisme</strong> : l’ajout et la suppression de nœud de calcul peuvent se faire simplement et apportent une résilience (via la réplication automatique des données). Si un nœud de stockage tombe, le service est assuré sans arrêt et sans perte de données. On s’approche d’une perte de données « RPO » et d’un temps de reprise « RTO » nulle.</li>
</ul>
<p>Les <strong>solutions </strong><strong>du marché (IBM, EMC, etc.) répondent aux 3 « v » du <em>Big data</em></strong> mais <strong>chacune suit son propre modèle d’implémentation du stockage distribué</strong> : <em>Cluster File System</em>, Parallel File System…. Chaque solution n’a donc pas les mêmes performances ou, capacité d’évolutivité suivant le besoin.</p>
<h2> La qualification des données est la clé du stockage</h2>
<p>C’est pour cela que lors de la mise en œuvre de ces types de solutions, <strong>une étude sur le stockage est nécessaire. </strong> Quelles sont mes données ? Quelle est la volumétrie (max, écart-type, moyenne) ? Quelle est leur croissance ? Quels types de traitements sont effectués ? Doivent-elles être centralisées ? Quel est le ratio de lecture / écriture ? …</p>
<p>Toutes ces réponses permettront de <strong>catégoriser les données</strong>, <strong>un entrant primordial à la qualification</strong> de la solution cible et à son optimisation. Ainsi l’optimisation des  services de stockage <em>Big data</em> permettent à l’entreprise de maîtriser la variabilité et les performances. L’indexation devient plus facile, la taille des caches est optimisée et le <em>stripping</em> (fait de couper le fichier en plusieurs morceaux) est facilité afin de garantir un accès plus rapide à la donnée.</p>
<p><strong>La mise en place d’une technologie stockage distribué est idéale dans les configurations de type grille de calcul</strong> : les nœuds de calcul échangent un grand nombre de données entre eux. À  la place d’une configuration en étoile où tous les nœuds s’échangent directement des fichiers, chaque nœud utilise un même volume logique hébergé sur une infrastructure Big data. Les gains sont doubles : directement sur les temps de lecture / écriture des données partagées et la charge réseau (bien que plus concentrée sur un segment) et indirectement sur les temps de calculs de la grille. Les nœuds de la grille de calcul étant déchargés de leur fonction de distribution de fichiers vers les autres nœuds, les ressources sont exploitées au maximum par le calcul applicatif. L’applicatif est donc plus performant pour le <em>business</em>.</p>
<p align="left">Les solutions de stockage <em>Big data </em><strong>commencent à être adoptées par les entreprises, qui les utilisent sur leurs périmètres stratégiques </strong>pour en tirer <strong>des gains de performance</strong> là où les solutions standards étaient limitantes. <strong>L’intégration de ces solutions reste l’étape clé </strong>: l’étude des données est nécessaire pour choisir la bonne implémentation <em>Big data</em>, faciliter sa configuration et ainsi profiter pleinement des  bénéfices annoncés.</p>
<div>
<hr align="left" size="1" width="33%" />
</div>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2013/03/big-data-comment-integrer-les-technologies-de-stockage/">Big data : comment intégrer les technologies de stockage ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Quel est le paysage technologique du Big Data ?</title>
		<link>https://www.riskinsight-wavestone.com/2012/02/quest-ce-que-le-paysage-technologique-du-big-data/</link>
		
		<dc:creator><![CDATA[Matthieu Millet]]></dc:creator>
		<pubDate>Fri, 03 Feb 2012 09:26:04 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[analytique]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Business Intelligence]]></category>
		<category><![CDATA[Enterprise Datawarehouse]]></category>
		<category><![CDATA[Hadoop]]></category>
		<category><![CDATA[mapReduce]]></category>
		<category><![CDATA[stockage]]></category>
		<category><![CDATA[technologies]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=1261</guid>

					<description><![CDATA[<p>[Article rédigé en collaboration avec  Lise Gasnier] MMI (Mathieu Millet) : Le premier élément structurant dans le contexte Big Data est le socle de “stockage” des données. L’approche historique est celle des offres de DatawareHouse, qui ont évolué, sous forme...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2012/02/quest-ce-que-le-paysage-technologique-du-big-data/">Quel est le paysage technologique du Big Data ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em><em>[Article rédigé en collaboration avec  Lise Gasnier]</em></em></p>
<p><strong>MMI</strong> (Mathieu Millet)<strong> : Le premier élément structurant dans le contexte Big Data est le socle de “<em>stockage”</em> des données.</strong></p>
<p>L’approche historique est celle des offres de DatawareHouse, qui ont évolué, sous forme d’<em>appliance</em> notamment, pour supporter de plus grandes quantités de données et faire porter par le « stockage » une capacité de traitement étendue (principe de <em>PushDown</em>). On retrouve les offres de fournisseurs tels que TeraData (leader historique sur le marché), Oracle avec ExaData, IBM/Netezza/Informix ou encore, EMC/Greenplum ou HP/Vertica.</p>
<p>Ces solutions ont toutes en commun un modèle de données fortement structuré (type, table, schéma, …) et le langage de requête SQL.</p>
<p>L’approche en rupture est celle proposée par Google, avec la publication de son Livre Blanc Big Table. Cette approche consiste en 2 grands principes. Tout d’abord, il s’agit de reprendre les principes de scalabilité (horizontale) des clusters de calcul scientifique (HPC).Puis, on peut se permettre de s&rsquo;affranchir de certaines contraintes inhérentes à un usage transactionnel des bases de données relationnelles traditionnelles, et qui ne sont plus strictement nécessaires pour les usages analytiques, telles que les principes d’ACIDité (Atomicité, Cohérence, Isolation et Durabilité), le langage SQL (Not-Only SQL, NoSQL) et la contrainte de Cohérence (immédiate) du théorème CAP<a title="" href="http://www.solucominsight.fr/wp-admin/post-new.php#_ftn1">[1]</a> de Brewer .</p>
<p>Cependant, pour simplifier la mise en œuvre d’une telle solution  et rendre l’infrastructure simple, scalable (à plusieurs centaines de nœuds), avec du matériel à bas coût (donc sans inclure de réseau faible latence, type InfiniBand ou même sans réseau de stockage spécifique), le framework de “gestion” d’un tel cluster est obligé de contraindre fortement l’organisation et la manière de développer. Les principes de Map Reduce<a title="" href="http://www.solucominsight.fr/wp-admin/post-new.php#_ftn2">[2]</a> (toujours décrits dans le Libre Blanc de Google) répondent à ces contraintes.</p>
<p>La solution la plus emblématique de cette approche est Hadoop et son écosystème. Développé initialement par Yahoo, maintenant supporté par la fondation Apache, Hadoop implémente un système de Fichiers massivement Distribués (HDFS) et un moteur Map Reduce. Hadoop est épaulé par tout un écosystème afin d’étendre son champ fonctionnel, avec par exemple HBase (base de données de type NoSQL) ou encore Hive (entrepôt de données disposant d’un langage de requêtage <em>à la SQL</em>).</p>
<p>Hadoop a tellement le vent en poupe que presque tous les acteurs du DatawareHouse (Oracle, Microsoft, IBM, Teradata,…) ou de l’analytique (SAS, R, Micro Strategy, &#8230;) ont maintenant annoncé des solutions autour de ce nouvel écosystème.</p>
<p><strong>LGA </strong>(Lise Gasnier) : <strong>La finalité du stockage est d&rsquo;extraire l&rsquo;information utile des données. L&rsquo;analyse est naturellement l&rsquo;autre volet majeur du paysage technologique du Big data.</strong></p>
<p>Dans ce domaine, l&rsquo;innovation porte sur l&rsquo;intégration des solutions d&rsquo;analyse à celles de stockage pour éviter les mouvements des données. Mathieu a cité Hive pour sa compatibilité avec Hadoop. Citons également Greenplum un dérivé de Postgres qui repose sur une architecture distribuée sur un cluster de machines. Cette tendance à l&rsquo;interaction se traduit aussi par le rapprochement d&rsquo;acteurs issus des deux mondes: Revolution Analytics (BI) et IBM Netezza,par exemple,  sont partenaires depuis début 2011.</p>
<p>Une approche banalisée de ce rapprochement entre traitements et données est celle des grilles de données tels que Oracle Coherence, Terracotta ou Gigaspaces XAP. Elles offrent la capacité de distribuer les données sur des nœuds de calcul. Elles se trouvent donc à la jonction entre clusters de traitements distribués et bases de données mémoire.</p>
<p>Ces dernières, en économisant les accès aux disques, permettent d’utiliser des approches analytiques classiques tout en garantissant les performances à mesure que la complexité des requêtes et leur volume évolue. Même si les produits (comme les appliances analytiques SAP HANA et Kognitio WX2) ne sont pas en mesure, aujourd’hui, de gérer les pétaoctets du Big Data, il faudra être attentif à l’innovation sur ce marché en croissance car on observe une convergence de différentes technologies au sein des solutions proposées par les éditeurs.</p>
<p>Toujours sur le plan de l’analyse, on assiste à la diffusion et à l’outillage des techniques analytiques, notamment par le recours à des méthodes issues de l&rsquo;intelligence artificielle de type Machine Learning et Natural Language Processing.</p>
<p>Le Big data met aussi l&rsquo;accent sur l&rsquo;importance de restituer efficacement les résultats d&rsquo;analyse et d&rsquo;accroître l&rsquo;interactivité entre utilisateurs et données. Ainsi, des produits comme Tableau (de Tableau Software) proposent des visualisations graphiques innovantes.</p>
<p><strong>MMI : Enfin, pour pouvoir analyser ces données que l’on aura stockées, il ne faut pas oublier le processus d’acquisition et de chargement de ces mêmes données.</strong></p>
<div><br clear="all" /></p>
<hr align="left" size="1" width="33%" />
<div>
<p><a title="" href="http://www.solucominsight.fr/wp-admin/post-new.php#_ftnref1">[1]</a> Le théorème CAP explique que pour un système réparti (tel qu’une base de données répartie sur plusieurs ordinateurs), il n’est pas possible d’assurer simultanément : Cohérence, Disponibilité (<em>Availability</em>), résistance au Partitionnement (<em>Partition Tolerence</em>).</p>
</div>
<div>
<p><a title="" href="http://www.solucominsight.fr/wp-admin/post-new.php#_ftnref2">[2]</a> L’approche MapReduce consiste à réaliser les différents traitements selon 2 tâches (qui peuvent se répéter) :</p>
<ul>
<li>Une fonction <em>Map</em>, massivement distribuable sur différents noeuds de calcul, qui associe un “couple (clef, valeur)” en entrée et un (ou plusieurs) “couple(s) (clef,valeur)” en sortie. La fonction Map ne traitant qu’un unique couple “à la fois”, il n’y a pas de problème de distribution des traitements.</li>
<li>Une fonction <em>Reduce</em>, qui regroupe toutes les réponses et les rassemble en une liste unique de valeur, pour finaliser le traitement..</li>
</ul>
<p>&nbsp;</p>
<p>Lire aussi les articles :</p>
<p><a href="http://www.solucominsight.fr/2012/01/qu%E2%80%99est-ce-que-le-big-data/" target="_blank">Qu&rsquo;est-ce que le Big Data</a></p>
<p><a href="http://www.solucominsight.fr/2012/02/comment-faire-face-a-l%E2%80%99emergence-du-phenomene-big-data/">Comment faire face à l&rsquo;émergence du phénomène Big Data</a></p>
</div>
</div>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2012/02/quest-ce-que-le-paysage-technologique-du-big-data/">Quel est le paysage technologique du Big Data ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
