<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>valeur - RiskInsight</title>
	<atom:link href="https://www.riskinsight-wavestone.com/tag/valeur/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.riskinsight-wavestone.com/tag/valeur/</link>
	<description>Le blog cybersécurité des consultants Wavestone</description>
	<lastBuildDate>Thu, 02 Jan 2020 10:00:53 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.riskinsight-wavestone.com/wp-content/uploads/2024/02/Blogs-2024_RI-39x39.png</url>
	<title>valeur - RiskInsight</title>
	<link>https://www.riskinsight-wavestone.com/tag/valeur/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Aux origines du Big data&#8230;</title>
		<link>https://www.riskinsight-wavestone.com/2013/08/auw-origines-du-big-data/</link>
		
		<dc:creator><![CDATA[Lise Gasnier]]></dc:creator>
		<pubDate>Fri, 02 Aug 2013 14:43:43 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[grid computing]]></category>
		<category><![CDATA[Hadoop]]></category>
		<category><![CDATA[histoire]]></category>
		<category><![CDATA[NoSQL]]></category>
		<category><![CDATA[parallèlisme]]></category>
		<category><![CDATA[shared nothing]]></category>
		<category><![CDATA[valeur]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=3978</guid>

					<description><![CDATA[<p>Comme nous l’avions vu dans un précédent article, derrière le Big data se cache un bon nombre d’idées : l’explosion des données (volume, variété et vélocité), la potentialité de valeur que l’on peut en tirer, sans oublier bien sûr les...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2013/08/auw-origines-du-big-data/">Aux origines du Big data&#8230;</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Comme nous l’avions vu dans un précédent article, <a title="Big data : tour d’horizon  2013 !" href="http://www.solucominsight.fr/2013/06/big-data-tour-dhorizon-2013/" target="_blank" rel="noopener noreferrer">derrière le Big data se cache un bon nombre d’idées </a>: l’explosion des données (volume, variété et vélocité), la potentialité de valeur que l’on peut en tirer, sans oublier bien sûr les technologies pour les traiter.  Pour comprendre ces concepts et imaginer leurs développements futurs, il est indispensable d’en connaître l’origine et l’évolution. Revenons brièvement sur la petite histoire &#8211; à forts rebondissements &#8211; du Big data.</p>
<h2>De l’explosion des données au Big data</h2>
<p>L’expression de « petite histoire du Big data », nous l’empruntons (presque) à Gil Press. Il livre en effet dans un long article documenté sur Forbes.com, daté du 5 mai 2013, « <a href="http://www.forbes.com/sites/gilpress/2013/05/09/a-very-short-history-of-big-data/">une très courte histoire du big data</a> ». En une trentaine de dates de 1944 à 2012, il retrace la prise de conscience précoce de l’explosion des données (dans les rayons des bibliothèques universitaires dans un premier temps, puis via les NTIC), avec comme préoccupation centrale d’en quantifier la croissance tout en apportant  quelques considérations critiques autour du déluge informationnel.</p>
<p>L’explosion des données est en effet  d’abord perçue comme une menace sur la vie privée (« <em>Assault on privacy </em>&#8211; 1971-  Arthur Miller).  Côté technique aussi : l’espace de stockage grandit, mais les données s’étendent systématiquement jusqu’à le combler (Loi de parkinson, 1980). Dans les années 70, la qualité des données est enfin mise en cause : tout est stocké, il n’est plus utile de faire le tri.</p>
<p>L’expression « Big data » fait finalement son apparition en octobre 1997 dans la bibliothèque numérique de l’ACM<sup>1</sup>, au sein d’articles scientifiques qui pointent du doigt les défis technologiques à visualiser les « grands ensembles de données ». Le Big data est né, et avec lui ses nombreux défis.</p>
<h2>Et si ces données avaient de la valeur ?</h2>
<p>Dans les années 2000, alors que l’exabytes<sup>2</sup> entrent en jeu dans la quantification des données produites annuellement, la valeur du Big data est mise en avant, d’abord pour les bénéfices que peuvent en tirer la recherche dans les secteurs de la physique, de la biologie ou des sciences sociales.</p>
<p>Ce que n’illustre pas l’article du Forbes.com, c’est la montée en puissance des Google, Facebook, Linkedin, Amazon et Twitter dans les années 2000 et plus particulièrement à partir de 2005. Celle-ci révèle tout le potentiel des données publiques disponibles sur internet. Les succès économiques des grands du web commencent alors à nourrir deux idées principales :</p>
<p>1- Les données brutes accumulées ont une valeur intrinsèque de par les fameuses 3 composantes en V ( pour volume essentiellement mais aussi variété et vitesse de leur production donc leur fraîcheur). Cette valeur est monétisable et Facebook en est l’illustration par excellence !</p>
<p>2- Ces données brutes ont une autre valeur liée aux analyses et corrélations auxquelles elles s’offrent et l’information qui en découle participe à la chaîne de valeur de l’entreprise (ex. : l’algorithme de recommandation d’Amazon).</p>
<h2>Quelques principes technologiques qui expliquent la montée en puissance du Big data</h2>
<p>Derrière ces succès, il y a évidemment des technologies qui font la différence et que les précurseurs du Big data ont contribué à développer et à faire connaître.  Les architectures Big data se fondent d’ailleurs sur 3 principes technologiques clés :</p>
<ul>
<li><strong>L’accélération matérielle.</strong> Depuis toujours, les composants des systèmes (mémoire, processeur, bus) sont optimisés pour assurer toujours plus efficacement leur fonction.</li>
<li><strong>Le parallélisme.</strong>  C’est dans les années 2000 que ce paradigme devient dominant. Qu’il s’agisse de l’architecture interne d’un ordinateur (multi-cores, multi-processeurs, MPP*, SMP**) ou de l’architecture d’un réseau de machines (<em>grid computing</em>, cluster de machines, cluster hadoop), l’idée est de décomposer les problèmes complexes en plusieurs calculs traités de manière simultanée. Ces architectures sont d’autant plus efficaces qu’aucun composant n’est partagé entre les unités de traitement parallèles (« <em>shared nothing</em> ») et qu’il n’y a donc pas de point de contention.</li>
<li><strong>Le NoSQL</strong>, le mouvement décolle fin des années 2000 et promeut des alternatives aux bases de données relationnelles en en abandonnant certaines contraintes (notamment la consistance du théorème CAP<sup>3</sup>.)</li>
</ul>
<p>Vous l’aurez compris, le Big data a émergé en 2010, mais il est né il y a quinze ans et il porte en lui un demi-siècle de réflexions, de concepts et de défis. Participerez-vous à son histoire ?</p>
<p>&nbsp;</p>
<p>…………………………………………………………………………………………………..<br />
<strong>*MPP :</strong> <em>Massively Parallel Processing</em>, à la différence du SMP, le MPP appliqué à l&rsquo;architecture d&rsquo;un ordinateur consiste en la mise en œuvre parallèle d&rsquo;un grand nombre de processeurs disposant chacun de leur mémoire.</p>
<p><strong>**SMP : </strong><em>Symetric MultiProcessing</em>,  architecture parallèle constituée de plusieurs processeurs identiques partageant une même mémoire au sein d&rsquo;un même ordinateur.</p>
<div><br clear="all" /></p>
<hr align="left" size="1" width="33%" />
<div>
<p><sup>1</sup> Association For Computing Machinery, association américaine à but non lucratif fondée en 1947 et vouée à l’informatique. Sa bibliothèque numérique est particulièrement riche quand il s’agit de retracer l’histoire de la discipline.</p>
</div>
<div>
<p><sup>2   </sup>1000 petabytes.</p>
</div>
<div>
<p align="left"><sup>3 </sup>Le théorème CAP explique que pour un système réparti (tel qu’une base de données répartie sur plusieurs ordinateurs), il n’est pas possible d’assurer simultanément : cohérence, disponibilité (<em>Availability</em>), résistance au partitionnement (<em>Partition Tolerance</em>).</p>
</div>
</div>
<div>
<hr align="left" size="1" width="33%" />
</div>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2013/08/auw-origines-du-big-data/">Aux origines du Big data&#8230;</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Gestion de l’IT : de la nécessité d’un pilotage économique global</title>
		<link>https://www.riskinsight-wavestone.com/2012/11/gestion-de-lit-de-la-necessite-dun-pilotage-economique-global/</link>
		
		<dc:creator><![CDATA[LAUQUE Mélodie]]></dc:creator>
		<pubDate>Mon, 19 Nov 2012 20:11:30 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[culture financière.]]></category>
		<category><![CDATA[Pilotage économique]]></category>
		<category><![CDATA[réduction de coûts]]></category>
		<category><![CDATA[valeur]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=2559</guid>

					<description><![CDATA[<p>[Article rédigé en collaboration avec Clément Presta] Dans un contexte économique difficile, les plans de réduction de coûts se multiplient au sein des grands comptes et la direction financière peut souvent imposer la cadence de la transformation. Néanmoins, ce besoin...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2012/11/gestion-de-lit-de-la-necessite-dun-pilotage-economique-global/">Gestion de l’IT : de la nécessité d’un pilotage économique global</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>[Article rédigé en collaboration avec Clément Presta]</p>
<p>Dans un contexte économique difficile, les plans de réduction de coûts se multiplient au sein des grands comptes et la direction financière peut souvent imposer la cadence de la transformation. Néanmoins, ce besoin d’économies ne doit pas obérer la capacité à investir dans l’IT qui demeure un fort vecteur de croissance pour les métiers.</p>
<p>Un pilotage économique global de l’IT est en mesure de concilier ces deux tendances à première vue antagonistes. Pour cela, il doit arriver à se développer dans les directions informatiques tout en restant proche du terrain et en s’adaptant aux réalités du monde de l’IT.</p>
<h2>Un pilotage économique positionné sur l’ensemble de la chaîne de valeur de l’IT…</h2>
<p>Le pilotage économique a pour finalité d’assurer la meilleure utilisation possible des ressources pour servir la stratégie de l’entreprise. Pour cela, il doit participer à la maîtrise de l’ensemble des facteurs, endogènes et exogènes, qui influent sur le fonctionnement de l’IT et de sa gestion. Afin de mettre le coût de l’IT au regard de la valeur qu’il procure, il est en premier lieu nécessaire de le comprendre.</p>
<p>Par exemple, une action sur les coûts récurrents ne peut être menée à bien qu’après avoir identifié l’ensemble des leviers permettant leur réduction. Ceci implique de ne pas restreindre le prisme de l’analyse économique aux seules ressources (humaines, matérielles ou logicielles) mais de l’étendre aux activités de transformation et aux services résultant de ces mêmes ressources. Il est donc primordial d’allier compréhension d’ensemble de l’écosystème et développement de domaines d’expertise tels que la gestion d’actifs (licences) ou le pilotage des ressources externes (contrats d’infogérance).</p>
<p>Pour parvenir à s’inscrire dans cette optique, il faut fluidifier les interactions entre fonction informatique et fonction finance en s’appuyant sur un processus alliant robustesse (reposant sur des données fiables), flexibilité (adapté aux niveaux stratégiques et opérationnels) et transversalité (adressant l’ensemble des parties prenantes).</p>
<h2>… dont la mise en œuvre exige une implication forte à tous niveaux</h2>
<p>Bien que le développement de l’informatique décisionnelle compte aujourd’hui parmi les priorités des DSI (Gartner, 2012), il est important d’éviter l’écueil lié à la mise en place prématurée d’outils. Les causes d’échec étant nombreuses, il est préférable de ne pas aborder la problématique outillage avant d’avoir traité les sujets de fond.</p>
<ul>
<li>L’action doit donc être concentrée dans un premier temps sur la mise en place des fondamentaux :Définir un cadre de cohérence commun pour disposer d’une vision d’ensemble : calendriers des entités opérationnelles alignés sur le cycle de gestion de l’entreprise, référentiels et pratiques partagés. Cette action est d’autant plus importante que la tendance à la fragmentation de l’IT au sein des organisations est réelle. Près de 40% des moyens IT échappent aujourd’hui au contrôle des DSI (Gartner, 2012) ;</li>
<li>Encourager le travail en synergie entre l’IT et les Métiers en améliorant le dialogue de gestion MOE/MOA. Progresser durablement en matière d’évaluation de besoins et de capacité à faire est l’objectif premier de ce chantier : parvenir à anticiper pour se donner les moyens de prioriser ;</li>
<li>Diffuser la culture financière auprès de l’ensemble des acteurs des DSI pour faire évoluer les habitudes de travail. La familiarisation progressive des informaticiens et chefs de projets aux enjeux et concepts de gestion peut générer un gain de maturité réel et pérenne. La concrétisation de ce gain se traduit par l’intégration naturelle et systématique d’une réflexion sur les impacts financiers préalablement à toute action.</li>
</ul>
<p>Ce n’est qu’une fois la route vers ces fondamentaux tracée que l’on pourra prendre le chemin de l’analyse et tâcher d’apporter des réponses à d’autres questions cruciales : quels indicateurs sont les plus pertinents ? comment assurer leur suivi dans le temps ? Enfin, pour prendre pleinement son sens et réussir à concentrer l’effort IT sur les activités génératrices de valeur pour les métiers, le pilotage économique ne devra pas manquer de s’appuyer sur des processus complémentaires tels que la gestion de portefeuille de projet.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2012/11/gestion-de-lit-de-la-necessite-dun-pilotage-economique-global/">Gestion de l’IT : de la nécessité d’un pilotage économique global</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
