<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>big data - RiskInsight</title>
	<atom:link href="https://www.riskinsight-wavestone.com/en/tag/big-data-en/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.riskinsight-wavestone.com/en/tag/big-data-en/</link>
	<description>The cybersecurity &#38; digital trust blog by Wavestone&#039;s consultants</description>
	<lastBuildDate>Tue, 04 Aug 2020 16:16:11 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.riskinsight-wavestone.com/wp-content/uploads/2024/02/Blogs-2024_RI-39x39.png</url>
	<title>big data - RiskInsight</title>
	<link>https://www.riskinsight-wavestone.com/en/tag/big-data-en/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Hazy &#124; Shake&#8217;Up &#8211; How synthetic data could have let us prepare for this pandemic?</title>
		<link>https://www.riskinsight-wavestone.com/en/2020/07/hazy-shakeup-how-synthetic-data-could-have-let-us-prepare-for-this-pandemic/</link>
		
		<dc:creator><![CDATA[Jennifer Riggins]]></dc:creator>
		<pubDate>Fri, 31 Jul 2020 13:00:12 +0000</pubDate>
				<category><![CDATA[Cloud & Next-Gen IT Security]]></category>
		<category><![CDATA[Cyber for Financial Services]]></category>
		<category><![CDATA[Cybersecurity & Digital Trust]]></category>
		<category><![CDATA[Sections]]></category>
		<category><![CDATA[big data]]></category>
		<category><![CDATA[cybersecurity]]></category>
		<category><![CDATA[data analysis]]></category>
		<category><![CDATA[hazy]]></category>
		<category><![CDATA[shake'up]]></category>
		<category><![CDATA[synthetic]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=13992</guid>

					<description><![CDATA[<p>We are now opening contributions to this blog to start-ups accelerated by our Shake&#8217;Up project. Hazy offers a synthetic data generator, combining differential confidentiality, referential integrity, multi-table database support and aerial deployment. Contingency planning. It’s what the few orgs that...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2020/07/hazy-shakeup-how-synthetic-data-could-have-let-us-prepare-for-this-pandemic/">Hazy | Shake&#8217;Up &#8211; How synthetic data could have let us prepare for this pandemic?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<figure id="post-14003 media-14003" class="align-none"></figure>
<p id="tw-target-text" class="tw-data-text tw-text-large XcVN5d tw-ta" dir="ltr" data-placeholder="Translation"><span lang="en">We are now opening contributions to this blog to start-ups accelerated by our Shake&#8217;Up project. Hazy offers a synthetic data generator, combining differential confidentiality, referential integrity, multi-table database support and aerial deployment.</span></p>
<p dir="ltr" data-placeholder="Translation">
<p dir="ltr" data-placeholder="Translation"><img fetchpriority="high" decoding="async" class="size-full wp-image-14006 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Capture-1.png" alt="" width="898" height="254" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Capture-1.png 898w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Capture-1-437x124.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Capture-1-71x20.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Capture-1-768x217.png 768w" sizes="(max-width: 898px) 100vw, 898px" /></p>
<p dir="ltr" data-placeholder="Translation">
<p>Contingency planning. It’s what the few orgs that are thriving during these multilayered crises have done well.</p>
<p>For those success cases, this planning started at the personnel level. From the CEO and CTO on down, these orgs asked, if a member of the staff gets sick, who is next? What if multiple key players are hospitalized at once? They logged the Internet providers and regions for all on-call engineers and created a chain of replacements if there’s an outage. These orgs made sure not only their internal and customer-facing systems have backups, but that their third-party integration partners did, too.</p>
<p>But some would call all this reacting, not planning. Or simply luck. After all, each organization and industry has its own barriers to overcome. How could any company really prepare for the unknown?</p>
<p>How could any org prepare for a global pandemic if there hasn’t been one of this magnitude for a hundred years?</p>
<p>This is where synthetic data offers an interesting opportunity to <strong>hope for the best, but prepare for the worst</strong>. Synthetic data — which is highly accurate but highly private, utterly artificial data — can allow your organization to simulate unforeseen events like pandemics and natural disasters.</p>
<p>Synthetic data allows you to contingency plan for <strong>even the unpredictable.</strong></p>
<p>&nbsp;</p>
<h2>What is synthetic data and how is it used?</h2>
<figure id="post-13993 media-13993" class="align-none"><img decoding="async" class="size-full wp-image-13993 alignnone" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Hazy-002.png" alt="" width="928" height="1120" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Hazy-002.png 928w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Hazy-002-158x191.png 158w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Hazy-002-32x39.png 32w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Hazy-002-768x927.png 768w" sizes="(max-width: 928px) 100vw, 928px" /></figure>
<p>As its name suggests, synthetic data is completely artificial. In the case of <a href="http://hazy.com">Hazy</a>, synthetic data is generated by cutting-edge machine learning algorithms that offer certain mathematical guarantees of both utility and privacy. This is essential because <strong>no customer data is really used, while the curves or patterns of their collective profiles and behaviors are preserved.</strong></p>
<p>This is incredibly useful for breaking down barriers to innovation and testing. You can learn all the need-to-know information about your customers, demographics, and habits while dramatically decreasing the risk of re-identification. You can then easily and securely port that synthetic data and insights across different divisions, government agencies, nongovernmental organizations, and geographical restrictions. And you can quickly evaluate third-party integrations partners.</p>
<p>Since smart synthetic data retains both value and compliance, its potential is nearing limitless. It can be applied to solving some of the world’s biggest problems, from escalating international pandemic research and tracing to fairer access to banking to fraud and money laundering detection at a cross-border, cross-organizational scale. It can be used to break down boundaries and optimise cross-governmental collaboration, up until now hindered by divergent databases stuck behind regulatory walls.</p>
<p>Synthetic data allows organizations and governments <strong>to overcome both geographical and resource barriers</strong>.</p>
<p>Then that synthetic data can even be applied to events that haven’t happened yet.</p>
<p>The world’s leading organizations are starting to leverage synthetic data to build predictive scenarios in order to better respond to future economic, health, political and environmental crises.</p>
<p>It should be noted that synthetic data is not as advanced and mainstream as other enterprise tooling. Since each organization has very complex and varied datasets, they have to be transformed, pre-processed and configured in order to make them accessible to machine learning models. This means while anyone in your org can benefit from synthetic data, y<strong>our data scientists still have to be involved in this data preparation</strong>.</p>
<p>&nbsp;</p>
<h2>Synthetic data to simulate unforeseen events</h2>
<p>Synthetic data is created by g<strong>enerative machine learning models</strong>, which, in a way, can be thought of as simulators of the world.</p>
<p>Hazy synthetic data is already being used at major financial institutions for app developers to simulate realistic client behavior patterns before there are even users. This can carry over to machine learning engineers who can better model for this sort of future-demand scenarios.</p>
<p>Our most innovative customers are beginning to extend the use cases of this vanguard technology to these mostly unforeseeable events.</p>
<p>This has only been made a possibility quite recently through <strong>conditional synthetic data generation</strong>, which allows for the exploration of how some relationships in a dataset can play out with other relationships when their effects are amplified or diminished.</p>
<p>Right now, it’s making headlines in the <strong>deep fake images space</strong>. Someone could ask a conditional generator for faces that have pink hair, glasses and a nose piercing. Now, the generator may have never seen someone with all of those characteristics combined, but it knows roughly how each of these entities logically combine at a higher level. The machine learning model has learned how lower level entities come together to build<strong> meta entities</strong> —  for example it knows that a nose has a fairly predictable relationship with eyes and mouth. This allows the generator <strong>to take what it knows and to accurately fill in the gaps</strong> and predict what those punk rockers would look like.</p>
<p>This works slightly differently with customer data like sequential financial data, as these tables often include thousands of columns and have a lot of categorical values — each column can be thought of as a dimension. Working out how categorical values in a table interrelate within a dataset is often more challenging than when working with a dataset consisting of the pixel dimensions of a data set of human faces.</p>
<p>The positive is that <strong>banks indisputably have lots of data to work with</strong>. Banks also often have access to additional datasets like stock measurements, interest rates, and exchange rates. The interrelationships across different datasets can potentially be combined to better model relationships and explore scenarios and model tradeoffs. With these, machine learning models you can ask questions like how a product might behave when you have a combination like high interest rates and low unemployment.</p>
<p>Maybe the world hasn’t seen that happen in real life, but the generators can be used to extrapolate and fill in the blanks because <strong>it generally knows how they trend together</strong>.</p>
<p>Insurance companies live in a world of “if then, then this”, but so much of their actuarial insights are based on past data. What can you do if you have no data because these events haven’t happened yet? Synthetic data is a good way to build predictive scenarios that can help organizations adequately price the risk of unforeseen events.</p>
<p>And this crystal ball reading doesn’t have to just be applied to world changing events. You can use synthetic data generators to understand how a new market would react to your launching of a new product.</p>
<p>Say you have a million clients in the UK and only 50,000 in France. And you know the income variability, the geographical zones they live in, and the ages, income and educational level for each customer. First you create synthetic data<strong> that protects all the personally identifiable information</strong> across two distinct geographic regions. The model then learns both t<strong>he predictable way</strong> the product sold in the UK and it knows the behavioral differences between the two countries. This model can even learn to cleverly extrapolate UK consumer behavior into French consumer behaviour to predict the best way an expansion in the French market might play out. These disparate insights turn into a solid predictor for global expansion KPIs.</p>
<p>These results can again be combined with more probabilities like how your customers or local markets will react depending on how many points the stock market falls or how summer temperatures impact sales. However, if you want to predict very rare events or a combination of rare events with limited data, <strong>making predictions remains very challenging</strong> without enough data to meaningfully extrapolate trends and relationships in the data.</p>
<p>&nbsp;</p>
<h2>The limitless potential of securely synthetic data</h2>
<p>Synthetic data is the best way to <strong>safely unlock the potential of the data economy</strong>. Because synthetic data — by being completely artificial — can <strong>solve the essential privacy problem</strong>, it can significantly reduce data leaks and protect your customers’ personal information, while still retaining utility.</p>
<p>Synthetic data becomes the best way for multinational organizations to stay as competitive, responsive and innovative as startups. And to allow you to capacity plan, based on the completely unknown.</p>
<p>Because large financial institutions have such a wealth of data, they are perfectly positioned to take advantage of the unique potential of data and synthetic data. Organizations can now limit risk-taking by predicting responses for an unpredictable future.</p>
<p>The world is changing rapidly. <strong>Your business has to be ready for it</strong>.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2020/07/hazy-shakeup-how-synthetic-data-could-have-let-us-prepare-for-this-pandemic/">Hazy | Shake&#8217;Up &#8211; How synthetic data could have let us prepare for this pandemic?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Boost your cybersecurity thanks to machine learning? Part 2 &#8211; &#8220;Yes, but choose the right approach!&#8221;</title>
		<link>https://www.riskinsight-wavestone.com/en/2020/07/boost-your-cybersecurity-thanks-to-machine-learning-2-2/</link>
		
		<dc:creator><![CDATA[Carole Meyziat]]></dc:creator>
		<pubDate>Wed, 08 Jul 2020 07:34:20 +0000</pubDate>
				<category><![CDATA[Cloud & Next-Gen IT Security]]></category>
		<category><![CDATA[Cybersecurity & Digital Trust]]></category>
		<category><![CDATA[big data]]></category>
		<category><![CDATA[data analysis]]></category>
		<category><![CDATA[Machine learning]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=13902</guid>

					<description><![CDATA[<p>In the previous article, we presented a step by step approach for Machine Learning applied to cybersecurity in order to use its value and understand how it works (lien vers partie 1 de l’article). In this second part, we will...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2020/07/boost-your-cybersecurity-thanks-to-machine-learning-2-2/">Boost your cybersecurity thanks to machine learning? Part 2 &#8211; &#8220;Yes, but choose the right approach!&#8221;</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>In the <a href="https://www.riskinsight-wavestone.com/en/2020/07/boost-your-cybersecurity-thanks-to-machine-learning-1-2/">previous article</a>, we presented a step by step approach for Machine Learning applied to cybersecurity in order to use its value and understand how it works (lien vers partie 1 de l’article). In this second part, we will answer a few common questions that may arise before starting such an initiative.</p>
<p>&nbsp;</p>
<h2>Is the amount of data the only success factor?</h2>
<p>Absolutely not. #GarbageInGarbageOut</p>
<p>Focusing only on the data is the best way to be disappointed by machine learning. Results do not appear out of thin air if the input data is not carefully chosen!</p>
<p>Not only should you define precisely the use case before starting, but you need to make sure that relevant data will be fed to the model.</p>
<p>&nbsp;</p>
<h2>What use case should I choose to do machine learning?</h2>
<p>You’re looking at the problem upside down!</p>
<p>The right questions would rather be:</p>
<ul>
<li><strong>Are some use cases currently causing problems?</strong> <em>g. time-consuming process because all the alerts raised require analysis, and ultimately include many false positives. </em></li>
<li><strong>Does a machine learning based approach fit with some of those problems?</strong> <em>g. alerts raised on a behaviour deemed as « abnormal », rather than a fixed detection threshold that would be hard to configure and to keep up to date.</em></li>
<li><strong>Have I checked that there are no standard solutions to tackle the problem? </strong><em>#</em><em>IAmNotReinventingTheWheel</em></li>
</ul>
<p>In cybersecurity, in front of a complex problem that has to be described explicitly (e.g what is a suspect communication in my information system?) and that additionally is very likely to evolve along time (e.g the detection thresholds need frequent adjustment), finding the right compromise between detection of suspect use cases and false positives with static rules can be difficult. In these kinds of situation, it is interesting to explore the machine learning option.</p>
<p>&nbsp;</p>
<h2>Who leads the project: the cybersecurity team or the data team?</h2>
<p>Both, with a lot of communication! #OneTeam</p>
<p>Each of these teams have <strong>their own</strong> <strong>expertise</strong>, technical for data scientists, business for the cybersecurity team. One without the other does not allow to properly conduct a machine learning for cybersecurity project.</p>
<p>Without data scientists, the cybersecurity team might for instance:</p>
<ul>
<li>Start without enough data. <em>g. the volume of data does not allow the algorithm to define a standard behaviour and it cannot separate normal situations from abnormal.</em></li>
<li>Forget to cross some data. <em>g. each user’s first connection to a new application is detected as an abnormal event, because it is not combined with a variable to allow the comparison of this specific behaviour with the behaviour of the mass of users (that already use the application).</em></li>
<li>Not being able to interpret the alerts given by the algorithm, and not being able to optimize it. <em>g. the algorithm shows anomalies that turn out not to be, the cybersecurity team does not understand on what is based the algorithm’s analysis and does not know how to improve it.</em></li>
</ul>
<p>And without the cybersecurity team, the data scientists might:</p>
<ul>
<li>Not know how to assess the relevance of the anomalies detected. <em>g. the algorithm rises a log as an anomaly, but the data scientists cannot evaluate if it is a real cybersecurity issue or not.</em></li>
<li>Not being able to select the data the algorithm should be fed with. <em>g. cybersecurity gave its proxy logs to the data scientists, but they did not sort the most adequate fields for the use case: the results of the algorithm are confused.</em></li>
<li>Miss out on crucial elements that should be integrated in the model to answer the need of the business. <em>g. by trying to optimise an algorithm, a field that is necessary to the categorisation of an anomaly in cybersecurity is deleted from the data set; the results of the algorithm are no longer valuable for cybersecurity purposes.</em></li>
</ul>
<p><strong>Combining the expertise of both teams is key to guarantee that the resources of the Machine Learning will be used efficiently to bring a high value-added answer for cybersecurity.</strong></p>
<p>&nbsp;</p>
<h2>What are the prerequisites?</h2>
<p>The data!</p>
<p>Although it is not the only aspect to focus on, no model can be create without data.</p>
<p>As a reminder, machine learning encompasses all the techniques that allow machines to learn without having been explicitly programmed for their purpose. For them to learn, the algorithms are fed with the <strong>data</strong> that we can provide them.</p>
<ul>
<li>They will need a <strong>high quantity</strong> of data so that they can define a « norm » as sharp as possible, since it will be defined and confronted to important volumes of real-life cases. Note that «high quantity » does not necessarily mean « diversity »: it is important to only select the data relevant for the use case.</li>
<li>The data will need to be <strong>qualitative</strong> not to deceive the learning of the algorithm, <em>e. </em>without the introduction of biases for instance.</li>
</ul>
<p>It will be useful to identify the relevant type of data for the analysis (e.g. security logs), the sources where they will be collected (e .g. web proxies) and the resources that will enrich them (e.g. CMDB to link IPs with machine names) if needed.</p>
<p>&nbsp;</p>
<h2>I don’t have much data available for my use case, does this mean that machine learning is not for me?</h2>
<p>Not necessarily!</p>
<p>If the available data is relevant to the use case and well distributed (e.g. representative of a usual situation on a defined time period so that a non-supervised algorithm could learn the « normal » situation), it is possible to have interesting results.</p>
<p>For instance, with a well-defined use case (e.g. targeted on a specific user population) and the adequate collected logs, suspect behaviors can be detected in proxy logs with only two weeks of traffic (depending on the wordiness of the logs, this only represents a few GB).</p>
<p>&nbsp;</p>
<h2>Which algorithm should I use?</h2>
<p>Pick one and see!</p>
<p>The most important element that will allow to answer this question in a more adapted way is the type of learning process: supervised or non-supervised.</p>
<p>The choice of one non-supervised algorithm rather than another will affect performance, but not as much as the input data. Many algorithms can work for a given use case, and their performance will depend on the context (e.g. need to interpret the results, volume of the training data…).</p>
<p>The data scientists choose the algorithm based on their watch in order to suggest the most recognized and performing algorithm for a determined use case and context.</p>
<p>&nbsp;</p>
<h2>Should I do it myself or outsource?</h2>
<p>It depends, and it can evolve in time!</p>
<p>Our first article detailed an implementation example: development with your own tools, starting from scratch. In reality, there are three implementation options; the choice depends on the use case, the available resources and the ambitions.</p>
<p>&nbsp;</p>
<figure id="post-13904 media-13904" class="align-none"></figure>
<figure id="post-13906 media-13906" class="align-none"><img decoding="async" class="size-full wp-image-13906 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Image-1-7.png" alt="" width="1166" height="460" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Image-1-7.png 1166w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Image-1-7-437x172.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Image-1-7-71x28.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Image-1-7-768x303.png 768w" sizes="(max-width: 1166px) 100vw, 1166px" /></figure>
<p>&nbsp;</p>
<p>Each of these scenarios present their strengths and weaknesses and it is possible to use them conjunctly. Also, it is essential to keep an eye on the market in order to observe if new, innovating and more-performing solutions have since appeared.</p>
<p>#TakeAStepBack</p>
<p>&nbsp;</p>
<h2>Is it easy to test?</h2>
<p>If the framing is well done, yes! #Test&amp;Learn</p>
<p>Once that the use case is selected, the data availability checked and the implementation method chosen, it is rather easy to test the benefit of machine learning before further investments.</p>
<p>This type of project is well adapted to iterative or sprint methods. Try out rapidly the selected solutions, demonstrate their relevance thanks to the added value, or on the contrary bring to light the fact that for this use case, the results are not encouraging enough to continue.</p>
<p>Whatever the case may be, a POC approach following an opportunity study can help you get a quick idea. This step, before starting on a larger scale, also enables you to take a step back to evaluate the potential benefits (e.g gains in time due to less false positives, better overall reactivity because the alerts are more relevant) compared to the investment to be made (e.g dedicated computing infrastructures, skills to recruit) before starting.</p>
<p>&nbsp;</p>
<h2>Once that my POC is done, how do I scale up?</h2>
<p>Once again, step by step!</p>
<p>Once that the first conclusive results are obtained on a use case, it is possible to envisage a production launch. Be careful not to go too fast: the production launch raises new questions that must be answered before continuing, for instance:</p>
<ul>
<li>What are the volumes of data to analyse? What pre-processing (data preparation phase) needs to be done beforehand? How frequently? (Real time, delayed time…)</li>
<li>How often will the algorithm need to go through the learning process? On how much data?</li>
<li>What are the necessary infrastructures?</li>
<li>Which skills and resources will enable to maintain to solution in time?</li>
</ul>
<p>It will then be time to take a step back and <strong>make operational choices</strong> while keeping in mind a long-term vision.</p>
<p>&nbsp;</p>
<h2>How much does it cost?</h2>
<p>It all depends on the ambitions.</p>
<p>For a POC, a framing allows to limit the investment until the added value of machine learning is demonstrated (e.g. activation of an option on a security tool on a determined time frame to test it, no infrastructure investment)</p>
<p>Once the added value is tangible, the question of the costs involved for production launch and maintenance in time surges. A few elements must be considered to evaluate the total investment that will be needed:</p>
<ul>
<li><strong>Material investments </strong>(e.g. hardware for market solutions, infrastructure and resources to acquire computing power, in-house development) and <strong>software investments </strong>(license, machine learning feature activation on SIEM, big data tools for data science…). It is essential not to put aside the computing power that is necessary to the functioning of some models. It is one reason why &#8211; besides the quality of the results- the most relevant data are needed to answer a use case.</li>
<li><strong>Talent acquisition :</strong> the new profiles to include (e.g. data scientists, data engineers) as well as the business profiles and accurate experts, that will be solicited during the project phase but also in the long term (alerts handling, re learning process, non-diversion tests for the solution, etc.)</li>
</ul>
<p>&nbsp;</p>
<h2>To sum up, what are the main pitfalls to avoid?</h2>
<p>#Reminder</p>
<p>&nbsp;</p>
<figure id="post-13908 media-13908" class="align-none"><img loading="lazy" decoding="async" class="size-full wp-image-13908 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Image-2-6.png" alt="" width="1199" height="549" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Image-2-6.png 1199w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Image-2-6-417x191.png 417w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Image-2-6-71x33.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/07/Image-2-6-768x352.png 768w" sizes="auto, (max-width: 1199px) 100vw, 1199px" /></figure>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2020/07/boost-your-cybersecurity-thanks-to-machine-learning-2-2/">Boost your cybersecurity thanks to machine learning? Part 2 &#8211; &#8220;Yes, but choose the right approach!&#8221;</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Big data : une révolution qui passe par la confiance</title>
		<link>https://www.riskinsight-wavestone.com/en/2015/11/big-data-une-revolution-qui-passe-par-la-confiance/</link>
		
		<dc:creator><![CDATA[Laurent Bellefin]]></dc:creator>
		<pubDate>Thu, 19 Nov 2015 17:45:21 +0000</pubDate>
				<category><![CDATA[Métiers - Assurance]]></category>
		<category><![CDATA[Métiers - Stratégie d’entreprise]]></category>
		<category><![CDATA[assurance]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[valorisation des données]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=8528</guid>

					<description><![CDATA[<p>&#160; Le Big data est bien une formidable opportunité et un levier clé pour accélérer et concrétiser la transformation du modèle des assureurs à l’heure du digital. Une véritable mine d’or pour imaginer de nouveaux services, optimiser les modèles opérationnels...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/11/big-data-une-revolution-qui-passe-par-la-confiance/">Big data : une révolution qui passe par la confiance</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>&nbsp;</p>
<p><em>Le Big data est bien une formidable opportunité et un levier clé pour accélérer et concrétiser la transformation du modèle des assureurs à l’heure du digital. Une véritable mine d’or pour imaginer de nouveaux services, optimiser les modèles opérationnels et trouver de nouveaux positionnements sur la chaîne de valeur. C’est l’objet de la <a href="http://www.solucom.fr/wp-content/uploads/2015/10/Synth%C3%A8se-Big-data-Assurance-web-couv.pdf" target="_blank">Synthèse « Big data : une mine d’or pour l’assurance »</a> que Solucom vient de publier et qui reprend les convictions partagées avec les clients membres de son club. Voici en synthèse les quatre principaux facteurs de succès à garder en tête tout au long de cette transformation. Ces différentes convictions sont étayées dans <a href="http://www.solucominsight.fr/dossier/big-data-buzz-ou-realite/" target="_blank">d’autres articles de notre dossier</a>.</em></p>
<h2>Le Big data sert avant tout les enjeux métiers</h2>
<p>Le Big data est un sujet à aborder en partant des enjeux business et en explorant assez largement les cas d’usages potentiels. Cet enjeu business ne doit pas être perdu de vue dans une quête technologique qui aurait pour seul intérêt l’image furtive d’être en ligne avec son temps.</p>
<h2>Faire du Big data un vrai tremplin pour le secteur de l’assurance</h2>
<p><a href="http://www.solucominsight.fr/2015/10/lassurance-a-lere-du-big-data-quelles-perspectives/" target="_blank">Pour réussir dans ce secteur en pleine transformation</a>, il est essentiel de rapidement décliner « en vraie grandeur » les idées les plus prometteuses sur la chaîne industrielle de l’Assureur. Pour cela, l’intransigeance sur la qualité des données manipulées est de rigueur. Il convient aussi d’anticiper la mise en place des équipes et des compétences en charge de leur analyse et de leur exploitation.</p>
<h2>C’est en marchant que l’on apprend</h2>
<p>Enfin, il est nécessaire d’apprendre et fiabiliser en avançant. L’analyse des données se fonde sur des corrélations parfois basées sur des « signaux faibles » difficiles à détecter et à interpréter. Des erreurs d’analyse en amont peuvent conduire à des conclusions erronées ou faire émerger de nouvelles discriminations particulièrement préjudiciables. L’approche <em>Test &amp; Learn</em> en équipe pluridisciplinaire doit être privilégiée, en affinant progressivement les modèles d’analyse. C’est une nouvelle culture et de nouveaux modes de travail qu’il faut s’approprier et diffuser à cette occasion.</p>
<h2>Une démarche à mener en toute transparence</h2>
<p>Reste la question du regard que les clients, les assurés, vont porter sur ces nouvelles approches : quelles contraintes, quelles intrusions dans la vie privée et pour quels bénéfices ? Il nous semble que cette question doit être placée au cœur des réflexions des assureurs et doit être abordée dès les premières expérimentations. Le succès de la révolution du Big data repose en effet largement sur la qualité du pacte de confiance entre assureurs et assurés. Transparence, clarté dans les objectifs et les bénéfices, association des clients dans la démarche sont autant de bonnes pratiques qui pourront donner une longueur d’avance à ceux qui traiteront cet enjeu très en amont.</p>
<p>Assureurs, l’ère du Big data a commencé : à vous d’en prendre les rênes !</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/11/big-data-une-revolution-qui-passe-par-la-confiance/">Big data : une révolution qui passe par la confiance</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Big data : comment se lancer ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2015/11/big-data-comment-se-lancer/</link>
		
		<dc:creator><![CDATA[Laurence Al Neimi]]></dc:creator>
		<pubDate>Thu, 12 Nov 2015 16:41:13 +0000</pubDate>
				<category><![CDATA[Métiers - Assurance]]></category>
		<category><![CDATA[Métiers - Digital & innovation]]></category>
		<category><![CDATA[assurance]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[données]]></category>
		<category><![CDATA[start-up]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=8514</guid>

					<description><![CDATA[<p>Le challenge du Big data est de donner du sens à une masse de données pour aboutir à des cas d’usage générateurs de valeur. Pour se lancer, le meilleur costume est celui de la start-up, dans une dynamique « New Way...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/11/big-data-comment-se-lancer/">Big data : comment se lancer ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Le challenge du Big data est de donner du sens à une masse de données pour aboutir à des cas d’usage générateurs de valeur. Pour se lancer, le meilleur costume est celui de la start-up, dans une dynamique « New Way of Working » : faire émerger les idées, incuber, mobiliser et démultiplier. Ce modèle est le meilleur vecteur pour apporter flexibilité, échange, interaction avec une mixité de profils. S’il fallait quelques mots pour résumer l’esprit dans lequel mener les projets Big data et plus largement les projets de valorisation des données, nous choisirions : créativité, agilité, rythme, expérimentation, simplicité, pluridisciplinarité.</em></p>
<h1>1 &#8211; L’IDÉATION</h1>
<p>L’émergence des idées est une étape essentielle de prise de recul ayant pour objectif de porter un regard nouveau sur le marché et sur ses propres activités. C’est au travers d’ateliers de créativité que des idées en rupture peuvent émerger. Pour être efficace, cette étape doit être structurée et encadrée : définir les domaines à balayer, identifier les acteurs à réunir par domaine métier, les associer à des acteurs de la DSI et à des spécialistes de la données (<em>Data scientists</em>). L’animation est structurante, elle suit des méthodes éprouvées de dynamisation de la créativité. Cette première phase permet de faire émerger les idées les plus prometteuses pour les confronter à l’incubation. Elle peut être renouvelée périodiquement.</p>
<h1>2 &#8211; L’INCUBATION</h1>
<p>L’incubation a pour objectif de concrétiser rapidement les idées sélectionnées. C’est le moment d’affiner ces idées, de vérifier leur faisabilité, de les mettre en œuvre sur de premiers périmètres à coût maîtrisé et de vérifier leur intérêt. Il s’agit ici de combiner l’approche agile avec le mode projet <em>Test &amp; Learn</em> en privilégiant l’obtention de résultats tangibles sur ces petits périmètres d’expérimentation avant un déploiement à grande échelle. Pour s’assurer de la dynamique d’ensemble et de l’aboutissement des résultats qu’ils soient positifs ou négatifs, la démarche doit suivre un rythme très cadencé et favoriser le collectif. Il faut s’autoriser à réajuster autant que nécessaire l’idée et sa concrétisation jusqu’à être convaincu de leur intérêt et de leur capacité à être industrialisées. L’expérimentation permet de prendre concrètement la mesure de l’impact de ces nouvelles technologies et usages sur les équipes informatiques et métiers. Elle permet aussi de capitaliser sur les erreurs commises, normales à ce stade de maturité dans l’exploitation des données et étant donné le foisonnement des technologies.</p>
<p>Les premières expérimentations et premiers projets doivent privilégier la simplicité. Cette simplicité s’entend d’abord par un nombre limité de directions consommatrices. Le résultat attendu doit également être sans impact direct sur le marché et les clients, pour limiter l’effet d’un éventuel échec. Pour finir, se focaliser en priorité sur une seule dimension de la data permet de minimiser la complexité de l’architecture à mettre en œuvre. Aujourd’hui, dans la pratique, nous constatons que nos clients se focalisent principalement sur la volumétrie du Big data.</p>
<p>L’aspect variété des données est souvent limité en raison d’une plus grande complexité d’intégration. Un bon niveau de maturité est nécessaire pour explorer toutes les dimensions du Big data et faire valoir toutes ses promesses.<br />
Le diagramme de <strong>Venn</strong> ci-dessous illustre ce constat et décrit une démarche progressive pour complexifier peu à peu les cas d’usage et leur donner de la valeur. En un mot, la stratégie gagnante consiste à définir des petits périmètres et à les conquérir pas à pas.</p>
<figure id="post-8515 media-8515" class="align-none"><img decoding="async" class="aligncenter" src="http://www.solucominsight.fr/wp-content/uploads/2015/11/lavaleurduregarddelacomplexite.png" alt="" /></figure>
<h1>3 &#8211; LA MOBILISATION</h1>
<p>La réussite de la démarche repose sur la mobilisation des bonnes personnes au bon moment. L’organisation la plus évidente consiste à mettre en place une équipe cœur, rassemblant et impliquant une large diversité de profils et compétences clés (« sachant » à connaissance métier large,<em> Data scientist</em>, architecte SI, spécialiste des démarches de créativité, juriste…). Cette équipe cœur vient animer plusieurs équipes pluridisciplinaires mises en place sur des durées plus courtes pour participer à l’idéation et à l’incubation sur des thèmes ciblés. L’équipe cœur est là pour dynamiser l’ensemble et capitaliser progressivement, tout en diffusant les nouveaux modes de travail et les nouvelles compétences. Elle fournit les méthodes et les outils.</p>
<p>La compétence clé d’analyse des méga-données doit au départ être centralisée, l’équipe cœur formant ainsi un guichet unique accélé- rant l’émergence et le test des idées. L’équipe cœur aura aussi pour but de préparer la phase suivante, c’est-à-dire l’intégration de la culture de la donnée dans les gènes et dans le fonctionnement courant de l’entreprise. Elle doit identifier les moments clés où les solutions et plates-formes techniques associées doivent être industrialisées. Elle va pour cela aussi mener des actions plus largement visibles comme des concours d’innovation, des actions de communication, la mise en place de démonstrateurs, avec deux objectifs : légitimer et acculturer. Dans le cas présent, la difficulté va être d’obtenir et de maintenir cette mobilisation de ressources clés alors que les bénéfices directs sont au départ incertains. Un sponsorship fort est nécessaire, de même que le recours à des accélérateurs externes pour parvenir rapidement à des résultats tangibles.</p>
<h1>4 &#8211; LA DÉMULTIPLICATION</h1>
<p>Une fois les premiers retours d’expérience obtenus, il est indispensable de transformer très rapidement ces expérimentations en projets pour accompagner la transformation et éviter l’effet soufflet. Pour aller de l’incubation à la démultiplication, un socle est à construire. Ce socle a 3 piliers : les compétences, le Data Management, le système d’information.</p>
<h2>Pilier 1 : les compétences</h2>
<p>Pour être en mesure de tirer tout le potentiel des technologies et des données à disposition, une filière Data est à construire pour réorienter une part des profils en place et s’assurer d’une parfaite cohérence avec la transformation engagée. Cette réorientation va passer par une étape d’acculturation puis de formation complémentaire.</p>
<h2>Pilier 2 : le Data Management</h2>
<p>Tirer la valeur des données est réalisable seulement si l’on connaît le sens des données et que celles-ci sont fiables. Nombre de données internes sont détournées de leur usage premier du fait de systèmes d’information trop permissifs, rendant impossible toute analyse fiable. Pour mener à bien cette mise en valeur de la donnée, des principes d’architecture doivent être intégrés aux processus de gestion et d’évolution des systèmes d’information. Par ailleurs, l’application de règles de sécurité, d’accès, de ségrégation et d’anonymisation doivent garantir la confidentialité.</p>
<p>Ces règles et principes sont pilotés à travers une gouvernance du Data Management qui se décline comme suit :</p>
<p>• Sur l’axe métier, il convient de construire un dictionnaire des données, d’identifier de nouvelles sources de données, de veiller au respect de la réglementation, de valoriser et même éventuellement d’identifier les données « monétisables ». La monétisation est encore peu évoquée par les assureurs mais elle pourrait permettre de pérenniser les démarches de Data Management.<br />
• Sur l’axe fonctionnel, des propriétaires de données doivent être investis d’un rôle de garant de la fiabilité des données et de leur cycle de vie.<br />
• Sur l’axe applicatif, un effort doit être consacré à la modélisation des formats canoniques et à la construction des architectures favorisant l’unicité et le partage des données.<br />
• Enfin, sur l’axe technique, il est nécessaire de construire des offres de services adaptées, optimiser la sauvegarde et l’archivage, sans oublier de suivre et anticiper les augmentations de volumes de données.</p>
<p>La mise en place d’un Data Management structuré est un accélérateur indispensable pour gagner en visibilité sur son patrimoine Data. Elle est à faire vivre et à enrichir avec les données externes qui seront jugées utiles mais également avec la mise en commun de l’ensemble des sources, notamment internes. Pour franchir cette étape, la confiance des différentes entités sur l’utilisation des données est requise. Ce sujet peut être un frein dans certaines organisations. Il est à ce titre nécessaire que chacun prenne conscience de l’augmentation de la valeur des données grâce à la mutualisation de celles-ci.</p>
<h2>Pilier 3 : le système d’information</h2>
<p>En phase d’industrialisation, l’agilité qui était requise en phase d’incubation va se confronter à la <em>roadmap</em> des projets pluri-annuels et aux maintenances des systèmes existants. L’organisation en place va devoir s’adapter aux besoins de réactivité des projets Big data. Cette exigence est déroutante pour une majorité de structures organisées autour des méthodologies de cycle en V où l’anticipation est la règle. De nouveaux process industriels techniques sont donc à adapter voire à inventer.</p>
<p>À titre d’exemple, il est nécessaire d’être en capacité de mettre rapidement en place de nouveaux flux de données entre systèmes, sans pour autant dégrader les exigences de sécurité, ni la capacité à absorber une masse d’activité importante par ailleurs. Le SI doit se doter de plateformes de management de la donnée adaptées aux différents usages. Ces plateformes sont à intégrer dans l’architecture du SI, qui doit elle-même progressivement s’urbaniser, au travers d’une rationalisation des référentiels et des données.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/11/big-data-comment-se-lancer/">Big data : comment se lancer ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Big data dans l&#8217;Assurance : gérer les risques liés aux données manipulées</title>
		<link>https://www.riskinsight-wavestone.com/en/2015/11/big-data-dans-lassurance-gerer-les-risques-lies-aux-donnees-manipulees/</link>
		
		<dc:creator><![CDATA[Laurence Al Neimi]]></dc:creator>
		<pubDate>Mon, 09 Nov 2015 15:00:14 +0000</pubDate>
				<category><![CDATA[Métiers - Assurance]]></category>
		<category><![CDATA[Métiers - Digital & innovation]]></category>
		<category><![CDATA[assurance]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[data]]></category>
		<category><![CDATA[Risque]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=8505</guid>

					<description><![CDATA[<p>Initier un projet Big data, c’est se poser la question de nouvelles données à collecter, stocker et manipuler pour de nouveaux usages. Autant de besoins qui font peser des risques sur les données concernées et la conformité vis- à-vis des...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/11/big-data-dans-lassurance-gerer-les-risques-lies-aux-donnees-manipulees/">Big data dans l&#8217;Assurance : gérer les risques liés aux données manipulées</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Initier un projet Big data, c’est se poser la question de nouvelles données à collecter, stocker et manipuler pour de nouveaux usages. Autant de besoins qui font peser des risques sur les données concernées et la conformité vis- à-vis des lois de protection des données à caractère personnel.</p>
<h2>Données personnelles : le cadre réglementaire</h2>
<p>Un cadre légal existe déjà et repose sur la Loi informatique et libertés du 6 janvier 1978, plus particulièrement l’article 34 qui impose aux responsables de traitement de « prendre toutes les précautions utiles, au regard de la nature des données et des risques présentés par le traitement, pour préserver la sécurité des données ».</p>
<p>Ce cadre est en évolution. Un projet de règlement européen sur la protection des données devrait aboutir fin 2015, remettant au goût du jour la Directive européenne 95 / 46 relative à la protection des données.</p>
<p>Ces textes sont complétés par des réflexions du G29, groupe de travail des CNIL européennes émettant des opinions sur l’approche par les risques (Article 29 Data Protection Working Party).</p>
<p>Les principes de collecte, transmission, hébergement et traitement des données personnelles doivent suivre des exigences de protection légale très strictes : recueillir le consentement explicite; informer sur la finalité ; collecter uniquement les données liées et nécessaires à cette finalité ; détruire les données une fois la finalité atteinte ; respecter les droits à l’accès, la rectification et la suppression de ces données ; sécuriser la collecte, le transfert, l’hébergement et le traitement des données ; effectuer le traitement de façon loyale et licite.</p>
<p>Ceci donne un cadre légal aux démarches Big data avec un processus d’amélioration continue qui requiert parfois plusieurs itérations pour parvenir à un dispositif de protection de la vie privée acceptable. Il exige en outre une surveillance des évolutions dans le temps et des mises à jour régulières.</p>
<p>Pour faciliter la mise en œuvre concrète de ce cadre juridique, la CNIL a publié le 2 juillet 2015 une méthode pour mener une étude d’impacts sur la vie privée (EIVP). L’objectif est d’aider les responsables de traitement dans leur démarche de conformité, de leur permettre de justifier les mesures choisies et de montrer que les solutions ne portent pas atteinte à la vie privée.</p>
<p>Cette méthode est complétée par un guide d’outillage et par un guide de bonnes pratiques. Cette démarche de conformité se déroule en 4 étapes : délimitation et description du contexte du traitement considéré et de ses enjeux ; identification des mesures existantes ou prévues pour respecter les exigences légales et traiter les risques sur la vie privée de manière proportionnée ; appréciation des risques sur la vie privée pour vérifier qu’ils sont convenablement traités; décision de valider la manière dont il est prévu de respecter les principes de protection de la vie privée et de traiter les risques, ou bien de réviser les étapes précédentes.</p>
<h3>L&#8217;accès aux données de Santé</h3>
<p>L’article 47 du projet de loi de Santé de Marisol Touraine a été adopté par les députés le 11 septembre 2015. Il prévoit la création d’un système national des données de santé (SNDS), grande base de données médicales centralisées accessible au public, afin de faciliter l’accès aux données médicales issues des divers organismes du secteur.</p>
<p>Suivant l’avis favorable de la CNIL à la création d’un numéro d’identification unique, condition sine qua non de la création d’une plateforme numérique unique, le Numéro d’Inscription au Répertoire National (NIR), plus communément appelé numéro de sécurité sociale, deviendra l’identifiant unique de santé.</p>
<p>Pour protéger la vie privée des patients et le secret médical, qui reste la principale critique apportée par le Syndicat des Médecins Libéraux à cet article, de nombreuses garanties ont été apportées par le législateur :</p>
<ul style="list-style-type: disc;">
<li>Open data : les données agrégées et anonymisées ne contenant « ni les noms et prénoms des personnes, ni leur numéro d’inscription au répertoire national d’identification des personnes physiques, ni leur adresse » seront accessibles à tous, gratuitement et sans restriction. La réutilisation de ces données sera autorisée si elle n’a « ni pour objet, ni pour effet, d’identifier les personnes concernées ».</li>
<li>Données personnelles : les données rendant l’identification possible seront détenues par une structure distincte et ne pourront être utilisées que sur autorisation de la CNIL et de l’Institut National des Données de Santé (INDS) à des fins de recherche ou d’étude pour l’accomplissement de missions poursuivant un motif d’intérêt public uniquement. L’article 47 interdit expressément l’utilisation de ces données à des fins commerciales ou d’évolution des primes et contrats d’assurance.</li>
</ul>
<p>En leur permettant d’analyser une population donnée, le Big data dans le domaine de la Santé permettrait aux médecins d’améliorer leurs pratiques de prévention et de soin en matière de maladies chroniques, ainsi que leur connaissance de maladies rares et / ou orphelines. Cependant, selon un sondage Odexa paru le 19 janvier 2015, un médecin sur deux considère que l’utilisation de la santé connectée menace le secret médical et 1/4 à 1/3 d’entre eux qu’elle porte atteinte à la liberté des patients. En effet, à l’heure actuelle, la donnée de santé est qualifiée de « sensible » par la loi « Informatique et libertés » et est par conséquent très protégée. Mais, bien qu’un projet de règlement européen prenant position sur le sujet soit en cours de rédaction, les données de santé et les données de bien-être ne sont toujours pas juridiquement différenciables. Or, si l’on prend l’exemple du « quantified self », les agissements de l’utilisateur sont enregistrés et peuvent être utilisés. Cette limite doit donc être clarifiée pour lever les réticences des médecins.</p>
<h2>Un contrat de confiance pour anticiper les craintes</h2>
<p>Citoyens et autorités de régulation des données à caractère personnel expriment des craintes régulièrement relayées par les médias. Maîtriser les risques autour du Big data revient à anticiper ces craintes en communiquant : sur les usages envisagés, la proposition de valeur au regard de ce partage de données, les compétences des équipes en charge des technologies concernées et les mesures de sécurité permettant de garantir la protection des données manipulées.</p>
<p>Il faut donner à l’assuré la maîtrise de ses données personnelles, l’informer sur celles qui seront collectées et l’usage qui en sera fait. Il convient ensuite de lui laisser la possibilité d’arbitrer en permanence sur le partage de celles-ci. Les informations demandées doivent être nécessaires à la réalisation de la finalité. L’objet est d’obtenir un consentement, puis détruire les données brutes pour ne conserver que la finalité. Il est également envisageable de se limiter aux données anonymisées qui s’avèrent suffisantes dans de nombreux cas. Enfin, un rapport de proportionnalité est impératif : le service proposé grâce à ces données partagées doit être à la hauteur du niveau d’intrusion ressenti.</p>
<p>Ce contrat de confiance pourrait être « géré » via l’espace client / adhérent, donnant à ce dernier la possibilité d’exprimer explicitement son accord ou désaccord avec un historique des décisions.</p>
<p>Tout cela permettra de gagner la confiance du client, de mieux le connaître et de passer du diagnostic à une position prescriptive.</p>
<p>La transparence sur les données utilisées ne fera pas entrave aux secrets de fabrication qui se logent de manière plus structurante sur les algorithmes et sur le volume de données manipulées</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/11/big-data-dans-lassurance-gerer-les-risques-lies-aux-donnees-manipulees/">Big data dans l&#8217;Assurance : gérer les risques liés aux données manipulées</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Big data : comprendre la jungle technologique</title>
		<link>https://www.riskinsight-wavestone.com/en/2015/11/comprendre-la-jungle-technologique/</link>
		
		<dc:creator><![CDATA[Clément Morizot]]></dc:creator>
		<pubDate>Mon, 02 Nov 2015 12:49:03 +0000</pubDate>
				<category><![CDATA[Métiers - Assurance]]></category>
		<category><![CDATA[Métiers - Marketing et relation client]]></category>
		<category><![CDATA[assurance]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[chaîne de valeur]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=8470</guid>

					<description><![CDATA[<p>Le Big data est né d’une rupture technologique : la distribution des traitements et du stockage. Là où, en 2012, ce concept était novateur, il devient une offre à part entière de la plupart des éditeurs du marché, créant ainsi une...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/11/comprendre-la-jungle-technologique/">Big data : comprendre la jungle technologique</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Le <a href="http://www.solucominsight.fr/2015/10/demythifier-la-magie-du-big-data-le-processus-dexploitation-de-la-donnee/" target="_blank">Big data</a> est né d’une rupture technologique : la distribution des traitements et du stockage. Là où, en 2012, ce concept était novateur, il devient une offre à part entière de la plupart des éditeurs du marché, créant ainsi une jungle technologique dans laquelle il faut savoir se repérer. On compte aujourd’hui plus d’une centaine de solutions packagées sous différentes formes.</em></p>
<p>&nbsp;</p>
<figure id="post-8472 media-8472" class="align-none"><img loading="lazy" decoding="async" class="aligncenter" src="http://www.solucominsight.fr/wp-content/uploads/2015/11/JungleTechnologiqueSchema1.png" alt="" width="490" height="408" /></figure>
<p>&nbsp;</p>
<figure id="post-8474 media-8474" class="align-none"><img loading="lazy" decoding="async" class="aligncenter" src="http://www.solucominsight.fr/wp-content/uploads/2015/11/JungleTechnologiqueSchema2.png" alt="" width="622" height="130" /></figure>
<h1>NAVIGUER DANS LA DIVERSITÉ DE SOLUTIONS</h1>
<p>Quelles solutions répondront aux besoins présents et futurs ?</p>
<p>Trouver la solution ou la combinaison de solutions techniques est une phase critique d’un projet Big data. Or quel que soit le secteur, il n’y a pas de solution Big data universelle.<br />
Le porte-étendard technologique du Big data est Hadoop &#8211; un écosystème <em>open source</em> de distribution du stockage et des traitements sous l’égide de la fondation Apache. L’ensemble des grands éditeurs et constructeurs ont investi dans cette technologie. Toutefois, d’autres types de solutions sont toutes aussi légitimes suivant les usages. Ainsi, dans le cas où la rapidité d’exécution est recherchée, les technologies <a href="http://www.forbes.com/sites/danwoods/2012/02/28/understanding-in-memory-technology/" target="_blank">InMemory</a> sont à privilégier en raison de leur capacité à stocker les données en mémoire et non sur disque. Le NoSQL (<a href="http://www.journaldunet.com/developpeur/outils/comparatif-des-bases-nosql/" target="_blank">Not Only SQL</a>) a quant à lui un avantage dans le monde « pseudo-transactionnel » où il sera un accélérateur dans le stockage et la manipulation de données hors d’une structure relationnelle. La variété des solutions implique une connaissance de l’écosystème technologique et ce dès la phase « <em>test and try</em> ».</p>
<p>En 2015, Hadoop possède plus d’une vingtaine de modules formant un socle riche. Ces modules sont créés au fur et à mesure par une importante, et dynamique, communauté d’acteurs et développeurs <em>open source</em>. Ils apportent constamment de nouvelles fonctionnalités tout en renforçant l’environnement existant.</p>
<p>Une illustration simple : historiquement Hadoop ne savait traiter que les données massives par des traitements de type <em>batch</em>. Face à ce constat, la communauté a enrichi l’écosystème par la création de modules de type <em>Storm</em> ou <em>Spark</em> permettant de traiter des données unitaires en temps réel et démocratisant encore plus l’usage de plateformes Hadoop.</p>
<p>Cette diversité de fonctions peut conduire à de mauvais choix et par conséquent certaines initiatives à l’échec. Pour tirer le maximum de valeur des données, il faut choisir les modules les plus adaptés aux traitements désirés et aux données manipulées. L’expertise et la connaissance fine sont le prérequis à la création de valeur en vue d’une industrialisation.</p>
<h1>LE BIG DATA SOUS DIFFÉRENTES FORMES</h1>
<p>Une fois la ou les solutions techniques choisies, il convient de définir le mode de distribution (même si certaines solutions  peuvent imposer le leur). Quatre formes sont alors possibles :</p>
<h3>1 &#8211; La distribution construite et gérée par la DSI</h3>
<p>L’entreprise construit une infrastructure Big data en agrégeant ses infrastructures conventionnelles via l’intégration d’une distribution. Ce type de solution est principalement destiné aux entreprises ayant un besoin d’évolutivité et d’appropriation fort.</p>
<h3>2 &#8211; L’« appliance » ou solution clé en main</h3>
<p>Les grands éditeurs comme Oracle, Microsoft, IBM et les constructeurs proposent une infrastructure sur étagère où matériel et logiciels sont intégrés, préconfigurés et optimisés. Ce modèle a l’avantage d’une efficacité opérationnelle immédiate en contrepartie d’un coût d’investissement qui peut s’avérer élevé.</p>
<h3>3 &#8211; La « plateforme as a Service » ou <em>BDaaS</em></h3>
<p>Cette formule connue basée sur le Cloud provisionne un environnement opérationnel et élastique comprenant l’ensemble des composants Big data pré configurés. L’intérêt de ces offres Cloud est le coût (à l’usage) et la rapidité de mise en place, qui en font une cible parfaite pour des usages de type POC afin de tester la valeur du Big data pour l’entreprise. En production, le gain sera plus limité du fait des contraintes liées à l’expatriation des données à l’extérieur de l’entreprise.</p>
<h3>4 &#8211; Le « Software as a Service » ou <em>SaaS</em></h3>
<p>Le <em>SaaS</em>, une formule connue depuis l’arrivée du Cloud, permet la mise à disposition de services métiers sur le web. Le Big data donne un accélérateur à ce modèle en permettant la création de nouveaux services comme l’analyse des réseaux sociaux, l’e-réputation, le marketing ciblé… Ces services reposent sur des moteurs Big data néanmoins invisibles par les utilisateurs finaux.</p>
<p>Dans le secteur de l’Assurance, les 4 formules sont légitimes et dépendent réellement du souhait d’investissement et d’appropriation de la technologie. La complexité de ces solutions laisse à penser que le marché va tendre vers une externalisation des problématiques techniques favorisant les offres de type appliance ou Cloud.</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/11/comprendre-la-jungle-technologique/">Big data : comprendre la jungle technologique</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Démythifier la magie du Big data : le processus d&#8217;exploitation de la donnée</title>
		<link>https://www.riskinsight-wavestone.com/en/2015/10/demythifier-la-magie-du-big-data-le-processus-dexploitation-de-la-donnee/</link>
		
		<dc:creator><![CDATA[stephanechappellier]]></dc:creator>
		<pubDate>Thu, 29 Oct 2015 16:33:03 +0000</pubDate>
				<category><![CDATA[Métiers - Assurance]]></category>
		<category><![CDATA[Métiers - Marketing et relation client]]></category>
		<category><![CDATA[assurance]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[chaîne de valeur]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=8464</guid>

					<description><![CDATA[<p>Les réflexions autour des cas d’usage sont en pleine ébullition pour nourrir la nécessaire transformation du secteur de l’Assurance. Les sources de données sont pour certaines aisément accessibles.Par exemple, les objets connectés domotiques permettent de connaître l’activité d’une maisonnée : état...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/10/demythifier-la-magie-du-big-data-le-processus-dexploitation-de-la-donnee/">Démythifier la magie du Big data : le processus d&#8217;exploitation de la donnée</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Les réflexions autour des cas d’usage sont en pleine ébullition pour nourrir la nécessaire transformation du secteur de l’Assurance. Les sources de données sont pour certaines aisément accessibles.Par exemple, les objets connectés domotiques permettent de connaître l’activité d’une maisonnée : état allumé / éteint des lampes, niveau de consommation électrique, de CO2 … Mais ces données brutes, sans transformation, ne sont pas très utiles. Elles sont un peu comme le bois pour celui qui souhaite construire un chalet. Un processus de transformation est indispensable pour que le bois devienne chalet. De même, un processus Big data est indispensable pour que ces données deviennent signifiantes pour un cas d’usage.</em></p>
<h1>DONNER UN SENS AUX DONNÉES</h1>
<p>Attention ! Il ne suffit pas d’appliquer un processus prétendument magique sur un ensemble de données hétéroclites pour qu’un enseignement pertinent émerge. Un processus Big data doit passer par différentes phases pour faire ressortir le pouvoir prédictif inclus dans les données manipulées.</p>
<h3>Nettoyer les données</h3>
<p>Les données brutes doivent d’abord être rendues valides : une ampoule indiquant qu’elle est passée deux fois de suite en mode « allumé » sans être passée par le mode « éteint » constitue une anomalie qui doit être corrigée. Une étape préliminaire de nettoyage des données doit être pratiquée avant toute exploitation pour corriger / valider les données.</p>
<h3>Interpréter et contextualiser</h3>
<p>Il faut ensuite donner un sens à ces données épurées de toutes anomalies. En effet, savoir qu’une lampe est allumée ou éteinte n’apporte pas d’information en elle-même si ce n’est par son interprétation qu’entre ces deux états, le logement est présumé occupé. Par ailleurs, si l’on recoupe cela avec les données provenant du détecteur de CO2 , du détecteur d’ouverture / fermeture de porte, voire de la caméra avec reconnaissance faciale, il est alors possible de pouvoir conclure plus certainement que le logement est occupé (et par qui). Cette tâche de recoupement permet d’éliminer le cas où l’occupant serait simplement parti en laissant la lumière allumée (ce qu’on appelle un faux positif). Il est alors possible, à partir d’un recoupement d’informations et d’une contextualisation à bon escient, de déduire d’une donnée brute plusieurs dizaines de données interprétées ayant acquis un sens. Cela permet d’obtenir des données caractérisant l’intensité, la fréquence, la régularité et plus généralement le mode d’utilisation du bien assuré. Cette étape est cruciale car c’est celle qui permet de dégager les données d’intérêt ayant une signification par rapport à l’objectif « métier » qui aura été assigné au processus Big data. En effet, une mauvaise interprétation à cette étape peut invalider une donnée pertinente et potentiellement aboutir par la suite à des conclusions erronées ou moins précises (laissant passer de faux positifs). Il faut donc allouer un temps suffisant aux indispensables phases de préparation afin de qualifier les données avant de se lancer dans leur analyse.</p>
<h3>Analyser</h3>
<p>L’analyse consiste à identifier les populations qui ont les caractéristiques recherchées et celles qui en sont divergentes. C’est à ce stade qu’intervient la puissance des traitements massivement parallèles autorisant l’exploitation d’algorithmes machine. Ces algorithmes permettent de distinguer, dans la myriade d’informations, les signaux faibles traduisant un comportement ou une situation qui ne peut être découvert autrement. Cette approche sera par exemple particulièrement utile pour révéler, parmi les populations actuellement difficilement cernées par les modèles traditionnels, les jeunes automobilistes masculins qui ont des comportements moins à risques. Le concept du machine <em>learning</em> est totalement nouveau dans le secteur de l’Assurance, dirigé par des processus linéaires et industriels. Associé aux bases de données Big data, le machine <em>learning</em> va permettre d’enrichir tout au long du cycle de vie des produits d’assurance, des analyses de données et des nouvelles corrélations. Cette technologie n’est pas en opposition avec la <em>Business Intelligence</em> mais bien en complément pour des usages nouveaux. Elle permet d’avoir une vision prescriptive, alors que la <em>Business Intelligence</em> fournit une vision descriptive.</p>
<h3>Calibrer</h3>
<p>Une fois ces populations différenciées, il reste à distinguer l’intensité de l’effet de cette différenciation sur la variable d’intérêt objet de l’étude. Cette phase de calibrage est importante car il se peut que des caractéristiques très divergentes n’aient que très peu d’impact et viceversa. C’est ce qui fait que ce processus exploratoire est un processus itératif. En effet, quand la pertinence du modèle n’est pas au rendez-vous, c’est-à-dire que la réponse n’est pas suffisamment prédictive, il faut recommencer. Il est alors nécessaire d’identifier si une meilleure interprétation / contextualisation des données pourrait apporter plus d’enseignements et / ou si d’autres sources d’information pourraient apporter des éclairages nouveaux.</p>
<h1>PROCESSUS ITÉRATIF</h1>
<p>L’itération du processus Big data est l’aspect le plus déconcertant pour un assureur habitué au processus linéaire R&amp;D traditionnel. Néanmoins, il s’agit bel et bien de l’ADN de tout processus Big data où le cycle d’accroissement de la connaissance par amélioration des modèles est un processus non seulement itératif, mais continu. À tel point que dans un rythme de croisière, on ne saura plus distinguer l’élément premier dans la démarche :</p>
<ul>
<li>Est-ce la recherche d’événements permettant de caractériser un objectif métier, puis la recherche de données permettant d’identifier cet événement ?</li>
<li>Est-ce le processus de qualification permettant de valider l’intérêt de ces données par rapport à l’objectif métier ?</li>
</ul>
<h1>L’ILLUSION DE LA MAGIE : PRÉDICTION DES EFFETS</h1>
<p>Le processus d’exploitation des données ne relève pas de la magie. Il s’agit d’un processus qui tend à reproduire les décisions humaines dont une part est liée à la combinaison d’éléments très diffus (signaux faibles) que la prolifération de nouvelles données rend lisibles et interprétables. Le constat par les algorithmes que les mêmes circonstances produisent les mêmes effets permet d’en prédire la survenance (voire prescrire des mesures de prévention). Et ce, sans qu’il ne soit nécessaire d’établir une relation de cause à effet entre ces circonstances et ces effets. C’est probablement ce qui donne l’illusion de la magie à un processus tout à fait rationnel.</p>
<figure id="post-8465 media-8465" class="align-none"><img decoding="async" class="aligncenter" src="http://www.solucominsight.fr/wp-content/uploads/2015/10/bigdata.png" alt="" /></figure>
<p>&nbsp;</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/10/demythifier-la-magie-du-big-data-le-processus-dexploitation-de-la-donnee/">Démythifier la magie du Big data : le processus d&#8217;exploitation de la donnée</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>L&#8217;Assurance à l&#8217;ère du Big data : quelles perspectives ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2015/10/lassurance-a-lere-du-big-data-quelles-perspectives/</link>
		
		<dc:creator><![CDATA[Laurence Al Neimi]]></dc:creator>
		<pubDate>Mon, 26 Oct 2015 16:00:02 +0000</pubDate>
				<category><![CDATA[Métiers - Assurance]]></category>
		<category><![CDATA[Métiers - Marketing et relation client]]></category>
		<category><![CDATA[assurance]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[chaîne de valeur]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=8426</guid>

					<description><![CDATA[<p>La chaîne de valeur assurantielle peut être améliorée en s’appuyant sur les apports technologiques du Big data. Ces optimisations peuvent être graduelles dans la rupture à opérer. Il est donc possible de construire des stratégies d’évolution à différents horizons allant...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/10/lassurance-a-lere-du-big-data-quelles-perspectives/">L&#8217;Assurance à l&#8217;ère du Big data : quelles perspectives ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>La chaîne de valeur assurantielle peut être améliorée en s’appuyant sur les apports technologiques du Big data. Ces optimisations peuvent être graduelles dans la rupture à opérer. Il est donc possible de construire des stratégies d’évolution à différents horizons allant de l’optimisation du process existant à une toute nouvelle proposition de valeur.</p>
<p>L’attente des assurés a aussi évolué et il est nécessaire de considérer le produit d’assurance sous l’angle du besoin global du client. En Santé par exemple, il conviendrait non seulement de répondre à son attente de remboursement de frais de soins mais aussi de considérer le bien-être, la nutrition, l’activité physique et sportive, l’accompagnement du vieillissement et la protection du cercle familial.</p>
<p>Pour élargir le champ d’action de l’Assureur et construire de nouveaux services apportant plus de proximité avec les assurés, nouer des partenariats apparaît comme une solution pertinente. Solution permettant de partager les informations, les données et amortir les coûts. Ce fonctionnement en partenariat est idéal afin d’ intégrer des objets connectés pour lesquels la modélisation, la construction et le service après-vente restent à la charge de l’industriel. La domotique, les compteurs électriques, les objets de mesure médicaux ou les assistants de vie pour la dépendance en sont autant d’exemples.</p>
<p>En allant plus loin, une nouvelle voie pourrait consister à concevoir des produits tirant parti des nouveaux aspects prescriptifs. Il conviendrait de proposer des protocoles de prévention et démarches à suivre pour atteindre un résultat calculé et garanti par l’Assureur. Ce dernier s’engagerait alors à indemniser en cas de non atteinte du résultat. L’Assureur ne couvrirait plus un bien ou une personne, mais garantirait un résultat, ouvrant ainsi la possibilité d’une assurance à l’usage. Cette voie est d’ores et déjà initiée pour le secteur agricole, notamment entre la start-up The Climate Corporation et le géant de la biotechnologie agricole Monsanto. Ce partenariat consiste à proposer un protocole, ajusté en fonction de nombreux paramètres, qui garantit le rendement agricole. Si le protocole n’aboutit pas au résultat escompté, une indemnité est versée à l’agriculteur. Cette logique prescriptive ne repose donc plus sur les données historiques de sinistralité. Elle permet ainsi à de nouveaux acteurs comme les GAFAM ou mêmes des industriels de se positionner, faisant planer une véritable menace sur les acteurs historiques de l’Assurance.</p>
<p>&nbsp;</p>
<p><strong>                             La chaîne de valeur de l&#8217;Assurance à l&#8217;ère du Big data</strong></p>
<figure id="post-8431 media-8431" class="align-none"><img decoding="async" src="http://www.solucominsight.fr/wp-content/uploads/2015/10/Capture.png" alt="" /></figure>
<p>3 fonctions de la chaîne de valeur sont particulièrement impactées par le Big data. Le marketing et la lutte anti-fraude ont des niveaux de maturité plutôt élevés et peuvent avoir une application proche des process existants. Le Pricing est davantage en rupture par rapport au business model en place.</p>
<h2>Le marketing devient data driven</h2>
<p>Côté marketing, les enjeux majeurs sont de pouvoir qualifier en temps réel les cibles, de transformer un prospect en client ou de détecter, à la moindre alerte, un risque d’attrition. Pour ce faire, il faut exploiter la quantité de données disponibles en adéquation avec une stratégie pertinente. Le marketing est ainsi devenu data driven, plaçant les données au cœur de sa démarche.</p>
<p>Alors qu’un foyer sur deux résilie son contrat habitation au moment de déménager, l’enjeu pour les assureurs est de pouvoir déceler les signaux précurseurs de ce changement. Comment, dès lors, détecter le bon signal, au bon moment ? A l’ère du tout connecté, les clients sèment des informations, parfois même sans le savoir, créant de la donnée on-line captée puis collectée par des spécialistes du marketing digital. En exploitant par exemple les données de navigation d’un client souhaitant déménager, telles que les cookies et autres traces digitales (visite de sites de déménagement, de travaux&#8230;), il devient possible pour un assureur de détecter à temps l’intention de déménagement et d’agir en fonction. Une offre, adaptée aux besoins, sur la bonne temporalité, peut alors être proposée au client. Le bénéfice sera pour ce dernier une simplification de ses démarches et dans certains cas une adaptation tarifaire. Le client est satisfait et le taux de rétention chez l’assureur amélioré.</p>
<p>Ces évolutions sont rendues possibles au travers d’une Data Management Platform (DMP), plateforme technologique qui réalise la convergence des données internes (off-line) de l’assureur aux données on-line. Ainsi croisée, la connaissance client est largement enrichie. Ces solutions permettent de mieux cibler les efforts avec une meilleure qualification des cibles et de la temporalité associée. Il est également possible pour les assureurs de mieux comprendre leur audience.</p>
<h2>La lutte contre la fraude ou la délinquance</h2>
<p>Avec environ 20% des cas de fraude qui ne sont pas détectés en IARD (Incendies, Accidents et Risques Divers) et un impact évalué à 2,5 milliards d’euros par an (soit 5 à 7 points sur le ratio sinistres / primes), la lutte contre la fraude est devenue un élément fondamental de la maîtrise des risques pour les assureurs. Le renforcement des équipes est donc plus que jamais une nécessité (source ALFA, Association de Lutte contre la Fraude à l’Assurance, rapport annuel 2014).</p>
<h3>La professionnalisation de la sécurité financière</h3>
<p>Aujourd’hui, la lutte contre la fraude s’est professionnalisée avec le déploiement d’équipes centralisées, spécialisées et dotées d’outils informatiques dédiés, travaillant en lien avec les Métiers. Cela permet d’avoir d’une vision globale, transverse, multi-métiers des clients et des tiers. Les contrôles sont plus élaborés : blocage a priori des transactions, filtrage et scoring des clients, corrélation d’événements multiples, analyses comportementales et prédictives, mise en évidence de réseaux&#8230; Toutefois, les solutions actuelles restent dépendantes de la qualité des données, coûteuses, complexes et longues à déployer.</p>
<h3>L’aboutissement : une baisse de la fraude au bénéfice du client</h3>
<p>Le Big data apporte de nouvelles solutions permettant l’agrégation d’une plus grande variété de données, tout en étant moins sensible à leur qualité. Cette avancée va dans le sens d’un outil unique et adapté traitant l’ensemble des modes de surveillance, tout en respectant la ségrégation nécessaire des données et traitements.</p>
<p>Ces solutions innovantes favorisent la réactivité des fonctions de sécurité financière et une meilleure qualité de la relation client :</p>
<ul style="list-style-type: disc;">
<li>En introduisant des corrélations nouvelles, l’approche Big data permet un pilotage plus souple, plus évolutif et en temps réel. La centralisation de la surveillance favorise la cohésion de l’ensemble des acteurs (métier, MOA et informatique) avec une souplesse des analyses, une réactivité des contrôles face à de nouvelles menaces.</li>
<li>Grâce à la baisse du coût de la fraude, un retour sur investissement est directement perceptible par la Direction Générale. Une hausse des garanties et / ou une baisse des cotisations redeviennent possibles, impactant positivement la relation client. L’amélioration du process par l’automatisation des contrôles génère une accélération des délais de traitement des sinistres, et une meilleure qualité des prestations&#8230; Ces actions ont également un effet dissuasif envers les fraudeurs et induisent par voie de conséquence une meilleure qualité du portefeuille clients.</li>
</ul>
<p>Pour mettre en œuvre une démarche de lutte anti-fraude, il n’est plus indispensable de se lancer dans un grand projet nécessitant une mobilisation d’envergure. Profiter des solutions existantes en interne, développées par exemple par le marketing ou l’actuariat, permet de tester des dispositifs novateurs avec des résultats instantanés, la condition sine qua non étant de respecter la confidentialité des données(autorisation unique CNIL AU-039, secret médical, secret bancaire).</p>
<h2>La transformation des fonctions de pricing</h2>
<p>Au lieu de passer par le truchement de variables permettant d’expliciter un comportement, les modèles de tarification ont maintenant une lecture directe de ce dernier. Initialement, la tarification se basait sur les variables âge et sexe ou couleur du véhicule pour contourner la loi du genre, pour catégoriser un assuré dans un segment stéréotypé. Désormais, un jeune conducteur masculin précédemment supposé impulsif peut-être qualifié en fonction de sa conduite réelle grâce aux données issues des boitiers connectés (ou port embarqué type OBD-II). En conséquence, les techniques qui s’étaient adaptées à un environnement à dimensions restreintes (nombre de cases tarifaires limité) vont devoir s’adapter pour pouvoir fournir une tarification individualisée, fondée sur une masse insoupçonnée de nouvelles données.</p>
<p>Traditionnellement, la tarification repose sur des données statiques. Ces données ne subissent que très peu de modifications d’année en année. La dynamique apportée par les nouvelles données, accessibles en temps réel, oblige à revoir ces modèles. Le constat de l’évolution du mode de vie de l’assuré pourra être pris en compte avec, par exemple, un ajustement de la prime suivant les observations, à une périodicité plus fréquente qu’actuellement. C’est cette nouvelle dimension dynamique qui constituera le moteur de la permanence de la relation client.</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/10/lassurance-a-lere-du-big-data-quelles-perspectives/">L&#8217;Assurance à l&#8217;ère du Big data : quelles perspectives ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>La donnée : matière première de l&#8217;assureur</title>
		<link>https://www.riskinsight-wavestone.com/en/2015/10/la-donnee-matiere-premiere-de-lassureur/</link>
		
		<dc:creator><![CDATA[Laurence Al Neimi]]></dc:creator>
		<pubDate>Thu, 22 Oct 2015 07:30:03 +0000</pubDate>
				<category><![CDATA[Métiers - Assurance]]></category>
		<category><![CDATA[Métiers - Digital & innovation]]></category>
		<category><![CDATA[assurance]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[donnée]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=8415</guid>

					<description><![CDATA[<p>Le marché de l’Assurance s’inscrit dans un contexte en pleine mutation. L’enjeu majeur pour les prochaines années est d’identifier un ou plusieurs axes de différenciation bénéficiaire. Cette mutation est telle qu’elle implique une évolution du business model, aujourd’hui fondé sur un calcul...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/10/la-donnee-matiere-premiere-de-lassureur/">La donnée : matière première de l&#8217;assureur</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Le marché de l’Assurance s’inscrit dans un contexte en pleine mutation. L’enjeu majeur pour les prochaines années est d’identifier un ou plusieurs axes de différenciation bénéficiaire. Cette mutation est telle qu’elle implique une évolution du business model, aujourd’hui fondé sur un calcul de risques établi sur des données historiques. Cette évolution, voire rupture, va pouvoir s’appuyer sur de nouvelles technologies, rendant possibles l’accès et la compréhension d’un volume de données en croissance exponentielle.</em></p>
<h1>UNE TRANSFORMATION EN MARCHE</h1>
<p>L’Assureur fait face à des défis réglementaires, sociétaux et technologiques. Autant de pressions qui nécessitent de repenser son positionnement.<br />
Côté réglementaire d’abord, les enjeux sont bien réels : selon la Fédération Française des Sociétés d’Assurances, plus de 30 textes ont été étudiés en 2013 !</p>
<p>Au travers de ces textes, la volonté du législateur est :<br />
• d’accentuer la protection des consommateurs avec par exemple la <a href="http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000028738036&amp;categorieLien=id" target="_blank">Loi Hamon</a> (loi sur la consommation) ou <a href="http://www.audisoftoxea.com/publications/loi-eckert-de-nouvelles-dispositions-sur-les-comptes-bancaires-inactifs" target="_blank">la Loi Eckert</a> sur les contrats en déshérence,<br />
• d’en tirer une manne financière comme avec les contrats responsables et l’augmentation de la taxation de 7 à 14% si les contrats ne respectent pas les conditions dites « responsables »,<br />
• de garantir la solidité financière des acteurs de l’Assurance avec Solvabilité II.</p>
<p>Ces poussées réglementaires ont pour effet direct de globaliser et tendre le marché.<br />
Sur le plan sociétal ensuite, les principes de solidarité nationale mis en place après guerre pour la Santé, la Retraite et la Dépendance sont aujourd’hui en très fort déséquilibre compte-tenu de l’accroissement des frais de santé et du vieillissement de la population.</p>
<p>Si l’on prend l’exemple de la Santé, les dépenses représentaient 4% du PIB dans les années 60 contre près du triple aujourd’hui (11,7% en 2013). En sachant que les efforts de prévention ne représentent que 2% des dépenses de Santé, une tendance haussière de la consommation de soins est inévitable. Le Centre européen du diabète note ainsi une prévalence de cette maladie à 6% de la population dont 500 000 à 800 000 diabétiques qui s’ignorent, laissant présager une prise en charge plus lourde et complexe des futurs soins. Sur les dépenses de Santé en général, le reste à charge des Français est en hausse régulière alors que l’accès gratuit à la médecine est devenu un acquis dans l’inconscient collectif (<a href="http://www.insee.fr/fr/" target="_blank">source INSEE</a>).</p>
<p>Ce secteur est donc pris en étau entre un service public dont le budget ne permet plus d’assumer le niveau de consommation et les Français pour qui la Santé est un acquis et n’a pas de prix.<br />
Par ailleurs, dans le contexte d’une économie ouverte, les attentes de l’assuré évoluent. Qu’il soit particulier ou entreprise, ce dernier est aujourd’hui plus averti, plus exigeant et toujours en attente de nouveaux services technologiques. De consommateur, il devient « consom’acteur » de l’économie collaborative. Il est soucieux des principes de durabilité et a toutefois des préoccupations bien individuelles qui s’inscrivent dans un nouveau référentiel de valeur, celui de l’usage et non plus de la possession.</p>
<p>Or, le business model de l’Assurance repose sur la promesse d’indemnité ou prestation en cas de survenance d’un risque préalablement mutualisé. Ces risques portent sur des biens ou des personnes mais pas ou peu sur l’usage qui en est fait. Quelles que soient les branches d’Assurance, le modèle est arrivé à sa limite, compte-tenu des nouveaux paradigmes auxquels il doit s’adapter.</p>
<p>Des tentatives d’évolution ont été mises en place avec des services en complément des produits d’assurance (analyse de devis des professionnels de Santé, accès à un réseau de soins en Santé, de garagistes en Auto). Toutefois, ces compléments ne sont pas réellement valorisés et restent essentiellement curatifs.</p>
<p>Une autre voie est donc à inventer pour évaluer différemment les risques et élaborer de nouveaux concepts. Si historiquement, les assureurs sont des consommateurs de données et ont développé une expertise sur la collecte et le stockage, celle-ci permet de calculer les risques et mesurer l’impact de la mutualisation. Désormais, de nouvelles sources sont accessibles et de nouvelles logiques sont à mettre en lumière.</p>
<h1>DE NOUVELLES VOIES OUVERTES</h1>
<p>Plusieurs nouveaux usages peuvent être imaginés en exploitant le potentiel des données. En premier lieu, mieux exploiter les données internes en repoussant les capacités techniques d’exploitation permettra de valoriser son patrimoine data.</p>
<p>Ensuite, élargir à de nouvelles sources de données apportera des perspectives plus en rupture.<br />
Pour chacune des sources, la qualité de la donnée doit être analysée en suivant deux critères principaux : le degré d’exploitabilité et le degré d’intérêt. La complexité vise à qualifier chaque donnée unitairement mais également en corrélation avec d’autres. Une donnée a priori sans intérêt, comme l’heure de réalisation d’un devis sur internet, pourra acquérir du sens en corrélation avec d’autres.<br />
Et point particulier concernant l’Open data : l’engagement de service du détenteur d’une source de données est un critère structurant pour garantir l’utilisation pérenne de cette dernière.</p>
<figure id="post-8416 media-8416" class="align-none"><img decoding="async" class=" aligncenter" src="http://www.solucominsight.fr/wp-content/uploads/2015/10/SchemaBigData1.png" alt="" /></figure>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/10/la-donnee-matiere-premiere-de-lassureur/">La donnée : matière première de l&#8217;assureur</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title> Big data et DRH, l’heure de la transformation a-t-elle sonné ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2015/10/big-data-et-drh-lheure-de-la-transformation-a-t-elle-sonne/</link>
		
		<dc:creator><![CDATA[Latifa Bouron]]></dc:creator>
		<pubDate>Thu, 08 Oct 2015 16:04:17 +0000</pubDate>
				<category><![CDATA[Métiers - Digital & innovation]]></category>
		<category><![CDATA[Métiers - Ressources Humaines]]></category>
		<category><![CDATA[Métiers - Stratégie d’entreprise]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[fonction RH]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=8384</guid>

					<description><![CDATA[<p>Big data : ce buzz word fait beaucoup parler de lui ces derniers temps. Grand volume de données ? Cette définition est vraie mais un peu réductrice ! Le Big data donne la possibilité d’exploiter des données en grand Volume certes mais aussi...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/10/big-data-et-drh-lheure-de-la-transformation-a-t-elle-sonne/"> Big data et DRH, l’heure de la transformation a-t-elle sonné ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Big data : ce <em>buzz word</em> fait beaucoup parler de lui ces derniers temps. Grand volume de données ? Cette définition est vraie mais un peu réductrice ! Le Big data donne la possibilité d’exploiter des données en grand Volume certes mais aussi de nature variée avec une vitesse d’exécution élevée.</p>
<p>Plus de 75% des entreprises ont investi ou ont prévu d’investir dans des projets Big data <a href="http://www.gartner.com/newsroom/id/3130817" target="_blank">dans les deux prochaines années[1]</a>, ce qui en fait un axe d’évolution majeur dans les pratiques des entreprises et c’est tout naturellement que la fonction RH s’intéresse depuis quelques temps à la question.</p>
<p>Quelles sont les applications du Big data à la fonction RH ? Quels sont les impacts de sa mise en place sur le profil du DRH et sur son positionnement dans l’organisation ?</p>
<h1>Une fonction RH transformée par le Big data ?</h1>
<p>Le Big data permettra à la fonction RH d’améliorer sa performance grâce au stockage et à l’analyse corrélée de gros volumes de données de natures variées concernant les candidats et les employés.<br />
Le <strong>recrutement</strong> est certainement la fonction RH la plus impactée par le Big data. La recherche et le traitement de CV par mots clés, ainsi que l’analyse de profils sur les réseaux sociaux permettent aux recruteurs de <strong>gagner du temps et d’optimiser la sélection des candidats</strong>. Le Big data aide également à l’<strong>anticipation</strong> <strong>des besoins en recrutement</strong>, en croisant les données liées aux potentiels départs de salariés avec la stratégie de l’entreprise.En offrant la possibilité de réaliser des modélisations prédictives, le Big data  est également un formidable moyen d’aide à la <strong>gestion des compétences</strong>. Par exempleune entreprise peut, en croisant une batterie de données, être en mesure de <strong>simuler le parcours professionnel</strong> des salariés. De même, elle peut <strong>détecter  des risques</strong> de démission, de RPS… et être en capacité de mettre rapidement en place des actions préventives sur les compétences clés.</p>
<p>Enfin, l’avènement des réseaux sociaux d’entreprise et la facilité à générer et analyser des enquêtes régulières, permettent d’avoir une <strong>vision pertinente du climat social</strong>, de <strong>mieux connaître les employés et répondre à leurs attentes</strong> (formations, évolution des modalités de travail…).</p>
<h1>La place du DRH bousculée par le Big data ?</h1>
<p>Le nouveau <strong>challenge du DRH</strong> face au Big data est <strong>de connaître ses collaborateurs comme un</strong> <strong>marketeur</strong> connaitrait ses Clients. Il s’agit de trouver le bon dosage entre le côté <strong><em>data centric</em></strong> et le côté <strong><em>user centric</em></strong> de son métier. Autrement dit, comment tirer profit des données à sa disposition pour positionner le collaborateur au centre des préoccupations.</p>
<p>Le Big data est même susceptible de <strong>modifier le positionnement du DRH au sein de l’entreprise</strong> : les analyses prédictives permettent aux DRH de <strong>faire la différence</strong>, de <strong>jouer un rôle stratégique</strong> au sein du <strong>comité de direction</strong> dans la prise de décision et dans les projections à moyen et long terme (maîtrise du <em>turn over</em>, fidélisation des talents à haut potentiel, rationalisation de l’effort de formation, …).  Grâce au Big data, le DRH pourrait donc dorénavant passer d’un acteur support à un<strong> acteur central dans la définition de la stratégie de l’entreprise</strong>.</p>
<h1>Les freins au Big data RH</h1>
<p>Si les possibilités d’applications du Big data à la fonction RH sont bien réelles, il convient tout de même de relativiser leur développement au sein des entreprises.</p>
<p>En effet, certaines contraintes règlementaires spécifiques à certains pays ou encore éthiques sont à prendre en considération lorsqu’on envisage d’adopter le Big data pour la fonction RH. Notamment en France, la CNIL <strong>encadre fortement la gestion de données personnelles</strong>, et les statistiques sur les employés restent taboues.</p>
<p>D’autre part, la <strong>culture statistique</strong> et d’exploitation arithmétique des données est encore <strong>loin de séduire l’ensemble des Directions RH</strong>. Le Big data a donc encore du chemin à faire ces prochaines années pour faire bouger les lignes et impacter la réalité opérationnelle des entreprises.</p>
<p><a href="#_ftnref1" name="_ftn1">[1]</a> <a href="http://www.gartner.com/newsroom/id/3130817" target="_blank">Source Gartner 2015</a></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/10/big-data-et-drh-lheure-de-la-transformation-a-t-elle-sonne/"> Big data et DRH, l’heure de la transformation a-t-elle sonné ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>[Infographie] Les activités de Data Management</title>
		<link>https://www.riskinsight-wavestone.com/en/2015/09/infographie-les-activites-de-data-management/</link>
		
		<dc:creator><![CDATA[Olivier Besnard]]></dc:creator>
		<pubDate>Mon, 21 Sep 2015 15:32:12 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[data management]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=8277</guid>

					<description><![CDATA[<p>Nous avions vu dans une précédente infographie les grandes caractéristiques des données et les raisons de leur gouvernance. Cette nouvelle infographie présente les activités qui permettront une montée en maturité de l’entreprise dans la gestion de ses données.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/09/infographie-les-activites-de-data-management/">[Infographie] Les activités de Data Management</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p style="text-align: justify;"><em>Nous avions vu dans une <a href="http://www.solucominsight.fr/2015/04/et-si-les-datas-etaient-devenues-le-nouvel-or-noir/">précédente infographie</a> les grandes caractéristiques des données et les raisons de leur gouvernance. Cette nouvelle infographie présente les activités qui permettront une montée en maturité de l’entreprise dans la gestion de ses données.</em></p>
<figure id="post-8279 media-8279" class="align-none"><a href="http://www.solucominsight.fr/wp-content/uploads/2015/09/DataMgt-Infographie-Activite-et-Espace-2.png"><img loading="lazy" decoding="async" class="alignnone" src="http://www.solucominsight.fr/wp-content/uploads/2015/09/DataMgt-Infographie-Activite-et-Espace-2.png" alt="" width="1299" height="1505" /></a></figure>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/09/infographie-les-activites-de-data-management/">[Infographie] Les activités de Data Management</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Big data et Cloud computing : le pari gagnant des offres BDaaS ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2015/08/big-data-et-cloud-computing-le-pari-gagnant-des-offres-bdaas/</link>
		
		<dc:creator><![CDATA[Lise Gasnier]]></dc:creator>
		<pubDate>Thu, 27 Aug 2015 08:00:53 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Cloud computing]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=8103</guid>

					<description><![CDATA[<p>Dès 2009, avant même l’emballement médiatique autour du Big data, les fournisseurs Cloud lancent les premières offres [1] Big Data as a Service (BDaaS). On voit ainsi émerger des solutions combinant les frameworks de création d’applications distribuées avec ceux du Cloud, à...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/08/big-data-et-cloud-computing-le-pari-gagnant-des-offres-bdaas/">Big data et Cloud computing : le pari gagnant des offres BDaaS ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Dès 2009, avant même l’emballement médiatique autour du Big data, les fournisseurs Cloud lancent les premières offres <a href="#_ftn1" name="_ftnref1">[1]</a> <strong>Big Data as a Service (BDaaS)</strong>. On voit ainsi émerger des solutions combinant les frameworks de création d’applications distribuées avec ceux du Cloud, à l’image d’EMR lancée à cette époque par Amazon. Quel est l’état de l’offre aujourd’hui ? Le Cloud change-t-il réellement la donne de votre stratégie Big data ? Voici notre conviction.</em></p>
<h2>Le marché BDaaS en pleine expansion</h2>
<p>Le<strong> terme BDaaS</strong> désigne les services d’analyse de mégadonnées utilisant l’hébergement <em>Cloud</em>. Il couvre l’ensemble des offres <em>Cloud computing</em> traditionnelles : IaaS, PaaS, SaaS.</p>
<ul>
<li>D’un côté, on retrouve les<strong> offres IaaS dédiées Big data</strong>: mise à disposition de serveurs optimisés pour Hadoop essentiellement (OVH, IBM Softlayer, Microsoft Azure …).</li>
<li>De l’autre, les<strong> offres PaaS Big data</strong>: plateformes permettant aux utilisateurs de déployer des applications distribuées et qui s’appuient nécessairement sur un stockage <em>Cloud</em> constituant parfois une offre à part entière : ainsi, Azure HDInsight utilise BLOB Storage et Amazon EMR, S3.</li>
<li>Enfin, il y a les<strong> offres SaaS Big data</strong> de deux 2 types :
<ul>
<li>celles permettant l’analyse et la data visualisation (Tibco, Splunk, Altiscale, Datameer) de grandes quantités de données en s’appuyant sur des moteurs d’exécution distribués,</li>
<li>celles répondant à des besoins métiers d’extraction d’information de gros volumes de données (ex. : offre d’eReputation s’appuyant sur l’analyse sémantique de réseaux sociaux pré-connectés comme twitter).</li>
</ul>
</li>
</ul>
<p>Au sein de ce marché pluriel, le modèle PaaS Big data s’impose comme la catégorie de solutions la plus en vue aujourd’hui. On y retrouve notamment EMR d’Amazon, Big Query de Google, ou encore HDInsight de Microsoft, tous les trois déjà bien matures. Par ailleurs, d’autres fournisseurs projettent de commercialiser des offres BDaaS en 2015. C’est le cas de Numergy et Oracle. Enfin, des start-ups se positionnent aussi sur le marché, à l’image de Qubole.</p>
<p>&nbsp;</p>
<figure id="post-8107 media-8107" class="align-none"><img decoding="async" src="http://www.solucominsight.fr/wp-content/uploads/2015/08/panorama-marche-BDaaS.png" alt="" /></figure>
<p><em>Panorama du marché BDaaS &#8211; copyright Solucom</em></p>
<h2>PaaS Big data versus plateformes on premise</h2>
<p>Le PaaS Big data offre des <strong>avantages</strong> <strong>significatifs </strong>parmi lesquels on retrouve :</p>
<ul>
<li><strong>La mise à disposition immédiate de ressources et le paiement à l’usage </strong>sans investissement initial : ce duo gagnant permet de se soustraire à des dépenses d’investissement particulièrement élevées pour un projet <em>Big data</em> et il simplifie le <em>set up</em> et la montée en charge des architectures <em>Big data</em>. Nul besoin de planifier l’allocation de capacité, le <em>time-to-delivery</em> est ici minime.</li>
<li><strong>Une complexité réduite </strong>: les architectures PaaS sont créées en quelques clics par paramétrage. Un réel avantage pour le <em>Big data</em> qui utilise des technologies distribuées nouvelles et complexes.</li>
</ul>
<p>Néanmoins, l’adoption du BDaaS pose la question de la <strong>sécurité, en particulier de la confidentialité des données </strong>: d’après une enquête menée en 2014 par PAC CloudIndex<a href="#_ftn1" name="_ftnref1">[2]</a>, près de 50% des entreprises sollicitées affirment avoir des craintes quant à la sécurité des données stockées dans le <em>Cloud</em>. Toutefois, il est important de souligner que ces risques ne sont pas nécessairement plus élevés que sur des infrastructures on-premise. Il convient donc de s’assurer que les fournisseurs cloud utilisent des services garantissant la confidentialité et l’intégrité des données (chiffrement des données stockées et des flux, mécanisme d’authentification forte…). Par ailleurs, plusieurs certifications garantissent la mise en place de bonnes pratiques de sécurité par les offreurs Cloud (ISO27001, CSA STAR, SSAE 16…).</p>
<p>&nbsp;</p>
<figure id="post-8109 media-8109" class="align-none"><img decoding="async" src="http://www.solucominsight.fr/wp-content/uploads/2015/08/SWOT-on-premise-versus-BDaaS.png" alt="" /></figure>
<p>C’est ce qui pousse la plupart des entreprises à choisir un <a href="http://www.solucominsight.fr/2013/09/quelles-vertus-au-cloud-hybride/" target="_blank">déploiement hybride combinant les ressources d’un Cloud public et d’un Cloud privé</a>.</p>
<h2>Les principaux cas d’usage du BDaaS</h2>
<p>3 cas d’usage sont moteurs dans l’adoption du BDaaS :</p>
<ul>
<li><strong>Le POC</strong> (<em>Proof Of Concept</em>) : le <em>Big data</em> poursuit son émergence, les entreprises continuent les expérimentations. Il n’est pas toujours évident d’une part de dimensionner son infrastructure et d’autre part  de parier sur l’atteinte des objectifs. Le <em>Cloud</em> permet de se lancer sans engagement.</li>
<li>La <strong>gestion de pics de charge </strong>: l’entreprise utilise des clusters temporaires pour des besoins ponctuels et les détruit ou éteint lorsque le pic de charge est passé (un traitement sur des milliers de nœuds pour valider une hypothèse par exemple). Mais l’immédiateté a ses limites : le traitement s’exécute sur des volumes de données qu’il faut évidemment provisionner.</li>
<li><strong>Le Plan de reprise d’activité</strong> (PRA) : l’entreprise synchronise les données de la production vers une plateforme Cloud public prête à démarrer à tout moment en cas de problèmes. Ce qui lui évite un nouvel investissement pour sa plateforme de PRA.</li>
</ul>
<p><em>Le BDaaS apparaît ainsi comme un moyen de se lancer dans l’analyse des mégadonnées plus rapidement, à moindre coût pour des usages ponctuels et avec plus de flexibilité.  Il lève les freins inhérents aux projets Big data que sont par exemple un retour sur investissement incertain et la complexité des nouvelles architectures. Reste le sujet de la confidentialité des données dans le Cloud qui peut être mis sous contrôle par le biais d’une analyse de risque. </em></p>
<p>&nbsp;</p>
<p><a href="#_ftnref1" name="_ftn1">[1]</a><a href="#_ftnref1" name="_ftn1"> L’offre EMR a été créée en 2009, Big Query en 2012, HDInsight en 2012.</a></p>
<p><a href="#_ftnref1" name="_ftn1">[2]</a> Source : http://www.cloudindex.fr/sites/default/files/PAC%20CloudIndex%20-%20Analyse%20juin%202014.pdf</p>
<p>&nbsp;</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/08/big-data-et-cloud-computing-le-pari-gagnant-des-offres-bdaas/">Big data et Cloud computing : le pari gagnant des offres BDaaS ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>7 clés pour s’engager et réussir à valoriser les données dans l’énergie</title>
		<link>https://www.riskinsight-wavestone.com/en/2015/02/7-cles-pour-sengager-et-reussir-a-valoriser-les-donnees-dans-lenergie/</link>
		
		<dc:creator><![CDATA[Xavier Metz]]></dc:creator>
		<pubDate>Thu, 26 Feb 2015 12:00:01 +0000</pubDate>
				<category><![CDATA[Métiers - Energie]]></category>
		<category><![CDATA[Métiers - Stratégie d’entreprise]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[valorisation de la donnée]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=7403</guid>

					<description><![CDATA[<p>Comme nous l&#8217;avons vu dans de précédents articles, start-ups et énergéticiens ont tout intérêt à nouer de vrais partenariats « win-win durables » plutôt que de se considérer comme des concurrents. Cette collaboration, quelle que soit sa forme et le business model qu&#8217;elle engendre, est la clé...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/02/7-cles-pour-sengager-et-reussir-a-valoriser-les-donnees-dans-lenergie/">7 clés pour s’engager et réussir à valoriser les données dans l’énergie</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em><a href="http://www.solucominsight.fr/?s=valorisation+donn%C3%A9e" target="_blank">Comme nous l&#8217;avons vu dans de précédents articles</a>, start-ups et énergéticiens ont tout intérêt à nouer de vrais partenariats « win-win durables » plutôt que de se considérer comme des concurrents. Cette collaboration, quelle que soit sa forme et le business model qu&#8217;elle engendre, est la clé de la réussite des modèles de valorisation des données. C&#8217;est elle qui permettra aux acteurs de l&#8217;énergie de devenir moteurs pour développer l&#8217;activité actuelle et future et préempter les marchés de demain. Comment ? Énergéticiens, voici 7 clés pour vous accompagner dans cette démarche.</em></p>
<h2>1 &#8211; Agissez, agissez, agissez !</h2>
<p>« <em>The only way to do it IS to do it </em>», est le 1er message que l’on voit lorsque l’on rentre dans la <em>D-Scholl </em>de Stanford. Cette maxime s’applique particulièrement à la valorisation des données. Dans cet environnement en ébullition, en perpétuel mouvement avec de nombreux acteurs très agiles, il ne faut pas perdre de temps à étudier et à faire des plans. C’est bien en essayant et en interagissant avec les clients, les <em>start-ups </em>et les acteurs d’autres secteurs que l’on apprend, sans avoir peur des échecs. Il faut avoir l’obsession de la génération d’idées, de l’action et de l’expérimentation.</p>
<h2>2 &#8211; Raisonnez évolution du <em>business model</em>. Oubliez les business plans.</h2>
<p>L’innovation en rupture résiste rarement au business plan, qui exige une visibilité sur les temps de retour. Les données n’ont pas de ROI mais elles doivent nourrir des <em>business models</em> qui créent de la valeur. Il s’agit de trouver les filons de valeur, de les tester et de les faire évoluer par la pratique.<br />
Les histoires des <em>start-ups</em> qui ont réussi sont toujours fondées sur des phases de « pivotement » qui ont permis par l’action et l’expérimentation de faire évoluer le business model pour le rendre gagnant.</p>
<h2>3 &#8211; Soyez rigide sur l’agilité</h2>
<p>Les grandes entreprises sont souvent prisonnières de leurs lourdeurs. Notre expérience au sein des grands groupes montre que la mise en place de dispositifs agiles et innovants en marge de l’organisation et protégés de ses contraintes, constitue l’une des réponses à la révolution numérique. Ces derniers permettent de préparer l’avenir, d’inventer de nouveaux business et de nouvelles offres, d’accélérer le rythme face aux concurrents, en apportant de l’avance technologique, de l’agilité et de l’intimité avec de nouveaux écosystèmes.</p>
<h2>4 &#8211; Co-construisez avec vos clients dans un esprit <em>design thinking</em></h2>
<p>Les données seront au final valorisées auprès des clients externes pour enrichir la proposition de valeur ou des clients internes pour optimiser la performance. Développer l’empathie avec les utilisateurs, comprendre ce qu’ils font des données, ce qu’ils pensent, ce qu’ils ressentent plus que ce qu’ils disent. Leur montrer ou mieux leur faire utiliser les services, même avec des prototypes imparfaits, plutôt que leur raconter. S’adresser aussi à l’humain et à l’émotion, même en B2B. Voilà des obsessions <em>design thinking</em>.</p>
<h2>5 &#8211; Osez innover dans de nouveaux écosystèmes</h2>
<p>Les grands énergéticiens sont des acteurs internationaux qui connaissent bien leur secteur d’activité et son jeu concurrentiel. L’innovation par les données nécessite de se brancher sur le monde du digital, grands acteurs (Google, Adobe, IBM, Cisco…) et <em>start-ups</em>, mais aussi d’apprendre à travailler avec d’autres secteurs pour créer de la valeur en partageant des données et en co-construisant des services. On pense bien naturellement, sur l’exemple de la maison connectée (Smart home), aux acteurs de la santé, de l’assurance ou des telcos/medias. Sortir de sa zone de confort, apprendre de nouvelles règles du jeu, construire des coopérations gagnantes…</p>
<h2>6 &#8211; Raisonnez <em>Smart data</em>, au-delà du <em>Big data</em></h2>
<p>Les technologies dites du <a title="Quels modèles d’affaires dynamiseront le Big data dans l’énergie ?" href="http://www.solucominsight.fr/2014/11/quels-modeles-daffaires-dynamiseront-le-big-data-dans-lenergie/" target="_blank"><em>Big data</em></a>, les mathématiques appliquées aux données sont de nouvelles compétences que les grands acteurs doivent acquérir et développer. Mais, elles ne sont évidemment pas des finalités.  Il faut raisonner <em>Smart data</em>, c’est-à-dire avoir toujours l’obsession de créer de la valeur <em>business</em> à partir des données, en mélangeant les mondes et en les faisant travailler ensemble : technologues, <em>data scientists</em> et Métiers.</p>
<h2>7 &#8211; Tuez les silos et inventez de nouveaux modes de collaboration</h2>
<p>La création de valeur à partir des données suppose de s’inscrire dans de nouveaux écosystèmes, de faire travailler ensemble des compétences et des profils différents. Transdisciplinarité, diversité des profils, logique collaborative… doivent donc être la 7ème obsession.</p>
<p>Ne reste plus qu&#8217;à vous lancer !</p>
<p>&nbsp;</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/02/7-cles-pour-sengager-et-reussir-a-valoriser-les-donnees-dans-lenergie/">7 clés pour s’engager et réussir à valoriser les données dans l’énergie</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>2015 dans le secteur du transport : conquête, reconquête et fidélisation des clients</title>
		<link>https://www.riskinsight-wavestone.com/en/2015/01/2015-dans-le-secteur-du-transport-conquete-reconquete-et-fidelisation-des-clients/</link>
		
		<dc:creator><![CDATA[Siegfried Gunther]]></dc:creator>
		<pubDate>Tue, 20 Jan 2015 09:11:37 +0000</pubDate>
				<category><![CDATA[Métiers - Marketing et relation client]]></category>
		<category><![CDATA[Métiers - Transport]]></category>
		<category><![CDATA[Big Data]]></category>
		<guid isPermaLink="false">http://www.solucom-insight.fr/?p=6967</guid>

					<description><![CDATA[<p>Le début de l’année est un moment traditionnel pour faire le bilan de l’année et s’essayer à quelques prédictions. Le secteur du transport, en pleine mutation, a amorcé en 2014 des bouleversements qui vont profondément modifier son paysage dès 2015 et...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/01/2015-dans-le-secteur-du-transport-conquete-reconquete-et-fidelisation-des-clients/">2015 dans le secteur du transport : conquête, reconquête et fidélisation des clients</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><i>Le début de l’année est un moment traditionnel pour faire le bilan de l’année et s’essayer à quelques prédictions. Le secteur du transport, en pleine mutation, a amorcé en 2014 des bouleversements qui vont profondément modifier son paysage dès 2015 et dans les années à venir. Zoom sur ces transformations structurantes.</i></p>
<h2>3 mouvements clés en 2014 dans le transport</h2>
<p>Les transformations observées dans le secteur du transport l’an passé étaient annoncées…, ou du moins prévisibles depuis longtemps. 2014 a néanmoins vraiment été symptomatique de leur concrétisation et de la prise de conscience.</p>
<p>Parmi ces mouvements, 3 sujets sont à retenir :</p>
<ul>
<li>L’accélération de la mutation numérique  : le <b>digital</b></li>
<li>La situation économique tendue  : la <b>rentabilité</b></li>
<li>L’avènement d’une concurrence nouvelle  : la <b>libéralisation</b></li>
</ul>
<p>Bien que ces tendances ne soient pas spécifiques au monde du transport, elles ont été particulièrement prégnantes dans ce secteur et s’illustrent aisément.</p>
<p>Ainsi, au moment où la SNCF s’est mise en ordre de marche pour préparer l’ouverture à la concurrence du marché, <a href="http://www.cbnews.fr/marques/la-sncf-cree-une-direction-digitale-et-communication-a1015361" target="_blank">elle a installé une <b>direction « digitale »</b></a> dont le rôle sera d’<b>accompagner la transformation numérique</b>. Depuis quelques années déjà, la SNCF capte les signes avant-coureurs qui changeront le paysage du transport et de sa distribution et s’y prépare activement : son site internet voyage-sncf.com, iDTGV, OUIGO <a href="http://transportshaker-solucom.fr/idvroom-quels-enjeux-sncf/" target="_blank">ou encore récemment iDVROOM</a> en sont de bons exemples. Elle a une fois de plus fait figure de précurseur en s’imposant parmi les 1ères sociétés à mettre en place un Directeur du Digital.</p>
<p>Dans un contexte de concurrence très forte par les compagnies <i>low cost</i>, Air France a de son côté procédé à un <a href="http://transportshaker-solucom.fr/le-court-et-moyen-courrier-dair-france-klm-comment-sy-retrouver/" target="_blank">repositionnement de ces trois marques Air France, Hop<i>!</i> et Transavia</a> avec une offre plus en ligne avec les attentes des clients. Il est intéressant de rappeler que la compagnie avait fait des choix contraires il y a une vingtaine d’années en fusionnant les sociétés Air France, UTA et Air Inter. L’objectif de l’époque était la rationalisation (en interne) et la simplification de l’offre. Il n’y avait alors ni <b><i>low cost</i></b>, ni digital  et moins de <b>contraintes économiques</b>…</p>
<p>Et enfin, en 2014, la <b>notion de « concurrence » </b>a trouvé une nouvelle forme à travers <a href="http://transportshaker-solucom.fr/levee-de-boucliers-des-taxis-contre-les-vtc-une-ouverture-du-marche-qui-ne-passe-pas-12/" target="_blank">le phénomène « UBER »</a> qui bouleverse les paradigmes établis. Cela est particulièrement vrai dans le secteur du transport, une activité qui est restée longtemps protégée de la <b>libéralisation</b>. Le <i>low cost</i> dans l’aérien a obligé les compagnies traditionnelles à s’adapter, soit en appliquant les mêmes modèles, soit en se repliant sur les marchés moins attaqués comme les longs courriers (à part les compagnies du Proche-Orient qui bénéficient de coûts d’exploitation moindres). Les services de type « UBER » risquent fort de remettre en cause tout un écosystème <a href="http://transportshaker-solucom.fr/uberpop-interdit-au-1er-janvier-2015/" target="_blank">en contournant la règlementation</a>.</p>
<p>Mais quel est le moteur de ses changements qui vont s’amplifier en 2015 ?</p>
<h2>La priorité 2015 : le client final</h2>
<p>L’arrivée du digital bouleverse toute la chaîne de valeur traditionnelle et remet en cause leur <i>business model</i> : l’accès à l’offre de transport est profondément modifiée, l’arrivée rapide de solutions inédites et innovantes génère des distorsions sur le marché, et la comparaison des offres est largement facilitée car elles sont maintenant en accès direct. C’est <b>un véritable renversement des pouvoirs</b> : l’usager captif et passif s’est transformé en quelques mois en un client actif et volatile !</p>
<p>Par conséquent le client sera désormais au centre des préoccupations et de toutes les convoitises des acteurs de l’écosystème.</p>
<p>Et si la transformation digitale s’exerce tout d’abord au bénéfice du client final, elle se présente plutôt comme une difficulté nouvelle pour les acteurs du transport. Si le <i>low cost</i> est basé nativement sur une distribution via internet et que les possibilités de la mobilité sont exploitées de manière très agile par les <i>start-ups</i>, il n’en est pas de même pour les acteurs historiques.</p>
<p>Tous les secteurs sont touchés par ce phénomène. Pour les Echos <i><a href="http://www.lesechos.fr/finance-marches/banque-assurances/0204054785311-les-banques-profitent-du-digital-pour-regagner-la-confiance-de-leurs-clients-1080865.php" target="_blank">«Les banques profitent du digital pour regagner la confiance de leurs clients. Les applications mobiles bancaires dopent la satisfaction des clients. L’enjeu pour les banques est de fidéliser des clients de plus en plus autonomes. ».</a>  </i>L’enjeu est aussi pour les acteurs majeurs de trouver en 2015 les leviers pour <b>transformer la menace d’une digitalisation galopante en une réelle opportunité</b>. Un challenge qui nécessite de s’adapter…<i></i></p>
<h2>Le voyage s’attaque au <i>Big data</i></h2>
<p>Au-delà d’une nouvelle posture dans la manière d’aborder la relation client, 2015 sera avant tout l’année du <i>Big data</i>.</p>
<p>La mobilité a formé un nouveau type de client, <b>le <i>Big data</i> sera donc l’outil pour le reconquérir</b>. Là encore, les nouveaux usages et les fonctionnalités offertes vont faciliter la tâche. Beaucoup d’entreprises ont d’ores et déjà engagé des études et se sont essayé à de premières expériences en la matière. On peut constater 3 niveaux d’ambitions : une meilleure connaissance individuelle et globale, une capacité à mieux anticiper les comportements d’achat et enfin un service différenciant  en accompagnant le client de bout en bout,  le <i>seamless travel</i>.</p>
<p>Mais attention, <i>Big data</i>  ne signifie pas un retour sur investissement rapide ! La <b>courbe d’apprentissage sera très longue</b> si les ambitions fixées au début sont trop importantes.</p>
<h2>Des SI à faire évoluer : rentabilité et agilité en ligne de mire</h2>
<p>Moins visible par le grand public et pas uniquement impulsé par le digital ou le <i>Big data</i>, les grands acteurs sont concernés par le <b>vieillissement de leurs systèmes d’information et les changements des paradigmes</b> dans ce domaine. Les exigences du « client au centre » et d’amélioration de la rentabilité nécessitent plus d’agité en termes de méthode de travail et plus de standardisation en termes SI.</p>
<p>L’autonomie grandissante des clients aura par ailleurs des impacts importants sur les métiers de la distribution, le digital impactera aussi les activités de production. Ce sera certes moins visible par le consommateur, mais d’autant plus important pour les entreprises sur le terrain de la rentabilité, surtout pour les acteurs « traditionnels » face aux nouveaux entrants.</p>
<p>Les leviers de transformation du transport en 2015 et pour les prochaines années sont donc multiples. Il reste aux acteurs du secteur à démontrer leur capacité à les activer au profit des enjeux de fidélisation et de performance !</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/01/2015-dans-le-secteur-du-transport-conquete-reconquete-et-fidelisation-des-clients/">2015 dans le secteur du transport : conquête, reconquête et fidélisation des clients</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Valorisation des données dans l’énergie, comment rattraper le retard ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2015/01/valorisation-des-donnees-dans-lenergie-comment-rattraper-le-retard/</link>
		
		<dc:creator><![CDATA[Damien Mermet]]></dc:creator>
		<pubDate>Thu, 08 Jan 2015 08:25:50 +0000</pubDate>
				<category><![CDATA[Métiers - Energie]]></category>
		<category><![CDATA[Métiers - Stratégie d’entreprise]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[énergie]]></category>
		<category><![CDATA[valorisation des données]]></category>
		<guid isPermaLink="false">http://www.solucom-insight.fr/?p=6780</guid>

					<description><![CDATA[<p>La valorisation des données suppose la mise en œuvre d’une démarche nouvelle : diversité des compétences nécessaires, incertitude du résultat, nécessité d’une approche innovante résolument tournée vers le futur… Comment réussir une telle démarche ? Des freins bien présents que...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/01/valorisation-des-donnees-dans-lenergie-comment-rattraper-le-retard/">Valorisation des données dans l’énergie, comment rattraper le retard ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>La valorisation des données suppose la mise en œuvre d’une démarche nouvelle : diversité des compétences nécessaires, incertitude du résultat, nécessité d’une approche innovante résolument tournée vers le futur… Comment réussir une telle démarche ?</em></p>
<h2>Des freins bien présents que le secteur de l&#8217;énergie doit apprendre à maîtriser</h2>
<p>Il existe un certain nombre de freins à la démarche de valorisation des données. Ceux-ci concernent en premier lieu le cadre externe qui dispose de sa propre logique. D’autre part, les processus, référentiels, ainsi que la culture des grands groupes sont souvent peu adaptés.</p>
<h3><b>Un cadre législatif et normatif incertain</b></h3>
<p>Quel que soit le secteur d’activité, le droit de la donnée est un sujet sensible, en particulier dans le cadre de la CNIL. Il s’agit de savoir jusqu’à quel niveau de détail on peut agréger les données et ce que l’on est en droit d’en faire.</p>
<p>Pour le secteur de l’énergie, il faut aussi prendre en compte le cadre régulatoire de la CRE* qui s’ajoute à l’environnement réglementaire général. Deux freins principaux doivent être surmontés : un cadre précis et contraignant de propriété et de circulation des données entre les acteurs, ainsi qu’un processus d’instruction et de validation de catalogues de prestations peu adapté à une démarche d’innovation foisonnante.</p>
<p>Pour les énergéticiens historiques, le droit de la concurrence constitue une limite forte : comment différencier et diversifier son activité en gérant le risque lié au concept « d’acteur dominant » ?</p>
<p>Enfin, et en dehors de toute notion réglementaire, le sujet est marqué par l’incertitude sur les standards et normes qui s’imposeront dans le futur.</p>
<h3><b>Des processus et référentiels internes peu adaptés</b></h3>
<p>Les processus et la définition claire des responsabilités font la force des grands groupes. Ils peuvent s’appuyer dessus pour garantir la fiabilité des données. Un assouplissement est toutefois nécessaire pour s’adapter aux besoins d’agilité des initiatives de valorisation de la donnée. Avec des cycles de planification à pas annuel et une certaine frilosité pour prendre des initiatives quand le ROI reste incertain, l’environnement traditionnel des grandes entreprises n’offre pas la réactivité nécessaire aux projets innovants.</p>
<p>La posture recommandée n’est pourtant pas d’attendre qu’un ROI positif soit garanti pour démarrer mais de décider combien l’entreprise est prête à perdre pour un projet ayant de bonnes probabilités de succès. Force est de constater que les <i>startups </i>sont aujourd’hui beaucoup plus aguerries que les grands groupes pour mettre en œuvre ce principe, malgré les moyens plus conséquents dont disposent ces derniers.</p>
<p>Bien souvent, la répartition de la propriété des données en interne est également un frein et ralentit leur assemblage et leur recombinaison. Au contraire, les initiatives de valorisation de la donnée gagneraient à être réalisées dans une approche transversale et ouverte, positionnant ces informations comme un bien commun.</p>
<p><b>Les énergéticiens doivent dépasser leurs carcans culturels</b></p>
<p>L’histoire et l’expérience des grands groupes de l’énergie est parfois un frein à la démarche de valorisation de la donnée. Tout d’abord, il est difficile de s’émanciper des <i>business models </i>établis parce que cela implique une prise de risque. D’autre part, le cloisonnement interne peut freiner les démarches et regards transverses.</p>
<p>En outre, la difficulté de mise en œuvre des partenariats n’est pas négligeable. Elle relève de la crainte d’une «fuite de valeur » et d’une hégémonie relationnelle qui se caractérise par un rapport « donneur d’ordre / prestataire » très différent du modèle partenarial. Enfin, les groupes français se contentent parfois de retours d’expérience de projets nationaux sans s’enrichir, en complément, des retours d’expérience d’autres zones géographiques.</p>
<h2>Des leviers réels et disponibles à mobiliser pour valoriser la donnée dans l&#8217;énergie</h2>
<p>Mettre en place une démarche de valorisation des données peut être facilité par quelques actions clés.</p>
<h3><b>1 &#8211; Mettre en évidence la nécessité de la démarche</b></h3>
<p>L’immobilisme entraîne des risques importants à terme pour l’entreprise. Ces menaces peuvent être soulignées aux acteurs internes pour les mobiliser. On peut citer par exemple le risque d’interposition : si l’entreprise  ne valorise pas elle-même ses données, d’autres le feront à sa place, ce qui aura des conséquences sur son <i>business</i>. Il peut aussi être pertinent de pointer les initiatives et les nouveaux acteurs qui agissent et peuvent générer des impacts sur la position de l’entreprise.</p>
<h3><b>2 &#8211; Promouvoir la « </b><b><i>data value attitude </i></b><b>»</b></h3>
<p>Afin de réussir cette démarche de valorisation des données, il est essentiel de développer l’ouverture et l’intelligence collective, interne et externe, ainsi que de s’appuyer sur la créativité et les compétences des <i>start-ups</i>. Des <i>digital natives </i>peuvent notamment être recrutés pour enrichir les équipes de l’entreprise.</p>
<p>Il est également nécessaire d’adapter les <i>business plans </i>à la souplesse des projets de valorisation de la donnée. Pour cela il faut, d’une part, rechercher un <i>business </i>rentable en s’appuyant sur les résultats tout en  reconnaissant la prise de risque d’un tel projet.</p>
<p>D’autre part, il faut faire preuve d’opportunisme. Enfin, il faut adopter un rythme dans la prise de décision qui permette de garantir une progression par petites étapes mais sans retour en arrière.</p>
<p>Dernier élément de « <i>data value attitude </i>», il est indispensable de rechercher explicitement les partenariats <i>win-win </i>en identifiant et organisant les bénéfices réciproques dans la durée et en impliquant le juridique comme une expertise au service du succès.</p>
<h3><b>3 &#8211; Obtenir des succès grâce à l’expérimentation</b></h3>
<p>Sur les grandes facettes que sont les bénéfices clients et les bénéfices industriels, il apparaît nécessaire de conduire les projets par étapes avec des POCs et des démonstrateurs.</p>
<p>Les clients doivent être intégrés à cette démarche afin d’identifier, tester et développer des services utiles,  visibles, simples, fiables et attractifs. Cela permet d’associer une pensée créative sur les usages avec les besoins fondamentaux.</p>
<p>L’entreprise doit quant à elle identifier, tester et développer des services optimisant la performance industrielle. Il peut par exemple s’agir de travailler sur le pilotage, la dématérialisation des processus ou encore la maintenance prédictive.</p>
<p>Vaste mais nécessaire programme pour le secteur de l&#8217;énergie !</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2015/01/valorisation-des-donnees-dans-lenergie-comment-rattraper-le-retard/">Valorisation des données dans l’énergie, comment rattraper le retard ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>La valorisation de la donnée dans l&#8217;énergie : le point de vue de la start-up</title>
		<link>https://www.riskinsight-wavestone.com/en/2014/12/la-valorisation-de-la-donnee-dans-lenergie-le-point-de-vue-de-la-start/</link>
		
		<dc:creator><![CDATA[François Blanc]]></dc:creator>
		<pubDate>Mon, 29 Dec 2014 14:19:15 +0000</pubDate>
				<category><![CDATA[Métiers - Energie]]></category>
		<category><![CDATA[Métiers - Stratégie d’entreprise]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[secteur energie]]></category>
		<category><![CDATA[valorisation des données]]></category>
		<guid isPermaLink="false">http://www.solucom-insight.fr/?p=6768</guid>

					<description><![CDATA[<p>Start-ups digitales, pure players, énergéticiens, entités agiles au sein de grands groupes… l’écosystème de la valorisation de la donnée dans l’énergie est composé d’acteurs aux profils et aux enjeux différents. Lors de l&#8217;Atelier qui était consacré à cette problématique en 2014,...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/12/la-valorisation-de-la-donnee-dans-lenergie-le-point-de-vue-de-la-start/">La valorisation de la donnée dans l&#8217;énergie : le point de vue de la start-up</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Start-ups</em> digitales, <em>pure players</em>, énergéticiens, entités agiles au sein de grands groupes… l’écosystème de la valorisation de la donnée dans l’énergie est composé d’acteurs aux profils et aux enjeux différents. Lors de l&#8217;Atelier qui était consacré à cette problématique en 2014, Solucom a justement permis de mettre en lumière deux points de vue cruciaux du marché : celui d&#8217;un énergéticien et celui d&#8217;une <em>start-up</em>. Voici dans ce 1er épisode les convictions de Fred Potter, Netatmo, sur le devenir du secteur de l&#8217;énergie.</p>
<h2>Par analogie avec les transformations d’autres secteurs, quelles perspectives entrevoit-on sur le marché de l’énergie ?</h2>
<p>En 20 ans, le secteur du <em>high tech</em> a subi de nombreuses transformations digitales et numériques, qui ont semblé surprendre les acteurs. Par exemple, des offres gratuites et illimitées dans les télécoms. Ces nouvelles offres séduisent les consommateurs et suppriment les intermédiaires.<br />
Dans l’hôtellerie, les grands groupes se plaignaient des agents de voyage qui prenaient 25% de commission. Ils ont accepté l’arrivée des acteurs du digital comme Booking.com pour augmenter leurs marges. Résultat : la valeur est désormais préemptée par trois marchands dans le monde qui imposent leurs clauses aux hôteliers et captent l’essentiel de leur marge.<br />
Cela vaut aussi pour l’industrie musicale avec l’arrivée de Spotify ou Deezer. L’énergie sera également concernée. C’est le sens du rachat de Nest par Google. Le géant du web est un spécialiste de l’interposition digitale. Ce rachat lui permettra de discuter directement avec le consommateur, pour lui vendre de l’électricité, de l’effacement…<br />
Le salut des acteurs de l’énergie dépendra de leur capacité à proposer des produits attractifs. Il y a une demande sociétale pour cela, qui sera de toute façon servie.</p>
<h2>Quel est le positionnement de Netatmo sur la valorisation des données ?</h2>
<p>Notre<em> business model</em> est celui d’un équipementier. Les données sont un moyen d’étendre notre distribution. Nous en récoltons un volume très important, que nous pourrions valoriser en échange de nouveaux canaux de distribution.<br />
Plus largement, nous offrons des solutions séduisantes, ergonomiques et simples grâce à une solution de gestion des données dans le <em>Cloud</em>. Notre offre est sans abonnement et nous proposons des services gratuits pour valoriser l’équipement, par exemple des benchmarks pour évaluer la performance énergétique.<br />
Notre positionnement est résolument B2C : nous souhaitons déclencher l’adhésion du consommateur, avec un bénéfice direct et visible.</p>
<h2>Que pensez-vous des partenariats entre <em>start-ups</em> et énergéticiens ? Qu’attendez-vous d’eux ?</h2>
<p>Faisons une analogie avec les télécoms : dans les années 2000, à chaque fois qu’Orange voulait ajouter une fonctionnalité dans la Livebox, l’ensemble de ses fournisseurs devait l’intégrer dans leur système, ce qui entraînait un délai de 18 mois. À l’opposé, Free avait choisi une approche radicalement différente : la symbiose avec un seul fournisseur qui a démontré son efficacité en termes de<em> time-to-market</em>.</p>
<p>Netatmo veut proposer des équipements communicants pour créer le désir de piloter sa consommation énergétique. Nous les vendrons par tous les canaux possibles, notamment en développant une marque vers le consommateur lui-même, voire pourquoi pas via les énergéticiens. Nous n’avons pas les prétentions d’arbitrer le marché de l’énergie. Ce marché est fortement demandeur de partenariats. Tous les canaux vont se réveiller. Les clients vont demander à leur installateur de chaudière gaz de leur installer les thermostats gaz qu’ils désirent. Cela représente 71% de taux de pénétration pour nous. Les énergéticiens seront un canal de vente parmi d’autres.</p>
<h2>Quels sont les perspectives pour le marché de l’énergie, sur les volets B2B et B2C ?</h2>
<p>Sur le marché B2C des objets connectés, nous pensons que le pilotage des dépenses n’est pas le principal levier. Pour le consommateur final, c’est la problématique du confort qui domine, notamment via son pilotage. Toujours sur le B2C, la valorisation des données vers d’autres cibles par agrégation ne correspond pas à notre positionnement actuel.<br />
Je connais moins le marché B2B car nous n’y sommes pas actifs. De nombreuses sociétés sont déjà positionnées sur les équipements de mesure et de pilotage énergétique. Il me semble que c’est une compétence essentielle du métier de gestionnaire d’énergie.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/12/la-valorisation-de-la-donnee-dans-lenergie-le-point-de-vue-de-la-start/">La valorisation de la donnée dans l&#8217;énergie : le point de vue de la start-up</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Quels modèles d’affaires dynamiseront le Big data dans l’énergie ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2014/11/quels-modeles-daffaires-dynamiseront-le-big-data-dans-lenergie/</link>
		
		<dc:creator><![CDATA[ghislain de pierrefeu]]></dc:creator>
		<pubDate>Mon, 24 Nov 2014 08:00:19 +0000</pubDate>
				<category><![CDATA[Métiers - Energie]]></category>
		<category><![CDATA[Métiers - Stratégie d’entreprise]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[énergie]]></category>
		<category><![CDATA[transformation numérique]]></category>
		<category><![CDATA[valorisation de la donnée]]></category>
		<guid isPermaLink="false">http://www.solucom-insight.fr/?p=6197</guid>

					<description><![CDATA[<p>La valorisation de la donnée a déjà démontré sa valeur ajoutée dans les secteurs de web, du retail, du transport et de l’assurance. Cela permet d’anticiper des opportunités de valorisation très importantes dans l’énergie. Comme en témoigne le rachat de l’entreprise...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/11/quels-modeles-daffaires-dynamiseront-le-big-data-dans-lenergie/">Quels modèles d’affaires dynamiseront le Big data dans l’énergie ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><i>La valorisation de la donnée a déjà démontré sa valeur ajoutée dans les secteurs de web, du retail, du transport et de l’assurance.<span class="Apple-converted-space"> </span></i><a href="http://www.solucominsight.fr/2014/11/valorisation-donnee-bouleversera-secteur-energetique/"><i>Cela permet d’anticiper des opportunités de valorisation très importantes dans l’énergie.</i></a></p>
<p>Comme en témoigne le rachat de l’entreprise de thermostats intelligents Nest par Google début 2014,<span class="Apple-converted-space"> </span><b>les géants du web</b><span class="Apple-converted-space"> </span>s’intéressent toujours plus à la valorisation de la donnée dans l’énergie et se positionnent en<span class="Apple-converted-space"> </span><b>préempteurs</b><span class="Apple-converted-space"> </span>sur ce marché émergent et prometteur.</p>
<p>Face à ces nouveaux entrants, la position des acteurs de l’énergie doit être à la fois défensive et offensive. L’enjeu principal pour eux est de faire<span class="Apple-converted-space"> </span><b>émerger puis développer les marchés de demain</b><span class="Apple-converted-space"> </span>et d’en<span class="Apple-converted-space"> </span><b>capter une part<span class="Apple-converted-space"> </span></b>à moyen terme. Il s’agit également pour ces acteurs de développer et d’améliorer la gamme de services nécessaires à leur<span class="Apple-converted-space"> </span><b>activité actuelle et future</b>. De ce fait, la<span class="Apple-converted-space"> </span><b>collaboration</b><span class="Apple-converted-space"> </span>est la clé de la réussite des modèles de valorisation des données. Les acteurs de l’écosystème de l’énergie et du digital ont tout intérêt à être partenaires plutôt que concurrents.</p>
<h2>3 modèles d’affaires pour dynamiser le<span class="Apple-converted-space"> </span><i>Big data</i><span class="Apple-converted-space"> </span>dans l’énergie</h2>
<p>L’<b>analogie avec les secteurs précurseurs<span class="Apple-converted-space"> </span></b>dans la valorisation de la donnée – web, grande distribution, transport &#8211; permet d’identifier les grands modèles d’affaire qui dynamiseront la question du « big data » sur le marché de l’énergie. Des modèles qui doivent être choisis en fonction des enjeux, des capacités et du profil de l’entreprise.</p>
<h4>1<sup>er</sup><span class="Apple-converted-space"> </span>modèle : l’Open Data</h4>
<p>L’<b>Open Data<span class="Apple-converted-space"> </span></b>consiste à mettre gratuitement les données à disposition du public. Ce modèle parie sur l’intelligence collective pour améliorer la valorisation des données et développer des services et des processus plus performants.</p>
<p>Dans le secteur de l’énergie, l’Open Data est particulièrement intéressant pour les entreprises réglementées comme les distributeurs ERDF et GRDF. D’une part, cela leur permet de développer une image positive  en termes responsabilité sociale, de transparence et d’ouverture dans le nouveau paradigme de la donnée partagée libre ou valorisée. Et d’autre part, les données sont un moyen de renforcer leur relation avec leurs partenaires clés, comme les territoires par exemple. Enfin, c’est un moyen de valoriser la richesse de leurs activités tout en défendant et développant leur position au sein de l’écosystème.</p>
<h4>2<sup>ème</sup><span class="Apple-converted-space"> </span>modèle : la création de nouveaux services</h4>
<p>Les acteurs de l’énergie peuvent également être moteurs et<span class="Apple-converted-space"> </span><b>inventer de nouveaux services</b>. La fourniture « sèche » de l’énergie offre de faibles niveaux de marge pour les commercialisateurs. De plus, ce service fait partie du quotidien des personnes qui le consomment sans y penser : il est donc peu impliquant pour les consommateurs.</p>
<p>Une option pourrait être de s’émanciper des offres de fourniture pour imaginer des services couplés. Ces nouvelles offres peuvent s’appuyer sur d’autres leviers que la simple fourniture d’énergie, par exemple l’attrait pour l’ergonomie d’un équipement de pilotage énergétique.</p>
<p>Le développement de nouveaux services de données est un autre levier et doit permettre d’enrichir l’expérience consommateur, en améliorant son confort par exemple. À l’instar des packages proposés depuis une dizaine d’années dans la téléphonie mobile, les énergéticiens et leurs partenaires pourraient tirer parti de l’attente des consommateurs envers un objet désirable et concevoir une<span class="Apple-converted-space"> </span><b>solution complète combinant un objet design, la fourniture énergétique et un service de données</b>.</p>
<p>L’association à des partenaires d’autres secteurs est incontournable pour développer de telles offres. Des démonstrateurs doivent être déployés pour évaluer la génération de nouveaux revenus à court et moyen termes, et les gains en termes de fidélisation client.</p>
<h4>3<sup>ème</sup><span class="Apple-converted-space"> </span>modèle : l’optimisation des processus, y compris du back-office</h4>
<p>Enfin, la valorisation de la donnée doit permettre aux acteurs d’être vertueux dans l’<b>optimisation de leurs processus<span class="Apple-converted-space"> </span></b>industriels et métier. Certaines parties prenantes pourraient notamment réaliser d’importantes économies sur la maintenance et les investissements dans les moyens de production et le réseau.  Dans le secteur du courrier, le traitement automatisé des enveloppes (TAE) aide par exemple La Poste dans le traçage de la vie du pli tout au long de son cheminement postal. Déployé depuis 2009, le TAE lui a déjà permis de réaliser d’importantes économies internes.</p>
<p>Ces trois grands modèles sont complémentaires et répondent à des objectifs différents. Ils sont conditionnés par la faculté des différents acteurs à développer leurs capacités industrielles SI et comptage, à acquérir des marges de manœuvre sur le marché français de l’énergie et à fonctionner en partenariats.</p>
<p>&nbsp;</p>
<p><strong><em>Le ROI est mort, vive le test and learn !</em></strong></p>
<p><em>La prise d’initiatives est difficile pour les grands groupes lorsque le retour sur investissement (ROI) n’est pas certain. Or la mutation des marchés accélérée par les nouvelles technologies se situe aujourd’hui dans un environnement d’incertitude, en particulier sur le ROI. Plutôt que de se positionner en suiveurs sur des services dont la rentabilité est garantie, les acteurs de l’énergie doivent adopter une approche plus audacieuse d’expérimentations.</em></p>
<p><em>L’analyse du comportement agile des start-ups est instructive : elles ne jettent jamais leur R&amp;D mais s’efforcent au contraire de leur trouver des débouchés, quitte à réorienter leurs objectifs ou leurs business modèles. Au contraire, les grands groupes abandonnent souvent une partie de leurs efforts de R&amp;D sans avoir été au bout du process de test and learn.</em></p>
<p><em> En s’inspirant du comportement agile des start-ups, les grandes entreprises de l’énergie pourront ainsi être motrices pour développer l’activité actuelle et future et préempter les marchés de demain. Plus que le retour sur investissement, leur préoccupation doit porter sur une gouvernance efficace et une plus grande flexibilité du modèle d’affaire de leurs projets de valorisation de la donnée.</em></p>
<p><em>Pour autant, il ne s’agit pas de ne rien contrôler. Le motto est justement de tester et de mesurer les grandes opportunités, pour prendre les meilleures décisions (poursuivre le projet, le réorienter, le redimensionner, voire l’abandonner au bon moment).</em></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/11/quels-modeles-daffaires-dynamiseront-le-big-data-dans-lenergie/">Quels modèles d’affaires dynamiseront le Big data dans l’énergie ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Quand la valorisation de la donnée bouleversera le secteur énergétique…</title>
		<link>https://www.riskinsight-wavestone.com/en/2014/11/quand-la-valorisation-de-la-donnee-bouleversera-le-secteur-energetique/</link>
		
		<dc:creator><![CDATA[ghislain de pierrefeu]]></dc:creator>
		<pubDate>Thu, 20 Nov 2014 17:46:31 +0000</pubDate>
				<category><![CDATA[Métiers - Energie]]></category>
		<category><![CDATA[Métiers - Stratégie d’entreprise]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[énergie]]></category>
		<category><![CDATA[valorisation de la donnée]]></category>
		<guid isPermaLink="false">http://www.solucom-insight.fr/?p=6037</guid>

					<description><![CDATA[<p>Chaque minute, Google traite 6 millions de requêtes internet, 350 milliers de tweets sont émis et 695 mille statuts Facebook sont mis à jour ! Des chiffres vertigineux qui illustrent la réalité du Big data, ce phénomène de croissance exponentielle de...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/11/quand-la-valorisation-de-la-donnee-bouleversera-le-secteur-energetique/">Quand la valorisation de la donnée bouleversera le secteur énergétique…</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><i>Chaque minute, Google traite 6 millions de requêtes internet, 350 milliers de tweets sont émis et 695 mille statuts Facebook sont mis à jour ! Des chiffres vertigineux qui illustrent la réalité du Big data, ce phénomène de croissance exponentielle de la donnée sous toutes ses formes. </i></p>
<h2>Valorisation de la donnée : entre opportunités et défis</h2>
<p>Données de circulation urbaine, informations médicales, consommations énergétiques, historiques des navigations sur internet… La numérisation de l’information engendre dans tous les secteurs d’activité une production jusqu’alors inégalée de données. Toutes ces informations représentent pour les entreprises l’opportunité d’affiner leurs modèles prédictifs, de mieux répondre aux attentes et besoins de leurs clients et d’améliorer leur efficacité interne. Pour y parvenir, elles doivent être capables d’analyser en quasi temps réel ces données de nature variée (déstructurées, dans un langage naturel, de diverses sources et formats et dont la véracité ne peut être certifiée) et issues de différentes interactions (géo-localisation, internet des objets, échanges entre personnes…).</p>
<p>Et cela implique de mettre en place de nouveaux moyens de gestion. Aujourd’hui la maturité des nouvelles technologies d’analyse permet de traiter le volume, la variété, la vélocité et la véracité<a title="" href="#_ftn1">[1]</a> de ces données d’un genre nouveau : c’est la valorisation de la donnée.</p>
<h2>S’inspirer des secteurs en pointe dans la valorisation de la donnée</h2>
<p>Les entreprises du web, de la grande distribution et du transport se distinguent par leur maturité dans ce domaine. Grâce à l’agrégation de leurs données internes à des données sectorielles et extra-sectorielles ainsi qu’à l’analyse qui en est faite, elles améliorent l’expérience client et optimisent leurs processus internes.</p>
<p>En comparaison de ces secteurs, les initiatives dans l’énergie sont encore peu développées. Elles se limitent pour le moment à la valorisation des données internes à l’entreprise, parfois agrégées à des données externes comme la météo. Chaque maillon de la chaîne de valeur énergétique est pourtant concerné ! Valoriser les données permettra de créer de la valeur pour les acteurs de l’énergie, de renforcer leurs espaces de légitimité et de développer et de défendre leur position dans l’écosystème.</p>
<div>
<h2>Améliorer les processus internes pour plus d’efficacité</h2>
<p>Dans le secteur de l’énergie, la valorisation de la donnée est d’abord une opportunité pour améliorer les processus internes. D’une part, cela devrait leur permettre d’optimiser les investissements en amont. D’autre part, les producteurs, les transporteurs et les distributeurs pourraient anticiper les incidents et les traiter plus rapidement et à moindre coût.</p>
<p>Le succès des services d’analyse des données réseau de la <i>start-up</i> étasunienne C3 Energy confirme cette opportunité. Elle utilise un algorithme d’agrégation de données hébergées dans le <i>cloud</i> : données de comptage télé-relevées depuis les concentrateurs, données provenant des compteurs intelligents déployés chez les consommateurs, données marchés achetées à des entreprises comme CalStarn Data Quick, Google, Energy Star…  Les solutions de C3 Energy ont ainsi permis aux gros distributeurs et fournisseurs américains de réaliser 12 milliards de dollars d’économies depuis 2009 grâce à une meilleure gestion des incidents et du maintien de l’équilibre production/consommation.</p>
<h2>Affiner la connaissance client pour mieux cibler ses offres</h2>
<p>Les acteurs de l’énergie peuvent également s’inspirer des secteurs du web, de la grande distribution, du transport et de l’assurance. Ces derniers utilisent la valorisation de la donnée pour affiner la connaissance client et développer des offres plus en adéquation avec leurs besoins spécifiques.</p>
<p>Des initiatives existent déjà : Nest, par exemple, propose un thermostat intelligent qui auto-apprend les préférences de l’utilisateur (confort, rythme de vie) et s’adapte à l’environnement extérieur (conditions météo). Le <i>business model</i> de la <i>start-up</i> Californienne repose sur le volume de données gigantesque dont elle devient dépositaire : cela lui permet de proposer aux utilisateurs des services complémentaires en partenariat avec les énergéticiens. Elle travaille notamment avec certains fournisseurs pour faciliter les actions d’effacement pendant les pics de demande. Ce système combine donc connaissance client et amélioration des processus internes.</p>
<p>L’utilisation des données hors-secteur et l’analyse des informations diffusées par les utilisateurs eux-mêmes sur les réseaux sociaux par exemple, sont deux leviers ambitieux de développement à activer pour tirer parti à 100% des possibilités apportées par le <i>Big data</i>. ERDF a fait le pari de l’exploitation des données extra-sectorielles pour développer son outil cartographique PRECARITER. Ce service statistique à destination des collectivités territoriales recoupe un éventail de données publiques portant sur le parc résidentiel français, sur la mobilité, les ménages, leurs revenus et certaines données collectées par ERDF.</p>
<p><i>Au regard de la valeur ajoutée apportée par la valorisation de la donnée dans d’autres secteurs, les opportunités de valorisation dans l’énergie sont importantes.</i></p>
<hr align="left" size="1" width="33%" />
<div>
<p><a title="" href="#_ftnref1">[1]</a> Les désormais 4 V du Big data</p>
</div>
</div>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/11/quand-la-valorisation-de-la-donnee-bouleversera-le-secteur-energetique/">Quand la valorisation de la donnée bouleversera le secteur énergétique…</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Objets connectés : vers une révolution du métier de l’assurance ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2014/10/objets-connectes-vers-revolution-du-metier-lassurance/</link>
		
		<dc:creator><![CDATA[Patrick Durand]]></dc:creator>
		<pubDate>Wed, 29 Oct 2014 08:00:48 +0000</pubDate>
				<category><![CDATA[Métiers - Assurance]]></category>
		<category><![CDATA[Métiers - Digital & innovation]]></category>
		<category><![CDATA[assurance]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[objets connectés]]></category>
		<category><![CDATA[quantified self]]></category>
		<category><![CDATA[smart]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=5902</guid>

					<description><![CDATA[<p>Connaître en temps réel son taux d’oxygène dans le sang ou le nombre de calories brûlées après un footing semble devenir presque banal ! Des Google Glass à l’Apple Watch, les objets connectés se multiplient, toujours plus innovants. En 2020, ils...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/10/objets-connectes-vers-revolution-du-metier-lassurance/">Objets connectés : vers une révolution du métier de l’assurance ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Connaître en temps réel son taux d’oxygène dans le sang ou le nombre de calories brûlées après un footing semble devenir presque banal ! Des <i>Google Glass</i> à l’Apple Watch, les objets connectés se multiplient, toujours plus innovants. En 2020, ils seront au nombre de 80 milliards pour un marché estimé par le cabinet Gartner à 1900 milliards de dollars. Des chiffres vertigineux qui laissent entrevoir un marché plus que prometteur.</p>
<p>Pour les assureurs, les objets connectés sont bien plus qu’une mode, ils constituent un gisement de croissance à exploiter. Car ces objets se développent sur trois de leurs marchés clés : celui des transports et de la mobilité (sécurité, contrôle et suivi de la conduite&#8230;), celui de l’habitation (équipements, énergie, sécurité, confort…) et celui de la Santé et des Wearables (sport, suivi physiologique…).</p>
<h2>Objets connectés : de nombreuses opportunités…</h2>
<p><b>Tout d’abord, améliorer l’image de marque. </b>En développant de nouvelles offres en phase avec les innovations digitales, les assureurs vont indéniablement moderniser leur image aux yeux du grand public. Ceux qui proposeront des objets connectés seront aussi perçus comme étant plus attentifs à leurs clients. En effet, les objets connectés permettent de proposer aux assurés de véritables services. L’exemple des lentilles intelligentes développées par Google et Novartis est révélateur : en mesurant la présence de glucose dans le liquide lacrymal, ces lentilles permettront aux diabétiques de mesurer en temps réel leur taux de glycémie. Dans le domaine de l’assurance santé, c’est donc l’occasion pour eux de sortir d’un simple rôle d’indemnisation (auquel les récentes évolutions de la règlementation pourraient les cantonner), sans véritable levier de différenciation, pour proposer de nouveaux services et accompagner leurs assurés tout au long du parcours de soins. Ils développeront ainsi la relation de confiance qu’ils entretiennent avec ces derniers. De quoi vaincre certaines réticences, côté client, dans l’utilisation des objets connectés ?</p>
<p><b>Ensuite, attirer de nouveaux clients. </b>Les assureurs peuvent aussi exploiter les objets connectés pour stimuler la consommation en renouvelant leurs offres sur des marchés matures (automobile, habitation, etc.). C’est d’ailleurs ce qu’a choisi de faire Allianz, en lançant avec TomTom son système Pay how you drive, qui permet à l’assuré de payer en fonction de son contexte de conduite (routes empruntées, conditions de trafic&#8230;).</p>
<p><b>Mais aussi, développer la connaissance client. </b>L’une des grandes opportunités offertes aux assureurs par les objets connectés est de mieux connaître les comportements et habitudes de leurs clients, en collectant une immense quantité de données (Big Data). Le Health Patch de la société Vital Connect fournit par exemple à l’usager un grand nombre d’indicateurs physiologiques, comme le rythme cardiaque ou encore le niveau de stress. Mais l’intérêt des objets connectés ne réside pas seulement dans l’immense quantité de données qu’ils collectent. Ils en facilitent également l’exploitation grâce à des capteurs dédiés qui enregistrent des informations spécifiques. En recourant à ces technologies, les assureurs pourraient segmenter plus finement leurs portefeuilles et donc proposer des offres commerciales mieux ciblées.</p>
<p><b>Enfin, optimiser la gestion des risques.</b> Les objets connectés peuvent également permettre aux assureurs de réduire leurs coûts en axant davantage leurs offres sur la prévention des risques et également grâce à une intervention plus rapide et plus efficace des services d’assistance. Des éléments qui auront pour impact évident de réduire le nombre de sinistres et de limiter les dommages et leur coût en cas de sinistre. On peut citer en exemple la caméra de vidéosurveillance développée par la société française Kiwatch qui permet un accès direct aux vidéos depuis un terminal connecté à internet : les utilisateurs peuvent donc savoir en temps réel si leur domicile ne subit pas d’effraction… même s’ils sont à l’autre bout de la planète. Autrement dit : prévenir plutôt que guérir.</p>
<h2>Des opportunités sources de défis considérables</h2>
<p>Développer des offres reposant sur le marché des objets connectés remet en cause le métier traditionnel des assureurs, historiquement centré sur une offre de services, à savoir l’indemnisation des sinistres. L’adaptation au « tout connecté » implique une modification profonde du business model classique des assureurs.</p>
<p>Quelles propositions de valeur pour les assureurs ? Comment gagner en légitimité ? Quels rôles pour les assureurs, quelles stratégies de partenariats, quels écosystèmes construire et comment les animer ? Quel marketing en rupture pour ces nouvelles offres ? Comment relever les défis technologiques, passer du gadget à un service industriel ? Par ailleurs, la collecte massive de données à caractère personnel génère des inquiétudes légitimes. Surtout lorsqu’il s’agit de données de santé ! Les réseaux permettant la collecte des données sont-ils vraiment sécurisés ? La législation actuelle garantit-elle le respect des principes éthiques dans l’exploitation des données ? Les assureurs doivent s’interroger : comment créer un climat de confiance avec leurs clients ?</p>
<p>Autant de questions qui laissent penser que si les opportunités économiques sont immenses, les défis qu’elles impliquent le sont tout autant. Face à un marché en pleine construction, les assureurs devront faire preuve d’audace mais aussi de prudence.</p>
<p><i>En dépit des risques, il est évident que les assureurs doivent prendre position sur ce nouveau marché s’ils ne veulent pas se retrouver progressivement marginalisés et cantonnés au rôle de « payeur / indemnisateur ». D’autres acteurs, dotés de moyens parfois considérables se positionnent déjà sur ce marché. Le prochain article proposera quelques clés pour bien appréhender le virage que représentent les objets connectés dans le monde de l’assurance.</i></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/10/objets-connectes-vers-revolution-du-metier-lassurance/">Objets connectés : vers une révolution du métier de l’assurance ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Open API ou Open Data ? Le cœur des DSI chavire…</title>
		<link>https://www.riskinsight-wavestone.com/en/2014/07/open-api-open-data-coeur-dsi-chavire/</link>
		
		<dc:creator><![CDATA[Lise Gasnier]]></dc:creator>
		<pubDate>Thu, 31 Jul 2014 01:09:06 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Innovation]]></category>
		<category><![CDATA[open api]]></category>
		<category><![CDATA[open data]]></category>
		<category><![CDATA[ouverture du SI]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=5631</guid>

					<description><![CDATA[<p>L’Open data, littéralement « données ouvertes » vise à rendre des données numériques accessibles et utilisables par tous. Ce mouvement s’impose petit à petit du côté du service public français. Dernier exemple en date : l’annonce par le gouvernement le 16 juillet dernier...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/07/open-api-open-data-coeur-dsi-chavire/">Open API ou Open Data ? Le cœur des DSI chavire…</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>L’Open data, littéralement « données ouvertes » vise à rendre des données numériques accessibles et utilisables par tous. Ce mouvement s’impose petit à petit du côté du service public français. Dernier exemple en date : l’annonce par le gouvernement le 16 juillet dernier de la transcription sous ordonnance de la directive européenne du 26 juin 2013 qui obligera bibliothèques, archives et musées à libérer leurs fonds documentaires dans un an au plus tard. Côté entreprises, l’heure de l’« open » est au questionnement, quelques succès médiatisés d’Open API font des envieux…</em></p>
<h2>Les 8 caractéristiques de l’Open data</h2>
<p><i>Selon les critères retenus par L’Open Government Data</i><sup>1</sup><i>, </i><i style="line-height: 1.5em;">pour être « ouvertes », </i><i style="line-height: 1.5em;">les données doivent être :</i></p>
<p style="padding-left: 30px;">1. <strong>Complètes </strong>: exception faite de celles relevant de la vie privée, la sécurité ou des privilèges d’accès,</p>
<p style="padding-left: 30px;">2. <strong>Élémentaires</strong> : diffusées telles que collectées à la source, sans avoir été agrégées ou modifiées,</p>
<p style="padding-left: 30px;">3. <strong>Opportunes</strong> : mises à disposition rapidement pour garder toute leur valeur,</p>
<p style="padding-left: 30px;">4. <strong>Accessibles </strong>: au plus grand nombre d’utilisateurs possible,</p>
<p style="padding-left: 30px;">5. <strong>Exploitables</strong> : dans un format qui permet leur utilisation ; lemonde.fr épinglait récemment la HATVP (« Haute Autorité pour la Transparence de la Vie Publique ») sur le manque d’exploitabilité de ses données ouvertes. Le format .pdf utilisé pour la publication du patrimoine des ministres, le 27/06, a en effet contraint les data journalistes à un travail laborieux de structuration<sup>2</sup>,</p>
<p style="padding-left: 30px;">6. <strong>Non discriminatoires</strong> : sans inscription préalable,</p>
<p style="padding-left: 30px;">7. <strong>Non propriétaires</strong> : non soumises à un usage exclusif,</p>
<p style="padding-left: 30px;">8. <strong>Libres de droits</strong></p>
<h2>Une ouverture des données timorée côté entreprises</h2>
<div>
<p>Les fondements philosophiques et politiques de l’ouverture des données sont anciens (voir la déclaration des droits de l’homme de 1789<sup>3</sup>). Mais, l’Open data bénéficie aujourd’hui de l’élan culturel et technologique du web 2.0, de l’internet des objets et du Big data qui favorise l’accessibilité et la réutilisation des données numériques. Il s’agit d’un véritable accès universel à l’information.</p>
<p>Côté institutionnel, l’Open data est en marche. En 2009, le gouvernement américain faisait décoller la tendance avec le site <a title="Site officiel américain - Data gov" href="http://www.data.gov/" target="_blank">data.gov</a>. En France, la mission Etalab, placée sous l&#8217;autorité du Premier ministre, est chargée en 2011, de la mise en ligne du portail interministériel <a title="Site officiel français - Data gouv" href="http://www.data.gouv.fr/" target="_blank">data.gouv.fr</a>. Depuis, l’essor du mouvement dans l’administration est surtout visible à travers les médias en ligne où les data journalistes « font parler » les données rendues publiques.</p>
<p>La consommation tout autant que la production Open data reste en revanche très timide du côté des entreprises françaises.</p>
<div>
<h2>Quels avantages pour les entreprises ?</h2>
<p>Les bénéfices des initiatives Open data sont variables :</p>
<ul>
<li>Pour le secteur public, ils s’articulent principalement autour de l’obligation de transparence<sup>4</sup>, du soutien à l’économie numérique et de l’amélioration des services de l’état.</li>
<li>Les entreprises quant à elles s’intéressent à l’innovation autour de leurs données. L’une de leurs préoccupations majeures est d’ailleurs de contrôler leur réutilisation. Elles sont souvent séduites par le choix d’une ouverture moins « universelle », à travers des partenariats ou des services payants.</li>
</ul>
<p><a href="http://www.solucominsight.fr/wp-content/uploads/2014/07/open-data-benefices.png"><img loading="lazy" decoding="async" class="aligncenter  wp-image-5635" src="http://www.solucominsight.fr/wp-content/uploads/2014/07/open-data-benefices.png" alt="open data benefices" width="474" height="272" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2014/07/open-data-benefices.png 1643w, https://www.riskinsight-wavestone.com/wp-content/uploads/2014/07/open-data-benefices-120x70.png 120w, https://www.riskinsight-wavestone.com/wp-content/uploads/2014/07/open-data-benefices-332x191.png 332w, https://www.riskinsight-wavestone.com/wp-content/uploads/2014/07/open-data-benefices-68x39.png 68w" sizes="auto, (max-width: 474px) 100vw, 474px" /></a></p>
<h2>L’Open API : une ouverture alternative attrayante</h2>
<p>L’Open API consiste à exposer à des tiers autorisés une interface de programmation permettant l’accès à ses données propres. L’accès aux services est sous contrôle du fournisseur mais l’orchestration des appels et l’usage des données qui en résultent sont du ressort du consommateur.</p>
<p>À l’échelle mondiale, cette tendance ne se dément pas depuis le milieu des années 2000. Twitter, google, facebook, netflix et accuweather affichent des milliards de requêtes par jour.  En France, Crédit Agricole, Orange et la SNCF en sont les précurseurs. Ouvert en 2011, l’emblématique CA Store propose aujourd’hui près de 43 applications<sup>5</sup> et son accès, un temps payant &#8211; 0,79€ par mois, est devenu gratuit en novembre 2013. Les modèles économiques restent à inventer…</p>
<h2><strong>Data ou API : que choisir ? Du reste, faut-il choisir ? </strong></h2>
<p>Une entreprise qui se lance dans l’ouverture a donc le choix.</p>
<p>Si l’entreprise cherche à développer son offre de service et est prête à investir, la stratégie API lui permettrait a priori de contrôler plus finement l’usage des données, de supporter des exigences de sollicitations plus fortes (temps réel, performance, montée en charge, logique métier notamment) et de cibler les développeurs qui portent les promesses d’innovation.</p>
<p>Si elle souhaite simplement optimiser le partage de données numériques vers un écosystème de clients, concurrents, partenaires, fournisseurs… en évolution, elle pourra se contenter d’une publication plus simple de donnée type Open data.</p>
<p>Rien n’empêche de combiner les stratégies  pour différentier l’ouverture en fonction des types de données et adresser des cibles de consommateurs de données variées. Il faut en revanche avoir les idées claires avant de se lancer dans la démarche et la construction d’une plateforme.</p>
</div>
<div></div>
<div></div>
<div></div>
<div></div>
<hr align="left" size="1" width="33%" />
<div>
<p><sup>1 </sup>Groupe de travail de l’Open Knowledge Fundation qui se présente comme le réseau social des passionnés de l’« ouverture ». L’Open Data Government n’est pas la seule structure à proposer des « règles » d’ouverture : la sunlight fundation a elle-même établi une liste de 10 critères… qui s’en rapproche.</p>
</div>
<div>
<p><sup><span style="font-size: 12px;">2 </span></sup>http://data.blog.lemonde.fr/2014/06/27/patrimoines-des-ministres-une-transparence-encore-imparfaite/</p>
<p><sup><span style="font-size: 12px; line-height: 1.5em;">3</span></sup><span style="line-height: 1.5em;">« La Société a le droit de demander compte à tout Agent public de son administration ». Article XV du texte.</span></p>
<div>
<p><sup>4 </sup>Loi n° 78-753 du 17 juillet 1978; modifiée en 2005 par ordonnance : « Tout document détenu par l&#8217;administration, qu&#8217;il soit ou non produit par elle peut être demandé par un citoyen, directement ou (en cas de refus) par l&#8217;intermédiaire de la CADA (Commission d’accès aux documents administratifs) »</p>
</div>
<div>
<p><sup>5 </sup>Voir directement sur le site <a href="https://www.creditagricolestore.fr/catalogue.html">https://www.creditagricolestore.fr/catalogue.html</a>.</p>
</div>
</div>
</div>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/07/open-api-open-data-coeur-dsi-chavire/">Open API ou Open Data ? Le cœur des DSI chavire…</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Ressources Humaines et Big data, quel avenir ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2014/05/ressources-humaines-big-data-quel-avenir/</link>
		
		<dc:creator><![CDATA[Pascal Nicaud]]></dc:creator>
		<pubDate>Fri, 23 May 2014 15:26:48 +0000</pubDate>
				<category><![CDATA[Métiers - Ressources Humaines]]></category>
		<category><![CDATA[Métiers - Stratégie d’entreprise]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Recrutement]]></category>
		<category><![CDATA[Ressources Humaines]]></category>
		<category><![CDATA[RH]]></category>
		<category><![CDATA[talent management]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=5428</guid>

					<description><![CDATA[<p>Depuis la Caisse Nationale d&#8217;Assurance Maladie qui analyse les pathologies à grande échelle grâce aux prescriptions des médecins, jusqu&#8217;aux Avionneurs qui étudient les données produites par les moteurs de leurs avions, en passant par Netflix qui produit House of Cards,...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/05/ressources-humaines-big-data-quel-avenir/">Ressources Humaines et Big data, quel avenir ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><i>Depuis la Caisse Nationale d&#8217;Assurance Maladie qui analyse les pathologies à grande échelle grâce aux prescriptions des médecins, jusqu&#8217;aux Avionneurs qui étudient les données produites par les moteurs de leurs avions, en passant par Netflix qui produit House of Cards, série conçue notamment grâce à l&#8217;analyse des données de leurs propres clients, le Big data connaît une expansion très forte , rapide et diversifiée. </i></p>
<p><i>Considéré comme l’un des principaux enjeux économiques des prochaines années, c’est tout naturellement que les Ressources Humaines s’y intéressent… mais pour quelle utilisation?</i></p>
<h2><b>Big data, de quoi parle-t-on ?</b></h2>
<p>Le Big data peut se définir comme la volonté d’explorer la masse dynamique de données des systèmes interconnectés pour prendre des décisions sur des variables pertinentes. Les « données » mentionnées peuvent être aussi bien internes aux entreprises qu’externes et propres au web 2.0. Plus généralement, ce sont toutes les informations générées sciemment ou non, volontairement ou non sur la toile : d’un simple clic sur une annonce, au retwitt (RT) sur Twitter, en passant par la mise en ligne d’une photo sur Instagram ou Facebook.</p>
<p>En résumé, le Big data permet de croiser tous les types d’informations, qu’elles soient internes ou externes et de les analyser de manière transversale.</p>
<h2><b>Big data et recrutement : une application déjà amorcée </b></h2>
<p>Le Big data dans le recrutement consiste à utiliser les techniques d’<em>Advanced Business Analysis</em> pour le stockage des données employeurs, des candidats, l’analyse et la gestion du processus de recrutement intégral.</p>
<p>Les données en question peuvent être  internes (mesure de la performance, entretiens d’évaluation, relevé des absences, activité sur l’intranet, etc.) ou externes, générées soit par les réseaux sociaux (Facebook, Twitter, Tumblr, Pinterest, etc.), soit par les réseaux sociaux professionnels (Viadeo, LinkedIn), ou encore via les<em> jobbards</em> (Monster, etc.)…</p>
<p>Outre le CV mis en ligne, il s’agit de consultations d’annonces, d’échanges de messages, de visites de profils, de commentaires, de clics, de géolocalisation, d’habitudes de navigation, etc.</p>
<p>Ces dernières années, les RH ont d&#8217;ailleurs connu plusieurs révolutions. Tout d&#8217;abord avec internet qui a largement bouleversé le comportement des DRH dans leurs recrutements. Et puis avec la révolution du 2.0 et des réseaux sociaux, qui a permis de développer l&#8217;interactivité avec les candidats et a abouti à une diversification des canaux de recrutement.</p>
<p>Ces révolutions technologiques permettent aux acteurs des Ressources Humaines d’avoir à leur disposition une importante quantité d’informations. Cependant, la masse d’informations est telle qu’ils peuvent éprouver des  difficultés à les trier. Aujourd&#8217;hui, 9 directeurs des RH sur 10 affirment être affectés par le déluge de données et estiment ne pas disposer des outils nécessaires pour sélectionner les bons candidats parmi l&#8217;ensemble des profils qui leur parviennent.</p>
<p>Avec le Big data et surtout son application au recrutement, il devient justement possible face à ce flux de données de <strong>mieux identifier les informations pertinentes</strong> mais également de <strong>créer de la valeur</strong> et donc d’<strong>améliorer la détection des bons profils</strong>.</p>
<h2><b>Big Data et recrutement : les limites de l’exercice </b></h2>
<p>Intégrer le Big data au monde de l’entreprise et plus particulièrement au secteur des Ressources Humaines, nécessite quelques prérequis :</p>
<ul>
<li>Accéder aux données car elles constituent le cœur du Big data</li>
<li>Disposer de ressources capables d’analyser ces données (compétences en matière de traitement statistiques de données par exemple)</li>
<li>Intégrer le Big data à une politique RH globale car il ne peut être utilisé sans recul. Cela peut passer par diverses réflexions : l<span style="line-height: 1.5em;">a direction indiquée /prédite par les chiffres est-elle réellement celle que l’entreprise souhaite prendre ? </span><span style="line-height: 1.5em;">Est-ce vraiment avec les données passées que l’on prévoit le mieux l’avenir ? Comment a</span>nalyser l’impact de ces nouveaux outils face aux outils existants, notamment en matière de <em>talent management</em> ou de recrutement.</li>
</ul>
<p>La place grandissante des données et de leur exploitation, dans une activité où les Relations humaines restent incontournables, peut amener quelques interrogations sur l’aspect supposé prédictif :</p>
<ul>
<li>Que représentera le Big data dans la prise de décision des recruteurs ?</li>
<li>Le Big data ne garantit pas le risque Zéro. Et si les utilisateurs trouvaient une parade ? Comment savoir s’ils ne feignent pas, comme dans « la vraie vie », le comportement qu’ils savent attendu par les recruteurs ?</li>
<li>L’analyse des données permet de repérer des profils qui auraient pu être écartés car ne répondant pas aux critères « habituels et subjectifs », mais que penser d’une société à la recherche de la reproduction à l’infini du « profil type » ?</li>
<li>De combien de talents inactifs sur la toile se prive-t-on ?</li>
</ul>
<h2><b>Big data et recrutement : un cadre qui reste à définir</b></h2>
<p>Avant de se lancer dans une démarche Big data, il faut prendre soin de s&#8217;interroger sur différentes problématiques clés :</p>
<ul>
<li>L’intrusion dans la vie privée et l’accès aux données sans l’accord des utilisateurs peut porter un vrai risque d’image pour les employeurs.</li>
<li>L’asymétrie d’accès aux données est-elle acceptable ? Seules les entreprises qui en ont les moyens techniques et financiers pourront y accéder.</li>
<li>Le cadre déontologique et légal doit être défini : les entreprises qui ont recours au Big data sont-elles transparentes quant à l’utilisation qui est faite des données générées ? Quelle garantie les employeurs donnent-ils quant à une utilisation des analyses de données à bon escient (qui reste à définir !) ?</li>
<li>Quelle structure ou organisation aura la capacité de contraindre les acteurs privés au respect de la vie privée, de la déontologie, etc ?</li>
</ul>
<p>Tout en apparaissant comme un enjeu incontournable à moyen ou long terme, le Big data dans les Ressources Humaines se heurte ainsi à des limites qui peuvent freiner sa progression. Cette innovation reste cependant à suivre de très près car nous, les acteurs RH, restons, par l’utilisation que nous en ferons ainsi que par la place que nous lui accorderons, moteurs de son devenir.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/05/ressources-humaines-big-data-quel-avenir/">Ressources Humaines et Big data, quel avenir ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>[Infographie] Le Big data aujourd&#8217;hui</title>
		<link>https://www.riskinsight-wavestone.com/en/2014/05/infographie-big-data-aujourdhui/</link>
		
		<dc:creator><![CDATA[Alexandra Le Borgne]]></dc:creator>
		<pubDate>Fri, 16 May 2014 09:27:46 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[données]]></category>
		<category><![CDATA[infographie]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=5389</guid>

					<description><![CDATA[<p>Données de circulation urbaine, enregistrements médicaux, compteurs électriques communicants, historiques d&#8217;internet&#8230; Le big Data regorge d&#8217;opportunités, à condition de réussir à décrypter et analyser en temps réel les données. Que se cache-t-il derrière cette notion de &#8220;Big data&#8221; ? Découvrez-le au...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/05/infographie-big-data-aujourdhui/">[Infographie] Le Big data aujourd&#8217;hui</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="line-height: 1.5em;">Données de circulation urbaine, enregistrements médicaux, compteurs électriques communicants, historiques d&#8217;internet&#8230; Le big Data regorge d&#8217;opportunités, à condition de réussir à décrypter et analyser en temps réel les données.</span></p>
<p>Que se cache-t-il derrière cette notion de &#8220;Big data&#8221; ? <a title="SolucomINSIGHT - Big data" href="http://www.solucominsight.fr/category/dossiers/big-data-dossiers/" target="_blank">Découvrez-le au travers des articles de nos consultants</a> !</p>
<p><a href="http://www.solucominsight.fr/wp-content/uploads/2014/05/Infographie-Big-Data_vSolucom-insight.png"><img loading="lazy" decoding="async" class="alignnone  wp-image-5413" alt="Infographie Big Data_Solucom" src="http://www.solucominsight.fr/wp-content/uploads/2014/05/Infographie-Big-Data_vSolucom-insight.png" width="624" height="432" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2014/05/Infographie-Big-Data_vSolucom-insight.png 1040w, https://www.riskinsight-wavestone.com/wp-content/uploads/2014/05/Infographie-Big-Data_vSolucom-insight-276x191.png 276w, https://www.riskinsight-wavestone.com/wp-content/uploads/2014/05/Infographie-Big-Data_vSolucom-insight-56x39.png 56w, https://www.riskinsight-wavestone.com/wp-content/uploads/2014/05/Infographie-Big-Data_vSolucom-insight-245x170.png 245w" sizes="auto, (max-width: 624px) 100vw, 624px" /></a></p>
<p>Sources : <a href="http://www.ibmbigdatahub.com/infographic/four-vs-big-data">IBM</a>, <a href="http://www.mckinsey.com/insights/business_technology/big_data_the_next_frontier_for_innovation">McKinsey Global Institute</a>, <a href="http://www.forrester.com/Big-Data">Forrester</a>, <a href="https://blog.twitter.com/2013/celebrating-twitter7">Twitter</a>, <a href="http://www.cisco.com/c/en/us/solutions/data-center-virtualization/big-data/index.html">Cisco</a>, <a href="http://www.gartner.com/newsroom/id/2593815">Gartner</a>, <a href="https://www.iconfinder.com/">iconfinder</a></p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/05/infographie-big-data-aujourdhui/">[Infographie] Le Big data aujourd&#8217;hui</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Au menu du Big data, 3 formules : à intégrer, packagé ou dans le nuage</title>
		<link>https://www.riskinsight-wavestone.com/en/2014/03/au-menu-du-big-data-3-formules-integrer-package-nuage/</link>
		
		<dc:creator><![CDATA[Clément Morizot]]></dc:creator>
		<pubDate>Wed, 26 Mar 2014 10:41:12 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[BDaaS]]></category>
		<category><![CDATA[best of breed]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Cloud computing]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=5289</guid>

					<description><![CDATA[<p>Dans un monde où les limites techniques du SI freinaient l’extension du business, le Big data promet de s’en affranchir et d’apporter plus de valeur au métier. De fait, il suscite un intérêt grandissant auprès de ces derniers mais aussi...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/03/au-menu-du-big-data-3-formules-integrer-package-nuage/">Au menu du Big data, 3 formules : à intégrer, packagé ou dans le nuage</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="line-height: 1.5em;">Dans un monde où les limites techniques du SI freinaient l’extension du business, le <em>Big data</em> promet de s’en affranchir et d’apporter plus de valeur au métier. De fait, il suscite un intérêt grandissant auprès de ces derniers mais aussi auprès des DSI ; qui commencent à étudier, expérimenter voire, pour les plus avancés, construire des offres Big data au sein de leurs systèmes d’information.</span></p>
<p>Néanmoins, choisir l’approche adéquate et investir sur une ou des solutions reste une étape complexe. Regardons de plus près le menu, et observons les différents types d’offres aujourd’hui disponibles et leur intérêt en fonction des usages.</p>
<h2>Le <em>Big data</em> casse les limites traditionnelles : tout est dans la puissance du nombre</h2>
<p>Traditionnellement, les architectures techniques sont construites à partir de serveurs « <i><a title="Wikipedia - standalone" href="http://fr.wikipedia.org/wiki/Standalone" target="_blank">standalone</a></i>». À gros besoins, gros serveurs. En d’autres termes, plus le besoin de puissance ou de stockage est important, plus les serveurs utilisés sont robustes. Mais, cette approche a une limite finie et ne permet pas de gérer les très grands ensembles de données.</p>
<p>Avec le <em>Big data</em> on change de paradigme : le concept clé des architectures <em>Big data</em> est la distribution ! On distribue les données et les traitements sur un nombre virtuellement infini de ressources. On <b><i>exploite la puissance du nombre</i></b>. C’est la clé pour casser les limites traditionnelles et accéder à une capacité de stockage et de traitement sans limites. L’ensemble des offres <em>Big data</em> repose sur ce principe.</p>
<h2>Quelles sont les formules au menu du jour ?</h2>
<p>La 1<sup>ère</sup> formule s’appuie sur <b>le <a title="JDN - Définition best of breed" href="http://www.journaldunet.com/encyclopedie/definition/301/51/20/best_of_breed.shtml" target="_blank">Best Of breed</a>. </b> Il s’agit ici de faire du <em>Big data</em> en intégrant et capitalisant sur ses ressources IT. Comment ? L’entreprise se construit un environnement distribué en agrégeant ses infrastructures conventionnelles via l’intégration d’une distribution logicielle <em>Big data</em> (de type Hadoop par exemple). N’ayant pas d’investissement matériel, le coût d’investissement pour ce type d’offre reste raisonnable mais engage les entreprises à monter en compétence pour concevoir et mettre en place la nouvelle plateforme.  Ce type de solution est principalement destiné aux entreprises avec un besoin d’évolutivité et d’appropriation fort. Les banques d’investissement en sont un excellent exemple par leur nécessité d’expérimentation permanente, qui les force à innover pour répondre aux enjeux métiers.</p>
<p>La seconde formule s’appuie sur les offres d’<b>« Appliance <em>Big data</em>»</b> : le vendeur va proposer à ses clients une infrastructure sur étagère où matériel et logiciels sont intégrés, pré-configurés et optimisés. C’est une boîte noire, mais l’architecture interne s’appuie sur la logique de distribution : elle encapsule des dizaines de petits serveurs. Ce modèle a le désavantage d’avoir un coût d’investissement élevé mais délivre une efficacité opérationnelle immédiate : il s’adresse principalement aux entreprises qui recherchent cette efficacité et qui sont en capacité de cadrer leurs besoins avec le vendeur.</p>
<p>La dernière offre est légitimement <b>le Cloud.</b> Pourquoi le Cloud ? Et bien parce qu’il est le plus à même de mettre à disposition des entreprises un nombre de ressources presque illimité. On distingue deux offres : celles de type <b>« IaaS »</b> où l’entreprise intégrera elle-même « sa distribution <em>Big data </em>» aux infrastructures louées dans le nuage. Mais, la tendance est plutôt au <b>« BDaaS »</b> (<em>Big data as a Service</em>) : le nuage provisionne un environnement <em>Big data</em> intégré, opérationnel et élastique. L’intérêt de ces offres <i>Cloud</i> est le coût (à l’usage) et la rapidité de mise en place, qui en fait une cible parfaite pour des usages de type POC afin de tester la valeur du <em>Big data</em> pour l’entreprise. Pour les prototypes opérationnels, des questions autour de la sécurité et des données peuvent se poser et les rendre moins attrayantes.</p>
<p>Au final, les socles d’exécution <em>Big data</em> sont bien là ! Le choix de l’un d’entre eux nécessite dans tous les cas une phase d’analyse des besoins et des enjeux afin de trouver l’optimum économique au regard des usages.</p>
<p>&nbsp;</p>
<p><img loading="lazy" decoding="async" class="wp-image-5308 aligncenter" src="http://www.solucominsight.fr/wp-content/uploads/2014/03/big-data.png" alt="big data" width="426" height="158" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2014/03/big-data.png 5863w, https://www.riskinsight-wavestone.com/wp-content/uploads/2014/03/big-data-437x162.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2014/03/big-data-71x26.png 71w" sizes="auto, (max-width: 426px) 100vw, 426px" /></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2014/03/au-menu-du-big-data-3-formules-integrer-package-nuage/">Au menu du Big data, 3 formules : à intégrer, packagé ou dans le nuage</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Quand Big data et e-commerce font bon ménage…</title>
		<link>https://www.riskinsight-wavestone.com/en/2013/12/quand-big-data-et-e-commerce-font-bon-menage/</link>
		
		<dc:creator><![CDATA[Remi Favre]]></dc:creator>
		<pubDate>Mon, 09 Dec 2013 13:42:49 +0000</pubDate>
				<category><![CDATA[Métiers - Marketing et relation client]]></category>
		<category><![CDATA[A/B testing]]></category>
		<category><![CDATA[Aprimo]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[cross canal]]></category>
		<category><![CDATA[e-commerce]]></category>
		<category><![CDATA[e-crm]]></category>
		<category><![CDATA[fidélisation]]></category>
		<category><![CDATA[IBM]]></category>
		<category><![CDATA[Interact]]></category>
		<category><![CDATA[parcours client]]></category>
		<category><![CDATA[personnalisation]]></category>
		<category><![CDATA[Teradata]]></category>
		<category><![CDATA[Transformation]]></category>
		<category><![CDATA[vision 360]]></category>
		<category><![CDATA[web]]></category>
		<category><![CDATA[webmarketing]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=4735</guid>

					<description><![CDATA[<p>Comme nous l’avons vu dans un précédent article, le Big data est l’occasion de construire une vision 360° de ses clients. Or l’exploitation de la connaissance client est l’une des préoccupations majeures des directions internet et digital sur 2014. La...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/12/quand-big-data-et-e-commerce-font-bon-menage/">Quand Big data et e-commerce font bon ménage…</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p align="left"><em>Comme nous l’avons vu dans un<a title="SolucomINSIGHT - le Big Data au service de la relation client !" href="http://www.solucominsight.fr/2013/12/le-big-data-au-service-de-la-relation-client/" target="_blank"> précédent article</a>, le Big data est l’occasion de construire une vision 360° de ses clients. Or l’exploitation de la connaissance client est l’une des préoccupations majeures des directions internet et digital sur 2014. La raison ? La volonté pour eux d’améliorer encore et toujours l’expérience utilisateur et de générer de nouvelles opportunités. Mais  comment mettre à profit l’amas considérable de données à disposition ? Comment mettre en place la fameuse vision 360° ? Et ainsi limiter le risque d’attrition en répondant aux attentes de consommateurs toujours plus exigeants? Voici les clés d’une stratégie de personnalisation efficace.</em></p>
<h2>Comment construire une nécessaire vision client 360° ?</h2>
<p>La principale source de données reste bien évidemment le CRM<sup>1</sup> de l’entreprise. Mais dans une optique de personnalisation <em>cross-canal</em> et temps réel, ces données doivent être croisées avec d’autres sources d’information.</p>
<p>Tout d’abord, il y a <strong>les données liées aux achats passés ou aux services déjà détenus :</strong> ces dernières sont des informations factuelles rattachées à un client clairement identifié. On s’intéressera entre autres au cycle de vie du client, à sa situation de paiement ou encore à ses préférences de contact. Ces données vont notamment permettre de réaliser une segmentation basée sur la valeur client, et permettre de construire des règles de <em>cross-selling</em> basées sur les services complémentaires aux offres détenues. Elles permettent également d’analyser la fréquence d’achat et détecter la possibilité de <em>churn</em><sup>2</sup>.</p>
<p>À côté de cela, il y a également<strong> les données issues des campagnes sortantes (e-mailing notamment).</strong> Elles permettent de mesurer le degré d’engagement vis-à-vis de la marque et la fidélité. Ces indicateurs peuvent inclure le taux de clics, de désabonnement ou de parrainage.</p>
<p><strong>Le webanalytics </strong>est aussi source d’information : les données recueillies permettent d’analyser finement le comportement des internautes sur internet (centres d’intérêt, requêtes dans le moteur de recherche interne…). Et même si ces données restent anonymes tant que  l’internaute ne s’est pas authentifié, elles constituent néanmoins une solide base pour prédire les intentions d’achat en rapprochant les comportements similaires.</p>
<p>Last but not least,<strong> les réseaux sociaux :</strong> l’analyse des données rattachées à un client via une délégation d’authentification de type <em>Facebook Connect</em> (ou même anonyme) permet de mesurer à la fois l’engagement vis-à-vis d’une marque, mais aussi de détecter les tendances ou l’appétence pour un produit en particulier.</p>
<p>Certes, l’analyse de toutes ces données peut être onéreuse, mais les directions marketing y voient leur intérêt : le<em> Big data</em> est un formidable tremplin pour la relation client.</p>
<h2>Mettre en œuvre une stratégie de personnalisation efficace</h2>
<p>La clé d’une stratégie efficace et personnalisée des parcours client réside dans la capacité à se démarquer de la concurrence en plaçant le client au centre de l’expérience. Pour cela, les équipes webmarketing peuvent s’appuyer sur différents leviers.</p>
<p><strong>Tout d’abord, il faut anticiper le comportement des clients à partir d’un modèle prédictif.</strong> La personnalisation permet d’utiliser les données client pour influencer et encourager les prospects à passer à l’action. L’analyse des données comportementales doit permettre d’établir les schémas types qui amènent à une interaction, par exemple un achat ou l’inscription à une newsletter.</p>
<p><strong>Il est également clé d’automatiser la personnalisation en s’appuyant sur un moteur de recommandation en temps réel.</strong> Ce moteur peut être une solution dédiée, tel qu’<em>Interact d’IBM </em>ou Aprimo de Teradata, ou directement intégrées au CRM. Il est par exemple possible de déterminer en temps réel le montant d’un code promo en fonction du profil du prospect et de sa maturité. Cependant, il convient de s’assurer des performances de ce type de solution : un délai de plus de 500 millisecondes pour afficher une recommandation sur un canal temps réel est rédhibitoire.</p>
<p><strong>Il ne faut pas négliger par ailleurs le concept de personnalisation sur l’ensemble des canaux de contact.</strong> Une campagne marketing sera d’autant plus efficace si elle est cohérente. Une entreprise qui souhaite dématérialiser ses factures pourra par exemple encourager les clients qui ne l’ont pas encore fait à souscrire à la facture en ligne via son espace client et depuis l’interface du conseiller de clientèle. Néanmoins, il convient de tenir compte du contexte (canal entrant ou sortant, préférence de contact…) pour optimiser le message et le délivrer le plus efficacement possible.</p>
<p><strong>Bien entendu, affiner les campagnes personnalisées grâce aux outils d’A/B ou multivariate testing est clé.</strong> Ces outils vont permettre de déterminer quel est le meilleur visuel, le meilleur message ou encore le meilleur produit à recommander en <em>cross-selling</em> par exemple. Le canal internet se prête particulièrement bien à cet exercice qui permet d’obtenir des gains significatifs en termes de conversion.</p>
<p><strong>Enfin, il faut réussir à prioriser le contenu à personnaliser</strong> (bannière, <em>cross-sell</em>, campagne d’e-mailing…) en fonction de l’objectif fixé (rétention, augmentation du taux de transformation, captation de lead…) et du résultat des <a title="Wikipedia - Test A/B" href=" http://fr.wikipedia.org/wiki/Test_A/B" target="_blank">campagnes d’A/B testing</a>, afin d’éviter de se disperser et de réduire l’efficacité de la personnalisation.</p>
<h2>Quels bénéfices attendre de la personnalisation ?</h2>
<p>La personnalisation des parcours apporte au client la reconnaissance et l’intimité qu’il cherche de plus en plus lorsqu’il interagit avec une marque. La navigation devient plus fluide, rapide et intuitive. De son côté, le conseiller peut plus facilement adapter son discours pour prendre en compte les interactions passées (appétence pour un produit particulier, réclamations…).</p>
<p>Les offres se veulent plus attractives pour favoriser la loyauté des consommateurs envers la marque. En s’appuyant sur <em>IBM Interact</em>, SFR a ainsi pu multiplier par 6 le taux de clics sur les bannières proposant du <em>cross-selling</em> personnalisé pour les clients connectés et générer 5000 ventes de plus par mois en agence.</p>
<p>La personnalisation permet, ne le négligeons pas, d’augmenter la rétention client et ainsi de réduire le risque d’attrition. Les programmes de fidélité, de <em>couponing</em> ou la distribution d’échantillons peuvent ainsi être optimisés à partir des actions du client combinées aux tendances identifiées sur les réseaux sociaux pour ce segment.</p>
<p>Une bonne stratégie de personnalisation peut ainsi créer une situation de <em>win-win : </em>vecteur de fidélisation et d’optimisation du ROI<sup>3</sup> des campagnes <em>cross canal, </em>elle permet également de répondre aux attentes des clients. <em>Big data</em> et <em>webmarketing</em> est bel et bien le couple gagnant 2014 de la relation client !</p>
<p>&nbsp;</p>
<p><sup>1</sup> CRM : customer relation management</p>
<div>
<div>
<p><sup>2</sup> Churn : taux d’attrition (perte de clients)</p>
</div>
<div>
<p><sup>3</sup> ROI : return on investment</p>
</div>
</div>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/12/quand-big-data-et-e-commerce-font-bon-menage/">Quand Big data et e-commerce font bon ménage…</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Le Big data au service de la relation client !</title>
		<link>https://www.riskinsight-wavestone.com/en/2013/12/le-big-data-au-service-de-la-relation-client/</link>
		
		<dc:creator><![CDATA[Cyril MAILLET]]></dc:creator>
		<pubDate>Mon, 02 Dec 2013 16:27:09 +0000</pubDate>
				<category><![CDATA[Métiers - Marketing et relation client]]></category>
		<category><![CDATA[Métiers - Telcos]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[ciblage]]></category>
		<category><![CDATA[communication]]></category>
		<category><![CDATA[e-réputation]]></category>
		<category><![CDATA[Marketing]]></category>
		<category><![CDATA[personnalisation]]></category>
		<category><![CDATA[service client]]></category>
		<category><![CDATA[temps réel]]></category>
		<category><![CDATA[vente]]></category>
		<category><![CDATA[vision 360]]></category>
		<category><![CDATA[volume de données]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=4704</guid>

					<description><![CDATA[<p>400 millions de tweets échangés chaque jour, 3600 photos par minute postées sur Instagram, 30 000 likes par seconde sur Facebook … et si toutes ces informations vous permettaient d’améliorer votre relation client grâce à des interactions plus réactives et plus personnalisées ?...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/12/le-big-data-au-service-de-la-relation-client/">Le Big data au service de la relation client !</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>400 millions de tweets échangés chaque jour, 3600 photos par minute postées sur Instagram, 30 000 likes par seconde sur Facebook … et si toutes ces informations vous permettaient d’améliorer votre relation client grâce à des interactions plus réactives et plus personnalisées ? D’après le </em><a title="Gartner Survey Reveals That 64 Percent of Organizations Have Invested or Plan to Invest in Big Data in 2013" href="http://www.gartner.com/newsroom/id/2593815" target="_blank"><em>Gartner</em></a><em>, 64% des entreprises prévoient d’investir dans le Big data d’ici deux ans… et vous ?</em></p>
<h2>Une explosion de données pour une relation client personnalisée</h2>
<p>Le <a title="SolucomINSIGHT : Big data, tour d’horizon 2013 !" href="http://www.solucominsight.fr/2013/06/big-data-tour-dhorizon-2013/" target="_blank">Big data</a>, c’est la capacité technologique à analyser en quasi temps réel un très grand nombre de données :</p>
<ul>
<li>De <strong>nature variée </strong>: déstructurées, dans un langage naturel, de diverses sources (internes ou externes) et formats et dont la véracité ne peut être certifiée ;</li>
<li>Issues de <strong>différents types d’interactions</strong> : géolocalisation, internet des objets, Machine to Machine (M2M), échanges interpersonnels, etc.</li>
</ul>
<p>Aujourd’hui  la <a href="http://www.solucominsight.fr/2013/09/et-si-on-vous-offrait-enfin-une-vision-densemble-du-big-data/">maturité de nouvelles technologies d’analyse</a> permet de traiter l’explosion de ces données d’un genre nouveau et ainsi de visualiser en temps réel des tendances afin d’obtenir une connaissance détaillée et personnelle des clients.</p>
<p>Le Big data permet donc de répondre encore plus efficacement aux <strong>enjeux de la relation client</strong> :</p>
<ul>
<li>Personnaliser facilement les interactions avec le client ;</li>
<li>Proposer des produits et services qui répondent mieux aux attentes des consommateurs ;</li>
<li>Améliorer la satisfaction à chaque étape du parcours client ;</li>
<li>Mieux comprendre, gérer et anticiper l’e-réputation de l’entreprise.</li>
</ul>
<h2><strong> </strong>Valorisez vos données pour améliorer votre relation client !</h2>
<p>Le Big data est au service de plusieurs fonctions de la relation client : communication, vente, marketing et service client.</p>
<p style="text-align: center;" align="center"><a href="http://www.solucominsight.fr/2013/12/le-big-data-au-service-de-la-relation-client/le-big-data-et-la-relation-client/" rel="attachment wp-att-4705"><img loading="lazy" decoding="async" class="aligncenter  wp-image-4705" title="le big data et la relation client" src="http://www.solucominsight.fr/wp-content/uploads/2013/12/le-big-data-et-la-relation-client.jpg" alt="" width="306" height="296" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2013/12/le-big-data-et-la-relation-client.jpg 639w, https://www.riskinsight-wavestone.com/wp-content/uploads/2013/12/le-big-data-et-la-relation-client-198x191.jpg 198w, https://www.riskinsight-wavestone.com/wp-content/uploads/2013/12/le-big-data-et-la-relation-client-40x39.jpg 40w, https://www.riskinsight-wavestone.com/wp-content/uploads/2013/12/le-big-data-et-la-relation-client-32x32.jpg 32w, https://www.riskinsight-wavestone.com/wp-content/uploads/2013/12/le-big-data-et-la-relation-client-30x30.jpg 30w" sizes="auto, (max-width: 306px) 100vw, 306px" /></a></p>
<p>1. En premier lieu, au niveau de la <strong>communication</strong>, grâce à la <strong>surveillance et à l’analyse des conversations en ligne</strong>, le <em>Big data</em> permet de gérer l’e-réputation de l’entreprise et de décupler la notoriété et la visibilité de la marque. C’est l’approche qu’a utilisé Bank Of America en mettant en place un système qui permet de rassembler les requêtes similaires issues de Twitter et de les router vers le service client qui se charge de répondre. Un tel système permet de détecter rapidement les différents ensembles de réclamations sur un sujet similaire et d’y apporter une réponse personnalisée. De cette manière, Bank Of America améliore la satisfaction de ses clients et diminue le risque que certaines plaintes se transforment en phénomène viral pouvant dégrader en quelques heures l’image de l’entreprise.</p>
<p>2. Au niveau de la <strong>vente</strong>, le Big data c’est la possibilité de <strong>générer des leads qualifiés</strong> pour  comprendre le client en temps réel et ajuster l’offre à ses besoins exacts, de saisir les opportunités de vente en identifiant les <em>leads</em> des communautés en temps réel et d’<strong>améliorer le réseau de distribution</strong> en identifiant quel type de client achète sur quel canal à quel moment. En utilisant une telle approche, <a title="Slideshare - Big Data in Retail" href="http://fr.slideshare.net/davidpittman1/big-data-in-retail-16163341" target="_blank">BestMart</a> a été capable de prédire quels seront les jeux vidéo les plus demandés des saisons à venir, quel types de clients les demanderont et où ils les achèteront. De cette manière, BestMart a mis à disposition dans ses magasins le bon nombre de jeux au bon endroit afin de répondre exactement à la demande. L’entreprise a ainsi augmenté ses ventes et la satisfaction de ses clients.</p>
<p>3. Au niveau <strong>marketing</strong>, l’analyse et le suivi des tendances, des comportements et des réactions des consommateurs permet d’<strong>affiner la segmentation</strong>, d’<strong>améliorer le taux de rétention, </strong>d’<strong>adapter le pricing</strong> plus précisément en fonction d’évènements et de réaction du marché et de <strong>mieux cibler les campagnes marketing et publicitaires</strong>. C’est ce type de procédé que TF1 a mis en œuvre en s’alliant à Weborama, spécialiste de la gestion des données. Le but était de  créer une <a title="Connexion Planning : TF1 publicité se lance dans l'exploitation du Big Data" href="http://connexionplanning.australie.com/blog/tf1-publicite-se-lance-dans-lexploitation-du-big-data/" target="_blank">segmentation plus fine</a> de son public de TV en replay grâce au Big data afin de proposer aux annonceurs des profils de cibles plus précis permettant d’améliorer l’impact des publicités.</p>
<p>4. Enfin le Big data permet d’<strong>optimiser la qualité de service</strong> en <strong>capitalisant sur les connaissances clients</strong> pour enrichir et corriger le support, en <strong>améliorant l’expérience client</strong>, en <strong>anticipant les réclamations</strong> et en réduisant le temps de réponse aux situations de crise. Ainsi, lors des <a title="Réseaux-télécoms.net - Les JO de Londres, laboratoires du Big Data" href="http://www.reseaux-telecoms.net/actualites/lire-les-jeux-olympiques-de-londres-laboratoires-du-big-data-24066.html" target="_blank">Jeux Olympiques de Londres 2012</a>, la société des transports londoniens TFL a utilisé une approche Big data pour anticiper les flux de voyageurs et informer ses clients en temps réel de l’état de congestion du réseau. De cette manière, elle a pu gérer son trafic en quasi instantané et réorienter les passagers vers d’autres itinéraires lorsqu’un pic d’affluence était détecté, incitant parfois les voyageurs à marcher pour leur faire gagner du temps.</p>
<p>Avec de tels arguments, un projet d’amélioration de la relation client d’une entreprise peut difficilement s’envisager sans étudier les opportunités offertes par le Big data. Et même si un <a title="SolucomINSIGHT - Big Data : se lancer sur une vision, et pas sur une pulsion" href="http://www.solucominsight.fr/2012/09/big-data-se-lancer-a-sur-dune-vision-et-pas-dune-pulsion/" target="_blank">projet Big data</a> peut s’avérer complexe aussi bien en termes de technologie que d’organisation, il s’avérera être un véritable levier de performance et de satisfaction client.</p>
<h2>Le Big data pour une vision 360° de vos clients</h2>
<p>Le Big data, c’est l’occasion de construire une <strong>vision 360° de ses clients</strong> et <strong>ainsi mieux comprendre et tirer parti de leurs interactions avec l’écosystème de l’entreprise</strong>. Pour comprendre comment mettre en œuvre cette vision et  quels sont les bénéfices concrets qu’une telle approche peut vous apporter, <a title="SolucomINSIGHT - Quand Big data et e-commerce font bon ménage..." href="http://www.solucominsight.fr/2013/12/quand-big-data-et-e-commerce-font-bon-menage/" target="_blank">rendez-vous prochainement sur SolucomINSIGHT</a> !</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/12/le-big-data-au-service-de-la-relation-client/">Le Big data au service de la relation client !</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Et si on vous offrait enfin une vision d’ensemble du Big data ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2013/09/et-si-on-vous-offrait-enfin-une-vision-densemble-du-big-data/</link>
		
		<dc:creator><![CDATA[Jonas Cadillon]]></dc:creator>
		<pubDate>Wed, 18 Sep 2013 12:42:51 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Architecture fonctionnelle]]></category>
		<category><![CDATA[Architecture technique]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Elasticité]]></category>
		<category><![CDATA[Hadoop]]></category>
		<category><![CDATA[Polyvalence]]></category>
		<category><![CDATA[Réactivé]]></category>
		<category><![CDATA[Réutilisation de l’existant]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=4197</guid>

					<description><![CDATA[<p>L’intérêt autour du Big data ne faiblit pas, comme le démontrent les nombreuses publications que l’on peut trouver sur le sujet. Souvent abordé dans la presse sous l’angle business pour vanter les nouveaux apports métiers (optimisation de la relation client,...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/09/et-si-on-vous-offrait-enfin-une-vision-densemble-du-big-data/">Et si on vous offrait enfin une vision d’ensemble du Big data ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>L’intérêt autour du Big data ne faiblit pas, comme le démontrent les nombreuses publications que l’on peut trouver sur le sujet. Souvent abordé dans la presse sous l’angle business pour vanter les nouveaux apports métiers (optimisation de la relation client, des ventes…), ou au contraire focalisé uniquement sur une nouvelle technologie, il n’est pas facile de se forger une vision d’ensemble de l’architecture sous-jacente. Démystifions ici cette complexité apparente, en reposant les principes de fonctionnement des architectures Big data et les bonnes pratiques pour construire le socle technologique optimal.</p>
<h2>Le Big data en 5 grands modules d’architecture fonctionnelle</h2>
<p>D’un point de vue fonctionnel, nous pouvons découper les architectures Big data en cinq grands modules :</p>
<p style="padding-left: 30px;">1. <strong>Collecte</strong> : ce module vise à  récupérer les données à transmettre aux unités de transformation et d’analyse. La collecte peut se faire par lot ou en temps réel sur des données internes ou externes à l’entreprise.</p>
<p style="padding-left: 30px;">2. <strong>Transformation</strong> : il s’agit ici d’extraire les informations utiles des données peu ou non structurées. En les interprétant pour les rendre exploitables et cohérentes, notamment via la constitution d’un catalogue de métadonnées. Cette étape n’est pas obligatoire pour les données déjà structurées.</p>
<p style="padding-left: 30px;">3. <strong>Analyse</strong> : alors que la « transformation » se focalise sur l’enrichissement des données de manière unitaire, l’unité d’analyse va de son côté créer de nouvelles informations par identification, corrélation, agrégation ou projection de l’ensemble des données précédemment transformées. Tout comme pour la « collecte », ces analyses peuvent être effectuées par lot ou en temps réel.</p>
<p style="padding-left: 30px;">4. <strong>Restitution</strong> : l’objectif de ce module est de permettre la visualisation des analyses et l’exploration des données.</p>
<p style="padding-left: 30px;">5. <strong>Stockage</strong> : capable de stocker de très gros volumes de données structurées et non structurées, ce module est généralement sous-découpé de la façon suivante :</p>
<ul>
<ul>
<li>Lac de données permettant d’héberger les données brutes ;</li>
<li>Entrepôt de données stockant les données issues de la transformation ;</li>
<li>Cache d’analyse permettant d’accélérer les traitements en vue de la restitution.</li>
</ul>
</ul>
<p style="text-align: center;"><img loading="lazy" decoding="async" class="aligncenter  wp-image-4225" title="5_modules_architecture_fonctionnelle_big_data" src="http://www.solucominsight.fr/wp-content/uploads/2013/09/5_modules_architecture_fonctionnelle_big_data.png" alt="" width="614" height="248" /></p>
<h2>Quels critères adopter pour construire le socle technologique ?</h2>
<p>Les modules fonctionnels de l’architecture étant posés, quelle stratégie adopter pour bâtir le socle sous-jacent ? Le Big data invite justement à l&#8217;adoption d’un triptyque gagnant pour bien choisir les outils :</p>
<div>
<ul>
<li><strong>Élasticité</strong> : opter pour  des outils capables de  maximiser l’utilisation des ressources mises à disposition et les possibilités de scalabilité horizontale : facilité d’ajout de nœud de stockage et de calcul. Il faudra aussi que ces outils soient indépendants  vis-à-vis des technologies de stockage (<a href="http://fr.wikipedia.org/wiki/R%C3%A9seau_de_stockage_SAN">SAN</a>, <a href="http://fr.wikipedia.org/wiki/Stockage_en_r%C3%A9seau_NAS">NAS</a>, <a href="http://fr.wikipedia.org/wiki/Direct_Attached_Storage">DAS</a>) ou de serveurs  (<a href="http://fr.wikipedia.org/wiki/X86" target="_blank" rel="noopener noreferrer">x86</a>, <a href="http://fr.wikipedia.org/wiki/AIX" target="_blank" rel="noopener noreferrer">AIX</a>, …).</li>
</ul>
<ul>
<li><strong>Polyvalence</strong> : choisir des outils permettant d’intégrer des sources de données multiples. Les données peuvent être structurées (base de données, XML …), semi structurées (e-mail), non structurées (vidéo, image), internes à l’entreprise ou externes (sites web, réseaux sociaux, open data…).</li>
</ul>
<ul>
<li><strong>Réactivité</strong> : les outils à sélectionner devront pouvoir réduire au maximum le <em>time to market</em>. Il est en effet important de pouvoir déployer de nouveaux traitements et optimiser leur distribution entre les nœuds de calculs.</li>
</ul>
<div style="text-align: right;"></div>
<h2>Et si les nouvelles technologies n’étaient pas une fin en soi ?</h2>
<p>Les technologies spécifiquement adaptées pour adresser des problématiques purement <em>Big data</em> ne s’opposent pas à l’outillage existant. L’implémentation du module  de « collecte », pourra par exemple tirer partie des <a href="http://fr.wikipedia.org/wiki/Extract_Transform_Load">ETLs</a> et celle de restitution s’intégrer aux outils de type tableaux de bord déjà utilisés. La partie « stockage » quant à elle pourra s’appuyer sur les infrastructures matérielles n’étant plus utilisées en production, mais toujours présentes au sein de l’entreprise.</p>
<p>La réutilisation de ces technologies permettra aux équipes de focaliser leur montée en compétences sur le module de « transformation » et plus particulièrement sur celui d’« analyse », porteurs de la valeur ajoutée, ces derniers étant également plus complexes à mettre en œuvre</p>
<p>Pour implémenter ces deux modules, qui ne peuvent être réalisées à l’aide d’un outillage classique lors de la mise en œuvre d’une architecture Big Data, le <em>framework</em> Hadoop s’avère bien utile. C’est ce que nous découvrirons dans un prochain article.</p>
</div>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/09/et-si-on-vous-offrait-enfin-une-vision-densemble-du-big-data/">Et si on vous offrait enfin une vision d’ensemble du Big data ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Aux origines du Big data&#8230;</title>
		<link>https://www.riskinsight-wavestone.com/en/2013/08/auw-origines-du-big-data/</link>
		
		<dc:creator><![CDATA[Lise Gasnier]]></dc:creator>
		<pubDate>Fri, 02 Aug 2013 14:43:43 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[grid computing]]></category>
		<category><![CDATA[Hadoop]]></category>
		<category><![CDATA[histoire]]></category>
		<category><![CDATA[NoSQL]]></category>
		<category><![CDATA[parallèlisme]]></category>
		<category><![CDATA[shared nothing]]></category>
		<category><![CDATA[valeur]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=3978</guid>

					<description><![CDATA[<p>Comme nous l’avions vu dans un précédent article, derrière le Big data se cache un bon nombre d’idées : l’explosion des données (volume, variété et vélocité), la potentialité de valeur que l’on peut en tirer, sans oublier bien sûr les...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/08/auw-origines-du-big-data/">Aux origines du Big data&#8230;</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Comme nous l’avions vu dans un précédent article, <a title="Big data : tour d’horizon  2013 !" href="http://www.solucominsight.fr/2013/06/big-data-tour-dhorizon-2013/" target="_blank" rel="noopener noreferrer">derrière le Big data se cache un bon nombre d’idées </a>: l’explosion des données (volume, variété et vélocité), la potentialité de valeur que l’on peut en tirer, sans oublier bien sûr les technologies pour les traiter.  Pour comprendre ces concepts et imaginer leurs développements futurs, il est indispensable d’en connaître l’origine et l’évolution. Revenons brièvement sur la petite histoire &#8211; à forts rebondissements &#8211; du Big data.</p>
<h2>De l’explosion des données au Big data</h2>
<p>L’expression de « petite histoire du Big data », nous l’empruntons (presque) à Gil Press. Il livre en effet dans un long article documenté sur Forbes.com, daté du 5 mai 2013, « <a href="http://www.forbes.com/sites/gilpress/2013/05/09/a-very-short-history-of-big-data/">une très courte histoire du big data</a> ». En une trentaine de dates de 1944 à 2012, il retrace la prise de conscience précoce de l’explosion des données (dans les rayons des bibliothèques universitaires dans un premier temps, puis via les NTIC), avec comme préoccupation centrale d’en quantifier la croissance tout en apportant  quelques considérations critiques autour du déluge informationnel.</p>
<p>L’explosion des données est en effet  d’abord perçue comme une menace sur la vie privée (« <em>Assault on privacy </em>&#8211; 1971-  Arthur Miller).  Côté technique aussi : l’espace de stockage grandit, mais les données s’étendent systématiquement jusqu’à le combler (Loi de parkinson, 1980). Dans les années 70, la qualité des données est enfin mise en cause : tout est stocké, il n’est plus utile de faire le tri.</p>
<p>L’expression « Big data » fait finalement son apparition en octobre 1997 dans la bibliothèque numérique de l’ACM<sup>1</sup>, au sein d’articles scientifiques qui pointent du doigt les défis technologiques à visualiser les « grands ensembles de données ». Le Big data est né, et avec lui ses nombreux défis.</p>
<h2>Et si ces données avaient de la valeur ?</h2>
<p>Dans les années 2000, alors que l’exabytes<sup>2</sup> entrent en jeu dans la quantification des données produites annuellement, la valeur du Big data est mise en avant, d’abord pour les bénéfices que peuvent en tirer la recherche dans les secteurs de la physique, de la biologie ou des sciences sociales.</p>
<p>Ce que n’illustre pas l’article du Forbes.com, c’est la montée en puissance des Google, Facebook, Linkedin, Amazon et Twitter dans les années 2000 et plus particulièrement à partir de 2005. Celle-ci révèle tout le potentiel des données publiques disponibles sur internet. Les succès économiques des grands du web commencent alors à nourrir deux idées principales :</p>
<p>1- Les données brutes accumulées ont une valeur intrinsèque de par les fameuses 3 composantes en V ( pour volume essentiellement mais aussi variété et vitesse de leur production donc leur fraîcheur). Cette valeur est monétisable et Facebook en est l’illustration par excellence !</p>
<p>2- Ces données brutes ont une autre valeur liée aux analyses et corrélations auxquelles elles s’offrent et l’information qui en découle participe à la chaîne de valeur de l’entreprise (ex. : l’algorithme de recommandation d’Amazon).</p>
<h2>Quelques principes technologiques qui expliquent la montée en puissance du Big data</h2>
<p>Derrière ces succès, il y a évidemment des technologies qui font la différence et que les précurseurs du Big data ont contribué à développer et à faire connaître.  Les architectures Big data se fondent d’ailleurs sur 3 principes technologiques clés :</p>
<ul>
<li><strong>L’accélération matérielle.</strong> Depuis toujours, les composants des systèmes (mémoire, processeur, bus) sont optimisés pour assurer toujours plus efficacement leur fonction.</li>
<li><strong>Le parallélisme.</strong>  C’est dans les années 2000 que ce paradigme devient dominant. Qu’il s’agisse de l’architecture interne d’un ordinateur (multi-cores, multi-processeurs, MPP*, SMP**) ou de l’architecture d’un réseau de machines (<em>grid computing</em>, cluster de machines, cluster hadoop), l’idée est de décomposer les problèmes complexes en plusieurs calculs traités de manière simultanée. Ces architectures sont d’autant plus efficaces qu’aucun composant n’est partagé entre les unités de traitement parallèles (« <em>shared nothing</em> ») et qu’il n’y a donc pas de point de contention.</li>
<li><strong>Le NoSQL</strong>, le mouvement décolle fin des années 2000 et promeut des alternatives aux bases de données relationnelles en en abandonnant certaines contraintes (notamment la consistance du théorème CAP<sup>3</sup>.)</li>
</ul>
<p>Vous l’aurez compris, le Big data a émergé en 2010, mais il est né il y a quinze ans et il porte en lui un demi-siècle de réflexions, de concepts et de défis. Participerez-vous à son histoire ?</p>
<p>&nbsp;</p>
<p>…………………………………………………………………………………………………..<br />
<strong>*MPP :</strong> <em>Massively Parallel Processing</em>, à la différence du SMP, le MPP appliqué à l&#8217;architecture d&#8217;un ordinateur consiste en la mise en œuvre parallèle d&#8217;un grand nombre de processeurs disposant chacun de leur mémoire.</p>
<p><strong>**SMP : </strong><em>Symetric MultiProcessing</em>,  architecture parallèle constituée de plusieurs processeurs identiques partageant une même mémoire au sein d&#8217;un même ordinateur.</p>
<div><br clear="all" /></p>
<hr align="left" size="1" width="33%" />
<div>
<p><sup>1</sup> Association For Computing Machinery, association américaine à but non lucratif fondée en 1947 et vouée à l’informatique. Sa bibliothèque numérique est particulièrement riche quand il s’agit de retracer l’histoire de la discipline.</p>
</div>
<div>
<p><sup>2   </sup>1000 petabytes.</p>
</div>
<div>
<p align="left"><sup>3 </sup>Le théorème CAP explique que pour un système réparti (tel qu’une base de données répartie sur plusieurs ordinateurs), il n’est pas possible d’assurer simultanément : cohérence, disponibilité (<em>Availability</em>), résistance au partitionnement (<em>Partition Tolerance</em>).</p>
</div>
</div>
<div>
<hr align="left" size="1" width="33%" />
</div>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/08/auw-origines-du-big-data/">Aux origines du Big data&#8230;</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Big data : tour d’horizon  2013 !</title>
		<link>https://www.riskinsight-wavestone.com/en/2013/06/big-data-tour-dhorizon-2013/</link>
		
		<dc:creator><![CDATA[GEneviEveLardon]]></dc:creator>
		<pubDate>Mon, 10 Jun 2013 09:59:17 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[cas d’usage]]></category>
		<category><![CDATA[données]]></category>
		<category><![CDATA[évaluation]]></category>
		<category><![CDATA[Hadoop]]></category>
		<category><![CDATA[pragmatique]]></category>
		<category><![CDATA[pratique]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=3813</guid>

					<description><![CDATA[<p>En 2012, nous avions publié toute une série d’articles autour du  Big data. Un an après, le sujet est suscite toujours autant d’intérêt auprès des DSI. Comment l’expliquer ? Big data : un intérêt qui ne faiblit pas Depuis 2012,...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/06/big-data-tour-dhorizon-2013/">Big data : tour d’horizon  2013 !</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>En 2012, nous avions publié toute une série d’articles autour du  Big data. Un an après, le sujet est suscite toujours autant d’intérêt auprès des DSI. Comment l’expliquer ?</em></p>
<h2>Big data : un intérêt qui ne faiblit pas</h2>
<p>Depuis 2012, l’intérêt pour le Big data ne cesse de croître <a href="http://www.google.fr/trends/explore?q=Big+Data#q=Big%20Data&amp;cmpt=q">(cf. courbe google trends)</a>. Pourtant, faute de disposer d’une définition tangible, la pertinence des usages de cette expression reste, aujourd’hui encore, sujette à interprétation.</p>
<p>Prenons un échantillon de définitions produites par les voix les plus influentes du domaine IT (Gartner, Forrester, IBM etc.). Derrière le Big data, une multitude de sujets : il peut s’agir, selon les analystes,  1) des données  (d’un genre caractéristique), 2) d’un phénomène ou encore 3) d’un ensemble de techniques ou technologies. Il en ressort cependant un champ lexical qui fait assez largement consensus et s’est imposé sur la plupart des slidewares (avec aussi des contradicteurs).</p>
<h2>« Petite » analyse lexicale du « Big » data</h2>
<p><strong>3 V. Volume, Variété, Vélocité.</strong> <a href="http://blogs.gartner.com/doug-laney/deja-vvvue-others-claiming-gartners-volume-velocity-variety-construct-for-big-data/">Vision du Gartner de 2001</a> : chacune de ces caractéristiques constituent un défi pour les entreprises qui souhaitent les exploiter ; leur combinaison accentue d’autant la difficulté que représente le traitement des données. Le Big data n’est pas que l’explosion des volumes. C’est aussi la richesse des formats et le temps réel. Ce qui pose question et qui est rarement explicité, c’est la mesure de chacune de ces trois dimensions. Le volume se mesure-t-il en téra- ou en pétabytes ? Où se situent les niveaux d’acceptabilité qui permettent de déterminer qu’une situation ou un cas d’usage relève du Big data ? Le Big data d’aujourd’hui sera-t-il celui de demain ? Car avec la croissance des données et les avancées technologiques, le curseur ne cessera sans doute pas de se déplacer…</p>
<p><strong>4V = 3V+Valeur.</strong> Certains ont noté un <a href="http://www.bigdataparis.com/enjeux-big-data-blandine-laffargue.php?PHPSESSID=pjqo5q09489mkk5o9facotnj15">glissement</a> de l’acception Big data de 3 à 4 V : des caractéristiques de nature technique à celle de « valeur ». Que peut-on tirer des données ? C’est en fait la question essentielle : celle de « l’opportunité à saisir » ou du « besoin à combler ». Une autre question apparaît avec les fournisseurs de données : quel est le prix des données ?</p>
<p><strong>Technologie accessible.</strong> Il n’y a pas de définition technologique du Big data au sens où aucune technologie n’est liée de manière exclusive et catégorique au concept. Tout comme les web services n’étaient pas la SOA, le Big data n’est pas Hadoop*, même si Hadoop est la valeur sure d’un marché en plein essor et encore peu lisible. Certes, l’envolée du Big data doit beaucoup à l’« accessibilité »  d’Hadoop et du noSQL. Mais le coût et le ROI de ces solutions sont-ils à la hauteur des promesses ?</p>
<p><strong>Acquisition, visualisation etc.</strong> Le Big data n’est pas que stockage et analyse de données. Il faut  développer son gisement pour trouver la bonne information. L’information produite doit être comprise, retenue, travaillée et des techniques d’analyse visuelle sont aujourd’hui mises en avant.  Enfin, pour les questions de fiabilité et de sécurité, des évidences en gestion des données, des solutions se positionnent.</p>
<p><strong>Décision.</strong> Le Big data bouscule le décisionnel. Les cas d’usage Big data sont quasiment exclusivement analytiques. Les technologies dont nous parlions ne sont d’ailleurs pas construites pour supporter des processus transactionnels qui restent en périphérie de la « révolution » à la source des données.</p>
<h2>Un Big data à ma sauce</h2>
<p>Le Big data est une véritable problématique, soit littéralement un faisceau de questions. Si l’exercice de définition va se poursuivre, il serait salvateur de l’évacuer rapidement. Mieux vaut se concentrer sur les défis techniques et organisationnels du traitement des données et la recherche de nouveaux leviers de performance.</p>
<p>Forrester propose pour ce faire une approche pragmatique <a href="http://blogs.computerworlduk.com/app-dev-and-programme-management/2012/05/whats-your-big-data-score/index.htm">« Calculer son « Big Data score »</a>, qui vise à s’auto-évaluer sur sa capacité à stocker, traiter, requêter ses données selon chacune des 3 dimensions. Big data ne veut pas dire la même chose pour Google et pour moi. Il faut revenir à des enjeux réalistes : ai-je exploré les opportunités d’utilisation des données « à ma disposition » ? Suis-je capable de « passer à l’échelle » efficacement (délai, coût) si une opportunité se présente ?<br />
Et, à quelle échelle : *10, *100, *1000 ? Que font mes concurrents ?</p>
<p>Alors : <em>in or out</em> ?</p>
<p><em>*Hadoop comme nombre de bases de données noSQL est distribué en open source. Le déploiement d’Hadoop n’exige pas d’infrastructure réseau et/ou serveurs haut de gamme.</em></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/06/big-data-tour-dhorizon-2013/">Big data : tour d’horizon  2013 !</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Big data : comment intégrer les technologies de stockage ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2013/03/big-data-comment-integrer-les-technologies-de-stockage/</link>
		
		<dc:creator><![CDATA[Lionel Bour]]></dc:creator>
		<pubDate>Tue, 26 Mar 2013 09:35:19 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[données]]></category>
		<category><![CDATA[Hadoop]]></category>
		<category><![CDATA[HDFS]]></category>
		<category><![CDATA[map reduce]]></category>
		<category><![CDATA[performance]]></category>
		<category><![CDATA[scalabilité]]></category>
		<category><![CDATA[stockage]]></category>
		<category><![CDATA[variété]]></category>
		<category><![CDATA[vélocité]]></category>
		<category><![CDATA[volume]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=3570</guid>

					<description><![CDATA[<p>Les solutions Big data orientées stockage sont de plus en plus nombreuses et commencent à être déployées dans les entreprises. Tout le monde doit-il s’y intéresser ? Comment doit-on les intégrer ? Quelles sont caractéristiques du Big data ? Comme son nom l’indique,...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/03/big-data-comment-integrer-les-technologies-de-stockage/">Big data : comment intégrer les technologies de stockage ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Les solutions Big data orientées stockage sont de plus en plus nombreuses et commencent à être déployées dans les entreprises. Tout le monde doit-il s’y intéresser ? Comment doit-on les intégrer ?</em></p>
<h2>Quelles sont caractéristiques du <em>Big data</em> ?</h2>
<p>Comme son nom l’indique, le <em>Big data</em> définit une catégorie de données. Elle est souvent résumée par les 3 « V » :</p>
<ul>
<li><strong>Volume : </strong>une quantité de données importante liée à la multiplication des données du client. Les données à manipuler sont de l’ordre de la dizaine de tera octets ;</li>
<li><strong>Variété :</strong> différents types de données  provenant de diverses sources (internes SI, externes comme les réseaux sociaux… Ces données vont du plus structuré (relationnel) au non structuré (fichiers, vidéo…) ;</li>
<li><strong>Vélocité</strong> : une fréquence rapide à laquelle les données doivent être traitées et partagées, liée à la volonté de tendre vers un SI « temps réel ».</li>
</ul>
<h2> Comment savoir si l’on manipule des données <em>Big data</em> ?</h2>
<p>C’est simple, c’est souvent lorsque l’une des couches du SI devient un facteur limitant lors du traitement de gros volume de données, que l’on comprend qu’il s’agit de <em>Big data</em>.</p>
<p>La couche stockage est l’un des premiers facteurs limitant et les problématiques associées sont les suivantes :</p>
<ul>
<li><strong>Performance :</strong> l’augmentation du volume à traiter entraîne une diminution des performances ;</li>
<li><strong>Linéarité :</strong> l’outillage n’étant pas adapté aux gros volumes de données, le modèle de scalabilité n’est pas linéaire, l’ajout de stockage ne permettant pas d’améliorer les performances ;</li>
<li><strong>Dynamisme : </strong>l’allocation d’espace est fixe avec une faible réactivité pour en ajouter ou en retirer.</li>
</ul>
<p>Les solutions du marché reposent sur des implémentations propriétaires.</p>
<p>Les solutions <em>Big data</em> reposent sur un stockage basé sur <strong>le modèle de fichier distribué </strong>: des nœuds de stockage sont répartis physiquement sur le réseau mais vus par les applications comme un seul volume de stockage logique.<em><br />
</em></p>
<p>Ce modèle répond justement aux enjeux suivants, auparavant problématiques :</p>
<ul>
<li><strong>Performance </strong>: les données sont réparties sur plusieurs nœuds de stockage (<em>stripping HADOOP HDFS</em>) et ceux-ci se distribuent intelligemment la donnée afin de diminuer le trafic réseau (les données semblables sur un même nœud) et faciliter des traitements distribués (<em>HADOOP map reduce</em>)</li>
<li><strong>Linéarité</strong> : le modèle distribué permet d’ajouter des nœuds de stockage sans limite et permet de retrouver une scalabilité linéaire ;</li>
<li><strong>Dynamisme</strong> : l’ajout et la suppression de nœud de calcul peuvent se faire simplement et apportent une résilience (via la réplication automatique des données). Si un nœud de stockage tombe, le service est assuré sans arrêt et sans perte de données. On s’approche d’une perte de données « RPO » et d’un temps de reprise « RTO » nulle.</li>
</ul>
<p>Les <strong>solutions </strong><strong>du marché (IBM, EMC, etc.) répondent aux 3 « v » du <em>Big data</em></strong> mais <strong>chacune suit son propre modèle d’implémentation du stockage distribué</strong> : <em>Cluster File System</em>, Parallel File System…. Chaque solution n’a donc pas les mêmes performances ou, capacité d’évolutivité suivant le besoin.</p>
<h2> La qualification des données est la clé du stockage</h2>
<p>C’est pour cela que lors de la mise en œuvre de ces types de solutions, <strong>une étude sur le stockage est nécessaire. </strong> Quelles sont mes données ? Quelle est la volumétrie (max, écart-type, moyenne) ? Quelle est leur croissance ? Quels types de traitements sont effectués ? Doivent-elles être centralisées ? Quel est le ratio de lecture / écriture ? …</p>
<p>Toutes ces réponses permettront de <strong>catégoriser les données</strong>, <strong>un entrant primordial à la qualification</strong> de la solution cible et à son optimisation. Ainsi l’optimisation des  services de stockage <em>Big data</em> permettent à l’entreprise de maîtriser la variabilité et les performances. L’indexation devient plus facile, la taille des caches est optimisée et le <em>stripping</em> (fait de couper le fichier en plusieurs morceaux) est facilité afin de garantir un accès plus rapide à la donnée.</p>
<p><strong>La mise en place d’une technologie stockage distribué est idéale dans les configurations de type grille de calcul</strong> : les nœuds de calcul échangent un grand nombre de données entre eux. À  la place d’une configuration en étoile où tous les nœuds s’échangent directement des fichiers, chaque nœud utilise un même volume logique hébergé sur une infrastructure Big data. Les gains sont doubles : directement sur les temps de lecture / écriture des données partagées et la charge réseau (bien que plus concentrée sur un segment) et indirectement sur les temps de calculs de la grille. Les nœuds de la grille de calcul étant déchargés de leur fonction de distribution de fichiers vers les autres nœuds, les ressources sont exploitées au maximum par le calcul applicatif. L’applicatif est donc plus performant pour le <em>business</em>.</p>
<p align="left">Les solutions de stockage <em>Big data </em><strong>commencent à être adoptées par les entreprises, qui les utilisent sur leurs périmètres stratégiques </strong>pour en tirer <strong>des gains de performance</strong> là où les solutions standards étaient limitantes. <strong>L’intégration de ces solutions reste l’étape clé </strong>: l’étude des données est nécessaire pour choisir la bonne implémentation <em>Big data</em>, faciliter sa configuration et ainsi profiter pleinement des  bénéfices annoncés.</p>
<div>
<hr align="left" size="1" width="33%" />
</div>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2013/03/big-data-comment-integrer-les-technologies-de-stockage/">Big data : comment intégrer les technologies de stockage ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Big Data : se lancer sur une vision, et pas sur une pulsion</title>
		<link>https://www.riskinsight-wavestone.com/en/2012/09/big-data-se-lancer-a-sur-dune-vision-et-pas-dune-pulsion/</link>
		
		<dc:creator><![CDATA[Mark Lee]]></dc:creator>
		<pubDate>Fri, 21 Sep 2012 19:06:37 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[BI]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[données]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=2286</guid>

					<description><![CDATA[<p>En parcourant rapidement le« panorama du Big Data » de Dave Feinleib, on peut  soutenir fermement l’idée que nous sommes à l’ère du Big Data. Avec « Analyse et Business Intelligence » désormais au sommet de la liste des dépenses prioritaires des DSI, atteignant...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2012/09/big-data-se-lancer-a-sur-dune-vision-et-pas-dune-pulsion/">Big Data : se lancer sur une vision, et pas sur une pulsion</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>En parcourant rapidement le« <a href="http://www.forbes.com/sites/davefeinleib/2012/06/19/the-big-data-landscape/">panorama du Big Data</a> » de Dave Feinleib, on peut  soutenir fermement l’idée que nous sommes à l’ère du Big Data. Avec « Analyse et Business Intelligence » désormais au sommet de la liste des dépenses prioritaires des DSI, atteignant la cinquième place en 2011, il semble que de plus en plus considèreront à l’avenir la manière dont ils utilisent le Big Data comme une partie intégrante de leur stratégie.</p>
<p>Mais comment utiliser au mieux cet investissement sans se contenter de prendre le train en marche ? Voici quelques idées à considérer :</p>
<h2><strong>Cherchez à répondre à un problème métier en particulier plutôt que d’implémenter simplement un système de Big Data</strong></h2>
<p>Le battage publicitaire autour du Big Data promet de révéler des relations cachées parmi vos données existantes – des modèles qui attendent juste d’être découverts. Bien que les outils de Big Data soient puissants, ils ne correspondent qu’à certains types de problématiques et les relations qu’ils dévoilent peuvent n’avoir aucune signification pour le métier. Il est préférable de chercher à répondre à un problème métier afin de concentrer vos efforts initiaux et de montrer une pertinence tangible pour le métier. À la réflexion, vous vous apercevrez peut-être même que les systèmes actuels sont capables de fournir les données dont vous avez besoin.</p>
<h2><strong>Comprenez où les outils de Big Data excellent et où les solutions BI existantes restent meilleures</strong></h2>
<p>Permettre aux utilisateurs d’analyser des données propres et structurées de manière interactive et en temps réel reste du domaine de la BI – et de récentes implémentations peuvent elles-aussi être largement dimensionnées. Les outils de Big Data ont toutefois un rôle à jouer car ils permettent d’analyser des informations non structurées ou changeant fréquemment, ou de détecter des modèles parmi de grandes quantités de données d’origines variées. Mais tous les métiers n’ont pas ces exigences.</p>
<h2><strong>Assurez-vous d’avoir les compétences et l’organisation appropriées</strong></h2>
<p>Une bonne équipe  rassemble compréhension du métier, compétences d’analyse des données et connaissance de la plate-forme. Rassembler ces trois compétences au sein d’une même équipe est une excellente façon d’atteindre une bonne compréhension technique, ce qui vous permettra de poser des questions métier pertinentes et d’interpréter correctement les données (et, très important, de ne pas arriver aux mauvaises conclusions), et de soutenir et faire évoluer la solution au fur et à mesure que vous gagnez de l’expérience.</p>
<h2><strong>Réfléchissez deux fois avant de conserver toutes les données uniquement car &#8220;cela pourrait être utile un jour&#8221;</strong></h2>
<p>Beaucoup de solutions Big Data vantent leur utilisation de disques bon marché qui vous permettent de conserver vos données facilement accessibles en ligne, sans vous soucier de jeter les informations qui pourraient être utiles un jour. Bien que cela semble attractif, il y a tout de même un coût sous-jacent à cette accumulation. Assurez-vous de pouvoir justifier le stockage des données en fonction de votre stratégie Big Data.</p>
<h2>Pensez plus large q<strong>ue Hadoop</strong></h2>
<p><strong> </strong>Hadoop (le populaire logiciel open source d’Apache pour une informatique fiable, évolutive et distribuée) est certes une plate-forme puissante, mais ce n’est pas une panacée et il faut généralement un certain nombre d’outils environnants pour créer une solution de Big Data utilisable. D’autres systèmes similaires existent et peuvent mieux correspondre à votre besoin. Au moins au début, une analyse de données et une plate-forme de visualisation plus simples sont peut-être plus appropriées pour vous aider à développer votre approche du Big Data.</p>
<p>En résumé – le Big Data est de plus en plus utilisé et des raisons convaincantes poussent à penser que les DSI d’entreprises autres que des géants de l’internet devraient commencer à regarder ces solutions. Mais avec un peu de réflexion en amont, vous pourrez vous lancer en ayant une vision plutôt qu’à partir d’une pulsion.</p>
<p>Article traduit de l&#8217;anglais. Lire <a href="http://www.dmwgroup.com/news/big-data-deliver-vision-not-compulsion" target="_blank">l&#8217;article original sur le site de D</a><a href="http://www.dmwgroup.com/news/big-data-deliver-vision-not-compulsion" target="_blank">MW group</a></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2012/09/big-data-se-lancer-a-sur-dune-vision-et-pas-dune-pulsion/">Big Data : se lancer sur une vision, et pas sur une pulsion</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Big is beautiful</title>
		<link>https://www.riskinsight-wavestone.com/en/2012/05/big-is-beautiful/</link>
		
		<dc:creator><![CDATA[SolucomINSIGHT]]></dc:creator>
		<pubDate>Mon, 21 May 2012 06:30:33 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[big is beautiful]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=1808</guid>

					<description><![CDATA[<p>Pour en savoir plus sur le big data, vous pouvez consulter les articles suivants : Qu’est-ce que le Big Data ? Quel est le paysage technologique du Big Data ? Comment faire face à l’émergence du phénomène Big Data ?</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2012/05/big-is-beautiful/">Big is beautiful</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><a href="http://www.solucominsight.fr/2012/05/big-is-beautiful/solucom-juin-10-3-v3/" rel="attachment wp-att-1811"><img loading="lazy" decoding="async" class="alignnone size-full wp-image-1811" title="solucom juin 10-3-V3" src="http://www.solucominsight.fr/wp-content/uploads/2012/05/solucom-juin-10-3-V3.jpg" alt="" width="650" height="600" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2012/05/solucom-juin-10-3-V3.jpg 650w, https://www.riskinsight-wavestone.com/wp-content/uploads/2012/05/solucom-juin-10-3-V3-207x191.jpg 207w, https://www.riskinsight-wavestone.com/wp-content/uploads/2012/05/solucom-juin-10-3-V3-42x39.jpg 42w" sizes="auto, (max-width: 650px) 100vw, 650px" /></a></p>
<p>Pour en savoir plus sur le big data, vous pouvez consulter les articles suivants :</p>
<p><a href="http://www.solucominsight.fr/2012/01/qu%E2%80%99est-ce-que-le-big-data/" target="_blank" rel="noopener noreferrer">Qu’est-ce que le Big Data ? </a></p>
<p><a href="http://www.solucominsight.fr/2012/02/quest-ce-que-le-paysage-technologique-du-big-data/" target="_blank" rel="noopener noreferrer">Quel est le paysage technologique du Big Data ? </a></p>
<p><a href="http://www.solucominsight.fr/2012/02/comment-faire-face-a-l%E2%80%99emergence-du-phenomene-big-data/" target="_blank" rel="noopener noreferrer">Comment faire face à l’émergence du phénomène Big Data ? </a></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2012/05/big-is-beautiful/">Big is beautiful</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Comment faire face à l’émergence du phénomène Big Data ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2012/02/comment-faire-face-a-lemergence-du-phenomene-big-data/</link>
		
		<dc:creator><![CDATA[Lise Gasnier]]></dc:creator>
		<pubDate>Fri, 10 Feb 2012 07:00:07 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[Agilité]]></category>
		<category><![CDATA[approche]]></category>
		<category><![CDATA[architecture Si]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[DSI]]></category>
		<category><![CDATA[Infrastructure]]></category>
		<category><![CDATA[opportunités business]]></category>
		<category><![CDATA[Transformation SI]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=1325</guid>

					<description><![CDATA[<p>[Article rédigé en collaboration avec  Mathieu Millet] LGA (Lise Gasnier) : Le Big Data a une dimension “métier” évidente : pour les entreprises, le défi est d’identifier les opportunités de business offertes par leurs gisements de données. Déjà, des “business cases”...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2012/02/comment-faire-face-a-lemergence-du-phenomene-big-data/">Comment faire face à l’émergence du phénomène Big Data ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em><em>[Article rédigé en collaboration avec  Mathieu Millet]</em></em></p>
<p><strong><em><em></em></em>LGA (Lise Gasnier) : </strong>Le Big Data a une dimension “métier” évidente : pour les entreprises, le défi est d’identifier les opportunités de business offertes par leurs gisements de données. Déjà, des “business cases” montrent la faisabilité et l’intérêt d’exploiter des données jusqu’alors “non valorisées”. Il devient possible d’en extraire une information utile pour mieux connaître sa clientèle, optimiser son marketing, détecter et prévenir des fraudes, analyser son image sur les réseaux sociaux et la valoriser, optimiser ses processus&#8230;</p>
<p>En s’inspirant des initiatives innovantes de leurs secteurs, les entreprises pourraient initier la réflexion “Big Data” autour de 2 questions basiques :</p>
<ul>
<li>De quelles informations avons-nous besoin pour accroître notre efficacité et innover ?</li>
<li>Quelles sont les données sous ou inexploitées à notre disposition?</li>
</ul>
<p>Le Big data invite les métiers à plus de liberté, plus d’audace dans leurs réponses.</p>
<p>Dans ce domaine comme dans les autres, répondre à la première question et exprimer des besoins précis prend du temps. C’est, de plus, une question à poser en continu. D’évidence, les objectifs métiers exigeront de produire sans cesse de nouvelles analyses, sur des données déjà traitées (donc les “ré-analyser”) ou non, avec des sources et formats inédits.</p>
<p>Pour répondre à la seconde question, les métiers doivent connaître les sources de données à leur disposition et savoir interpréter les données brutes, pour en saisir la pertinence et en extraire l’information utile. Sur ce terrain technique, il est évidemment souhaitable que la DSI les accompagne. Elle doit par conséquent démontrer sa maîtrise des données du SI, au-delà de la “zone de confiance” des données gérées dans les systèmes de base de données traditionnels de l’entreprise.</p>
<p>&nbsp;</p>
<p><strong>MMI (Mathieu Millet) : </strong>Pour la DSI, tout l’enjeu va donc être de pouvoir traiter la volumétrie et l’hétérogénéité des données pour ouvrir le champ des possibles aux métiers. Pour anticiper des besoins que les métiers ne savent pas exprimer aujourd’hui, elle doit se doter d’une architecture permettant d’emblée de collecter, stocker et analyser “plus” et “plus varié”. C’est bien d’une architecture agile que les métiers ont besoin.</p>
<p>Une approche initiale serait d’imaginer ce que serait son système Big Data en proposant quelques cas d’usage sur un « échantillon » représentatif de données, à la fois structurées (comme celle que l’on trouve dans les entrepôts de données) et semi-/non-structurées (logs d’applications, messages sur les réseaux sociaux, documents bureautiques, utilisation des données issues de l’Open Data…). Cette “promotion” du service permettrait ainsi à la DSI de présenter aux métiers la valeur ajoutée de ces données et d’anticiper un changement profond de son infrastructure. Nous l’avons vu : les technologies sous-jacentes sont innovantes et pointues. La DSI a tout intérêt à emprunter la pente douce de sa montée en compétence sur le “Big Data” ; surtout que les compétences sur le marché sont peu nombreuses et qu’aujourd’hui, une prise en main technologique est nécessaire.</p>
<p>L’autre axe de travail serait d’initier un dialogue avec les métiers pour mettre en commun leurs données, historiquement réparties et cloisonnées, dont la duplication entre différentes applications sera de facto très difficilement réalisable.</p>
<p>&nbsp;</p>
<p><strong>LGA : </strong>Quelle que soit l’hypothèse de travail, il sera évidemment nécessaire d’établir un dialogue constructif entre les métiers et la DSI afin d’assurer la réussite d’un tel projet d’envergure.</p>
<p>&nbsp;</p>
<p>Lire aussi les articles :</p>
<p><a href="http://www.solucominsight.fr/2012/01/qu%E2%80%99est-ce-que-le-big-data/" target="_blank">Qu&#8217;est-ce que le Big Data</a></p>
<p><a href="http://www.solucominsight.fr/2012/02/quest-ce-que-le-paysage-technologique-du-big-data/">Quel est le paysage technologique du Big Data</a></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2012/02/comment-faire-face-a-lemergence-du-phenomene-big-data/">Comment faire face à l’émergence du phénomène Big Data ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Quel est le paysage technologique du Big Data ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2012/02/quest-ce-que-le-paysage-technologique-du-big-data/</link>
		
		<dc:creator><![CDATA[Matthieu Millet]]></dc:creator>
		<pubDate>Fri, 03 Feb 2012 09:26:04 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[analytique]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Business Intelligence]]></category>
		<category><![CDATA[Enterprise Datawarehouse]]></category>
		<category><![CDATA[Hadoop]]></category>
		<category><![CDATA[mapReduce]]></category>
		<category><![CDATA[stockage]]></category>
		<category><![CDATA[technologies]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=1261</guid>

					<description><![CDATA[<p>[Article rédigé en collaboration avec  Lise Gasnier] MMI (Mathieu Millet) : Le premier élément structurant dans le contexte Big Data est le socle de “stockage” des données. L’approche historique est celle des offres de DatawareHouse, qui ont évolué, sous forme...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2012/02/quest-ce-que-le-paysage-technologique-du-big-data/">Quel est le paysage technologique du Big Data ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em><em>[Article rédigé en collaboration avec  Lise Gasnier]</em></em></p>
<p><strong>MMI</strong> (Mathieu Millet)<strong> : Le premier élément structurant dans le contexte Big Data est le socle de “<em>stockage”</em> des données.</strong></p>
<p>L’approche historique est celle des offres de DatawareHouse, qui ont évolué, sous forme d’<em>appliance</em> notamment, pour supporter de plus grandes quantités de données et faire porter par le « stockage » une capacité de traitement étendue (principe de <em>PushDown</em>). On retrouve les offres de fournisseurs tels que TeraData (leader historique sur le marché), Oracle avec ExaData, IBM/Netezza/Informix ou encore, EMC/Greenplum ou HP/Vertica.</p>
<p>Ces solutions ont toutes en commun un modèle de données fortement structuré (type, table, schéma, …) et le langage de requête SQL.</p>
<p>L’approche en rupture est celle proposée par Google, avec la publication de son Livre Blanc Big Table. Cette approche consiste en 2 grands principes. Tout d’abord, il s’agit de reprendre les principes de scalabilité (horizontale) des clusters de calcul scientifique (HPC).Puis, on peut se permettre de s&#8217;affranchir de certaines contraintes inhérentes à un usage transactionnel des bases de données relationnelles traditionnelles, et qui ne sont plus strictement nécessaires pour les usages analytiques, telles que les principes d’ACIDité (Atomicité, Cohérence, Isolation et Durabilité), le langage SQL (Not-Only SQL, NoSQL) et la contrainte de Cohérence (immédiate) du théorème CAP<a title="" href="http://www.solucominsight.fr/wp-admin/post-new.php#_ftn1">[1]</a> de Brewer .</p>
<p>Cependant, pour simplifier la mise en œuvre d’une telle solution  et rendre l’infrastructure simple, scalable (à plusieurs centaines de nœuds), avec du matériel à bas coût (donc sans inclure de réseau faible latence, type InfiniBand ou même sans réseau de stockage spécifique), le framework de “gestion” d’un tel cluster est obligé de contraindre fortement l’organisation et la manière de développer. Les principes de Map Reduce<a title="" href="http://www.solucominsight.fr/wp-admin/post-new.php#_ftn2">[2]</a> (toujours décrits dans le Libre Blanc de Google) répondent à ces contraintes.</p>
<p>La solution la plus emblématique de cette approche est Hadoop et son écosystème. Développé initialement par Yahoo, maintenant supporté par la fondation Apache, Hadoop implémente un système de Fichiers massivement Distribués (HDFS) et un moteur Map Reduce. Hadoop est épaulé par tout un écosystème afin d’étendre son champ fonctionnel, avec par exemple HBase (base de données de type NoSQL) ou encore Hive (entrepôt de données disposant d’un langage de requêtage <em>à la SQL</em>).</p>
<p>Hadoop a tellement le vent en poupe que presque tous les acteurs du DatawareHouse (Oracle, Microsoft, IBM, Teradata,…) ou de l’analytique (SAS, R, Micro Strategy, &#8230;) ont maintenant annoncé des solutions autour de ce nouvel écosystème.</p>
<p><strong>LGA </strong>(Lise Gasnier) : <strong>La finalité du stockage est d&#8217;extraire l&#8217;information utile des données. L&#8217;analyse est naturellement l&#8217;autre volet majeur du paysage technologique du Big data.</strong></p>
<p>Dans ce domaine, l&#8217;innovation porte sur l&#8217;intégration des solutions d&#8217;analyse à celles de stockage pour éviter les mouvements des données. Mathieu a cité Hive pour sa compatibilité avec Hadoop. Citons également Greenplum un dérivé de Postgres qui repose sur une architecture distribuée sur un cluster de machines. Cette tendance à l&#8217;interaction se traduit aussi par le rapprochement d&#8217;acteurs issus des deux mondes: Revolution Analytics (BI) et IBM Netezza,par exemple,  sont partenaires depuis début 2011.</p>
<p>Une approche banalisée de ce rapprochement entre traitements et données est celle des grilles de données tels que Oracle Coherence, Terracotta ou Gigaspaces XAP. Elles offrent la capacité de distribuer les données sur des nœuds de calcul. Elles se trouvent donc à la jonction entre clusters de traitements distribués et bases de données mémoire.</p>
<p>Ces dernières, en économisant les accès aux disques, permettent d’utiliser des approches analytiques classiques tout en garantissant les performances à mesure que la complexité des requêtes et leur volume évolue. Même si les produits (comme les appliances analytiques SAP HANA et Kognitio WX2) ne sont pas en mesure, aujourd’hui, de gérer les pétaoctets du Big Data, il faudra être attentif à l’innovation sur ce marché en croissance car on observe une convergence de différentes technologies au sein des solutions proposées par les éditeurs.</p>
<p>Toujours sur le plan de l’analyse, on assiste à la diffusion et à l’outillage des techniques analytiques, notamment par le recours à des méthodes issues de l&#8217;intelligence artificielle de type Machine Learning et Natural Language Processing.</p>
<p>Le Big data met aussi l&#8217;accent sur l&#8217;importance de restituer efficacement les résultats d&#8217;analyse et d&#8217;accroître l&#8217;interactivité entre utilisateurs et données. Ainsi, des produits comme Tableau (de Tableau Software) proposent des visualisations graphiques innovantes.</p>
<p><strong>MMI : Enfin, pour pouvoir analyser ces données que l’on aura stockées, il ne faut pas oublier le processus d’acquisition et de chargement de ces mêmes données.</strong></p>
<div><br clear="all" /></p>
<hr align="left" size="1" width="33%" />
<div>
<p><a title="" href="http://www.solucominsight.fr/wp-admin/post-new.php#_ftnref1">[1]</a> Le théorème CAP explique que pour un système réparti (tel qu’une base de données répartie sur plusieurs ordinateurs), il n’est pas possible d’assurer simultanément : Cohérence, Disponibilité (<em>Availability</em>), résistance au Partitionnement (<em>Partition Tolerence</em>).</p>
</div>
<div>
<p><a title="" href="http://www.solucominsight.fr/wp-admin/post-new.php#_ftnref2">[2]</a> L’approche MapReduce consiste à réaliser les différents traitements selon 2 tâches (qui peuvent se répéter) :</p>
<ul>
<li>Une fonction <em>Map</em>, massivement distribuable sur différents noeuds de calcul, qui associe un “couple (clef, valeur)” en entrée et un (ou plusieurs) “couple(s) (clef,valeur)” en sortie. La fonction Map ne traitant qu’un unique couple “à la fois”, il n’y a pas de problème de distribution des traitements.</li>
<li>Une fonction <em>Reduce</em>, qui regroupe toutes les réponses et les rassemble en une liste unique de valeur, pour finaliser le traitement..</li>
</ul>
<p>&nbsp;</p>
<p>Lire aussi les articles :</p>
<p><a href="http://www.solucominsight.fr/2012/01/qu%E2%80%99est-ce-que-le-big-data/" target="_blank">Qu&#8217;est-ce que le Big Data</a></p>
<p><a href="http://www.solucominsight.fr/2012/02/comment-faire-face-a-l%E2%80%99emergence-du-phenomene-big-data/">Comment faire face à l&#8217;émergence du phénomène Big Data</a></p>
</div>
</div>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2012/02/quest-ce-que-le-paysage-technologique-du-big-data/">Quel est le paysage technologique du Big Data ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Qu’est-ce que le Big Data ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2012/01/quest-ce-que-le-big-data/</link>
		
		<dc:creator><![CDATA[Lise Gasnier]]></dc:creator>
		<pubDate>Mon, 30 Jan 2012 08:39:46 +0000</pubDate>
				<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[analytique]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[définition]]></category>
		<category><![CDATA[données]]></category>
		<category><![CDATA[non structurées]]></category>
		<category><![CDATA[pétaoctets]]></category>
		<category><![CDATA[stockage]]></category>
		<category><![CDATA[vélocité]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=1237</guid>

					<description><![CDATA[<p>[Article rédigé en collaboration avec  Mathieu Millet] LGA (Lise Gasnier) : C’est le big buzz de 2011 qui ne manquera pas de faire du bruit cette année encore! Il désigne les ensembles de données aux volumétrie et complexité telles qu’il...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2012/01/quest-ce-que-le-big-data/">Qu’est-ce que le Big Data ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>[Article rédigé en collaboration avec  Mathieu Millet]</em></p>
<p><strong>LGA </strong>(Lise Gasnier)<strong> :</strong> C’est le big buzz de 2011 qui ne manquera pas de faire du bruit cette année encore! Il désigne les ensembles de données aux volumétrie et complexité telles qu’il faut repenser les moyens de leur gestion. Le volume de ces données se mesure désormais en pétaoctets (10<sup>15</sup> octets). Et, par complexité, nous entendons une ou plusieurs caractéristiques parmi lesquelles :</p>
<ul>
<li>croissance rapide et soutenue,</li>
<li>formats hétérogènes,</li>
<li>peu ou pas de structuration (comme par exemple pour les images, vidéos, pages web et emails),</li>
<li>des sources variées.</li>
</ul>
<p>Les Big data sont par exemple des :</p>
<ul>
<li>données transactionnelles (commandes, paiements etc.).</li>
<li>logs,</li>
<li>clickstreams,</li>
<li>événements géolocalisés,</li>
<li>contenus de réseaux sociaux,</li>
<li>données comportementales,</li>
<li>relevés de compteurs intelligents,</li>
<li>appels au service client.</li>
</ul>
<p>Par extension, le terme désigne, au-delà des données, les moyens humains ou technologiques extraordinaires mis en œuvre pour les traiter.</p>
<p><strong> </strong></p>
<p><strong>MMI </strong>(Mathieu Millet)<strong> : </strong>L’ensemble de la chaîne de traitement technique de ces données se voit remaniée : capture, stockage, analyse et transformation en informations pertinentes et enfin, restitution.</p>
<p>Processus métiers et finalité des traitements n’ont rien de nouveau (pilotage opérationnel, aide à la décision, analyse clientèle et comportementale, optimisation de processus…). Par contre, le volume, la nature et le rythme d’acquisition en données, décrit par Lise, tout comme la volonté d’accélérer ces traitements provoquent un vrai changement de paradigmes technologiques et organisationnels.</p>
<p>Ainsi, certaines pratiques ne sont plus envisageables comme la recopie intégrale de données entre différentes applications susceptibles d’utiliser ces données. Également, de nouvelles pratiques sont à employer afin de tirer parti de l’écosystème Big Data ; par exemple : mettre en œuvre une plus grande coopération/interaction entre les solutions d’analyse et l’<em>entrepôt de stockage</em> afin de bénéficier des performances (I/O mais également CPU) de ce dernier.</p>
<p>&nbsp;</p>
<p><strong>LGA : </strong>La problématique de gestion des gros volumes de données ne date pas d’hier. Depuis bientôt dix ans, elle est même centrale aux métiers de la recherche scientifique, de la finance et de l’indexation web. Mais, la conjoncture actuelle en a fait un sujet de tout premier plan :</p>
<ul>
<li>La production de données augmente drastiquement, par l’action des individus tout autant que celles des organisations. Ainsi, les analystes d’IDC relèvent que le volume du contenu numérique mondial a atteint 2.7 zettaoctets (soit 2.7*10<sup>21</sup> octets), avec une augmentation de 48% en 2011. Ils estiment par ailleurs, qu’en 2012, 90% de l’information sera sans structure (voir le rapport complet gratuitement à cet endroit : <a href="http://www.idc.com/getdoc.jsp?containerId=231720">http://www.idc.com/getdoc.jsp?containerId=231720)</a>.</li>
<li>Des solutions techniques ont émergé, dont certaines libres, comme la plus emblématique : Hadoop et son écosystème (que nous évoquerons plus en détail dans un prochain article). Elles rendent possible et accessible la refonte technologique nécessaire, évoquée par Mathieu.</li>
</ul>
<p>Les entreprises réfléchissent donc aujourd’hui, tous secteurs confondus, à tirer un avantage concurrentiel de leurs gisements de données ou de ceux publics (web, open data). Des premiers “business cases” (optimisation du marketing numérique, détection et prévention des fraudes, analyse des réseaux sociaux et des relations&#8230;) démontrent déjà que de nouveaux indicateurs, de nouveaux leviers de  valeurs  sont à portée de main. Mais, les questions demeurent nombreuses : il faut définir précisément les besoins et cadrer les transformations stratégiques, organisationnelles, techniques et légales de ce “passage à l’échelle”. D’où le buzz, qu’alimentent par ailleurs les acteurs du paysage technologique!</p>
<p>&nbsp;</p>
<p>Lire aussi les articles :</p>
<p><a href="http://www.solucominsight.fr/2012/02/quest-ce-que-le-paysage-technologique-du-big-data/" target="_blank">Quel est le paysage du Big Data</a></p>
<p><a href="http://www.solucominsight.fr/2012/02/comment-faire-face-a-l%E2%80%99emergence-du-phenomene-big-data/">Comment faire face à l&#8217;émergence du phénomène Big Data</a></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2012/01/quest-ce-que-le-big-data/">Qu’est-ce que le Big Data ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Quel avenir pour le grid computing ?</title>
		<link>https://www.riskinsight-wavestone.com/en/2011/10/quel-avenir-pour-le-grid-computing/</link>
		
		<dc:creator><![CDATA[Lise Gasnier]]></dc:creator>
		<pubDate>Wed, 19 Oct 2011 15:07:48 +0000</pubDate>
				<category><![CDATA[Métiers - Energie]]></category>
		<category><![CDATA[Métiers - Stratégie & projets IT]]></category>
		<category><![CDATA[architecture Si]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[grid computing]]></category>
		<category><![CDATA[High performance computing]]></category>
		<guid isPermaLink="false">http://www.solucominsight.fr/?p=804</guid>

					<description><![CDATA[<p>Depuis le début des années 2000, les grilles de calcul ont rencontré un succès certain dans le monde scientifique, ainsi que dans certains secteurs de l’industrie et de la finance. Au-delà de ces domaines, l&#8217;usage de ces grilles est peu...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2011/10/quel-avenir-pour-le-grid-computing/">Quel avenir pour le grid computing ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Depuis le début des années 2000, les grilles de calcul ont rencontré un succès certain dans le monde scientifique, ainsi que dans certains secteurs de l’industrie et de la finance. Au-delà de ces domaines, l&#8217;usage de ces grilles est peu répandu.</em></p>
<p><em>Le 12 octobre dernier, IBM a annoncé le rachat d’un acteur majeur du marché du grid computing : Platform Computing. A cette occasion, nous revenons sur les principes, apports et défis de ce type de technologies peu connu.</em></p>
<p><strong>1.     </strong><strong>Qu’est-ce que le <em>grid computing</em> ?</strong></p>
<p>Le <em>grid computing </em>consiste à mettre en commun des ressources logicielles et matérielles distribuées (ensemble que l’on appelle la « grille ») afin de fournir une puissance de calcul importante. La charge de travail est divisée en sous-tâches qui sont traitées en parallèle par les ressources de la grille, les résultats étant ensuite agrégés dans un résultat global rendu à l’utilisateur.</p>
<p>En anglais, l’emprunt du mot « grid » à l’expression « electric power grid » qui désigne le réseau électrique, traduit bien les promesses du concept : l’utilisateur se branche à la grille qui pourvoit à son besoin. Peu lui importe la complexité du système, l’hétérogénéité ou la distribution des composants, masqués par l’interface d’accès.</p>
<p>Des projets emblématiques donnent le ton, en matière de gigantisme :</p>
<ul>
<li>SETI@HOME se présente comme « une expérience scientifique qui utilise des ordinateurs reliés à internet pour la recherche d&#8217;une intelligence extraterrestre (SETI) » ; elle tire sa puissance de son « ouverture » aux ordinateurs des internautes volontaires ;</li>
<li>La grille du LHC, l’accélérateur de particules du <a href="http://www.cern.ch/">CERN</a>,  relie en mode « fermé », plusieurs dizaines de milliers de machines, situées sur trois continents, pour analyser des données.</li>
</ul>
<p>La puissance des ordinateurs a beau croître, la « gourmandise » de tels projets scientifiques, atteint des niveaux qui justifient ce modèle d’architecture. Dans le sillage des initiatives académiques, l’industrie et le secteur bancaire s’en sont emparés pour résoudre leurs problèmes complexes : valorisation et analyse de risque pour la finance, détection de gisements pour le pétrole, simulation et analyse de crash pour l’automobile. Aujourd’hui, les grilles intéressent les médias, les jeux en ligne, les fournisseurs internet…</p>
<p><strong>2.     </strong><strong>Quels bénéfices attendre du grid computing ?</strong></p>
<p>Le <em>grid computing</em> peut apporter beaucoup aux secteurs tant privés que publics pour les projets qui requièrent une quantité importante de puissance de traitement dans une période de temps restreinte.</p>
<p>Les bénéfices attendus d’une grille sont :</p>
<ul>
<li>l’amélioration des performances tout en limitant les coûts,</li>
<li>l’augmentation de la flexibilité d’une infrastructure pour absorber les augmentations d’échelle,</li>
<li>la haute disponibilité de cette infrastructure faces aux pics de charge.</li>
</ul>
<p>Les vertus « informatiques » du <em>grid computing </em>se transforment en atouts « métiers » : réduire les temps de calculs, c’est éviter les retards ou gagner du temps pour accroître la compétitivité et/ou pour améliorer ses processus.</p>
<p>Les <em>middlewares</em> « commerciaux » (citons pour l’exemple ceux de <a href="http://www.platform.com/">Platform</a> Computing, <a href="http://www.datasynapse.com/">Tibco Datasynapse</a>, <a href="http://www.gridgain.com/">GridGain</a> en <em>open source</em>) ont bien saisi ces enjeux. Développés à la suite des grilles académiques par transferts technologiques, ils tirent profit de ces besoins en proposant des solutions sur étagères et leur expertise.</p>
<p>Certes, ils évoluent sur un marché de niche, celui  constitué des clients historiques (banques, industries du pétrole, de l’automobile etc.). Mais avec la croissance exponentielle des volumes d’information, qu’il s’agisse d’événements (CEP) ou de données (<em>Big Data</em>), et la nécessité de les exploiter, le positionnement du <em>grid computing</em> pourrait bien se renforcer.</p>
<p><strong>3.     </strong><strong>Quels sont les défis à relever ?</strong></p>
<p>Le concept de <em>grid computing, </em>ainsi que les produits du marché, sont arrivés à maturité au cours de la dernière décennie. Pourtant, il reste encore quelques barrières à franchir pour assister à une démocratisation de cette approche :</p>
<ul>
<li><strong>L’expertise et le support des grilles informatiques ont un coût</strong> : il faut des techniciens qualifiés pour passer la barrière technologique des produits, ou développer/maintenir une grille « maison », mais aussi « gridifier », c’est-à-dire adapter ou développer des applications pour une exécution sur la grille. A ces coûts s’ajoutent ceux des problématiques connexes tels que le stockage ou le transfert des données.</li>
<li><strong>De plus, l’infrastructure peut nécessiter un investissement dédié.</strong>Chaque entreprise dispose généralement d’un ensemble conséquent d’ordinateurs connectés en réseau mais l’usage en grille de ces ressources existantes n’est pas évident :
<ul>
<li>La tendance à la virtualisation a progressivement optimisé l’usage des ressources serveurs qui sont moins sous-exploités qu’il y a une dizaine d’années.</li>
<li>Les préoccupations énergétiques interrogent sur l’intérêt, en entreprise, du modèle des grilles fondées sur des parcs d’ordinateurs peu puissants.</li>
</ul>
</li>
</ul>
<p>Pour autant, le <em>grid computing</em> n’est pas nécessairement l’apanage des grandes structures. Internet autorise le partage de ressources avec des partenaires extérieurs : des PME, des écoles ou des hôpitaux  peuvent se fédérer pour bâtir des grilles qui leur sont inaccessibles, seuls.</p>
<ul>
<li>Les grilles de calcul imposent un modèle d’architecture bien spécifique au sein du SI. De part leur caractère intrusif, elles exigent de trouver des solutions ou des compromis notamment en matière de sécurité mais également de dépasser les aprioris quant aux partages des ressources.</li>
</ul>
<p>Pour autant, le plus gros des défis, pour les acteurs du marché, sera celui du marketing. Le <em>grid computing</em> doit aujourd’hui savoir se faire entendre face à des concepts phagocytaires car, quand il est question de « <em>computing</em> », le « <em>cloud</em> » vient brouiller les pistes.</p>
<p>Pour l’heure, si l’entrée sur le marché d’IBM ne résout pas ce problème d’image, il confirme en revanche l’intérêt du modèle de « grille » et préfigure une tendance, celle de l’intégration. L’avenir du grid computing est, sans doute, au cœur, mais, dans l’ombre du « cloud ».</p>
<p>Pour lire plus d&#8217;articles sur le secteur de l&#8217;énergie, <a href="http://www.energystream-solucom.fr/" target="_blank">cliquez ici</a>.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/en/2011/10/quel-avenir-pour-le-grid-computing/">Quel avenir pour le grid computing ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com/en/">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
