<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Charles Dubos, Auteur</title>
	<atom:link href="https://www.riskinsight-wavestone.com/author/charles-dubos/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.riskinsight-wavestone.com/author/charles-dubos/</link>
	<description>Le blog cybersécurité des consultants Wavestone</description>
	<lastBuildDate>Mon, 12 Jul 2021 08:53:47 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.riskinsight-wavestone.com/wp-content/uploads/2024/02/Blogs-2024_RI-39x39.png</url>
	<title>Charles Dubos, Auteur</title>
	<link>https://www.riskinsight-wavestone.com/author/charles-dubos/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Estimation quantifiée du risque (2/2) : Quelles données, quels outils ?</title>
		<link>https://www.riskinsight-wavestone.com/2020/12/estimation-quantifiee-du-risque-2-2-quelles-donnees-quels-outils/</link>
		
		<dc:creator><![CDATA[Charles Dubos]]></dc:creator>
		<pubDate>Mon, 14 Dec 2020 14:34:05 +0000</pubDate>
				<category><![CDATA[Cyberrisk Management & Strategy]]></category>
		<category><![CDATA[Cybersecurity & Digital Trust]]></category>
		<category><![CDATA[données]]></category>
		<category><![CDATA[estimation]]></category>
		<category><![CDATA[FAIR]]></category>
		<category><![CDATA[management]]></category>
		<category><![CDATA[Outils]]></category>
		<category><![CDATA[quantification]]></category>
		<category><![CDATA[Risque]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=14804</guid>

					<description><![CDATA[<p>Si nous avons vu dans un article précédent la prédominance de FAIR dans le monde de la quantification[1], un autre article publié ici début juin[2] (détaillant la méthode FAIR dans sa seconde partie) insiste sur le soin à apporter dans...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2020/12/estimation-quantifiee-du-risque-2-2-quelles-donnees-quels-outils/">Estimation quantifiée du risque (2/2) : Quelles données, quels outils ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Si nous avons vu dans un article précédent la prédominance de FAIR dans le monde de la quantification<a href="#_ftn1" name="_ftnref1">[1]</a>, un autre article publié ici début juin<a href="#_ftn2" name="_ftnref2">[2]</a> (détaillant la méthode FAIR dans sa seconde partie) insiste sur le soin à apporter dans le déroulement de la méthode, dont les résultats des calculs (éventuellement automatisables) permettent d’obtenir des valeurs précises.</p>
<p>Cependant, comment modéliser ces différentes données d’entrée de FAIR ? Comment se font les calculs sur les données ? Existe-t-il des outils pour faciliter leur obtention ou évaluer leur qualité, et quels efforts demandent-ils pour être mis en œuvre ?</p>
<p>Ayants vu précédemment dans quelle mesure la méthode de quantification du risque était digne de confiance dans son déroulement, voyons à présent comment la part inévitable de subjectivité peut être confinée, et quels facilitateurs peuvent aider à obtenir des résultats sûrs.</p>
<p>&nbsp;</p>
<h2>Le carburant de FAIR : les données</h2>
<p>L’analyse du risque proposée par FAIR (selon le document de normalisation édité par l’OpenGroup<a href="#_ftn3" name="_ftnref3">[3]</a>) est réalisée en quatre temps :</p>
<ul>
<li>Dans un premier temps, de façon assez classique, il s’agit de préciser le périmètre du risque en question (<em>Scope the analysis</em>) : l’asset (le bien sujet au risque), le contexte de la menace (agent et scénario), et l’évènement de perte (ou évènement redouté considéré sous l’angle des pertes) ;</li>
<li>La deuxième étape (<em>Evaluate Loss Event Frequency</em>) consiste à collecter l’ensemble des données fréquentielles liées à l’évènement de perte (et donc intimement lié à l’agent de menace). Ceci consiste à collecter les valeurs de la branche de gauche dans l’arborescence ci-dessous.</li>
<li>La troisième (<em>Evaluate Loss Magnitude</em>), en évaluant les couts, focalise sur l’asset. Il s’agit alors de chiffrer les différentes pertes primaires (c’est-à-dire les pertes inévitables en cas d’occurrence du risque) et secondaires (ou pertes éventuelles, ne se produisant pas systématiquement en cas d’avènement du risque). Ceci consiste à collecter les valeurs de la branche de droite dans l’arborescence ci-dessous.</li>
<li>Enfin, la dernière étape (<em>Derive and Articulate Risk</em>) est le fusionnement des données obtenues conformément à l’arborescence FAIR par différents calculs, pour obtenir le résultat sous forme d’outputs exploitables.</li>
</ul>
<p>&nbsp;</p>
<figure id="post-14805 media-14805" class="align-none"><img fetchpriority="high" decoding="async" class="aligncenter wp-image-14805 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-1.png" alt="" width="1904" height="468" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-1.png 1904w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-1-437x107.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-1-71x17.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-1-768x189.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-1-1536x378.png 1536w" sizes="(max-width: 1904px) 100vw, 1904px" /></figure>
<p style="text-align: center;">Lien entre l’analyse et la taxonomie de FAIR</p>
<p>&nbsp;</p>
<p>Sans aller plus dans le détail de la taxonomie, déjà abordé dans l’article présenté précédemment2, nous constatons que l’analyse standard d’un seul risque demande déjà sept données (correspondant aux éléments de la base de l’arborescence) :</p>
<ol>
<li><em>Contact frequency;</em></li>
<li><em>Possibility of action;</em></li>
<li><em>Threat capability;</em></li>
<li><em>Resistance strength;</em></li>
<li><em>Primary loss magnitude;</em></li>
<li><em>Secondary loss magnitude;</em></li>
<li><em>Secondary loss event frequency.</em></li>
</ol>
<p>Il faut ajouter à cela que FAIR invite à décliner les pertes (primaires et secondaires) en six catégories (facilitant ainsi l’estimation précise de ces données de pertes) :</p>
<ul>
<li>En pertes de production : liées à l’interruption du service produit par l’asset ;</li>
<li>En cout de réponse : liées à la réponse à incident ;</li>
<li>En frais de remplacement : liées au remplacement des constituants endommagés de l’asset ;</li>
<li>En frais de justice : liées aux amendes et poursuites juridiques ;</li>
<li>En perte d’avantage compétitif : liées à l’impact sur l’organisation dans son secteur d’activité ;</li>
<li>En pertes de réputation : liées aux retombées sur l’image publique de l’organisation.</li>
</ul>
<p>&nbsp;</p>
<h2>Comment modéliser correctement l’incertitude du risque ?</h2>
<p>De plus, il est bon de se poser la question de ce qu’est concrètement une donnée FAIR.</p>
<p>En effet, il est trop réducteur de définir une donnée par une unique valeur chiffrée. Par exemple, si nous considérons l’attaque par rançongiciel : il serait incorrect d’affirmer qu’une occurrence de ce risque couterait exactement 475 k€<a href="#_ftn4" name="_ftnref4">[4]</a> (illustrée par la courbe bleue sur le graphe 1).</p>
<p>&nbsp;</p>
<figure id="post-14807 media-14807" class="align-none"><img decoding="async" class="alignnone size-medium wp-image-14807 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-2-286x191.png" alt="" width="286" height="191" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-2-286x191.png 286w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-2-58x39.png 58w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-2.png 352w" sizes="(max-width: 286px) 100vw, 286px" /></figure>
<p style="text-align: center;">Graphe 1 : Une distribution, un modèle plus réaliste qu’une valeur isolée</p>
<p>&nbsp;</p>
<p>En revanche, ajouter de l’incertitude à cette donnée en l’accompagnant d’une borne minimale (qui pourrait être de 1 € dans notre exemple) et d’une borne maximale (de 300 M€ dans l’exemple), tout en gardant la valeur la plus probable énoncée précédemment, permettrait de modéliser beaucoup plus fidèlement la réalité (courbe violette du graphe 1).</p>
<p>Une donnée est alors définie par un minimum, un maximum et une valeur la plus probable (correspondant au pic de la distribution). Nous pouvons de plus noter qu’une telle distribution de probabilité est indépendante du type de valeurs considérées : il peut aussi bien s’agir d’une perte dans une devise quelconque (cf. l’exemple précédent), que d’une occurrence (par exemple, entre 1 fois par an et 1 fois tous les 10 ans, et une valeur plus probable autour d’une fois tous les deux ans), ou bien même d’un ratio (entre 30% et 70 %, plus probablement autour de 45%). Nous pouvons ainsi utiliser ces distributions pour modéliser toutes les données de la taxonomie FAIR.</p>
<p>Un autre avantage de la modélisation de l’incertitude par une distribution est de pouvoir régler finement le degré de confiance dans la valeur la plus probable, via le coefficient d’aplatissement de la courbe. Plus ce dernier sera élevé, plus la confiance dans la donnée sera grande (correspondant à un pic très marqué, cf. la courbe verte sur le graphe 2). En revanche, une donnée peu fiable sera modélisée par une distribution beaucoup plus homogène (cf. la courbe rouge sur le graphe 2).</p>
<p>&nbsp;</p>
<figure id="post-14809 media-14809" class="align-none"><img decoding="async" class="alignnone size-medium wp-image-14809 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-3-286x191.png" alt="" width="286" height="191" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-3-286x191.png 286w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-3-58x39.png 58w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-3.png 352w" sizes="(max-width: 286px) 100vw, 286px" /></figure>
<p style="text-align: center;">Graphe 2 : Refléter le niveau de confiance à travers les distributions</p>
<p>&nbsp;</p>
<p>Cependant, le fait d’utiliser des distributions plutôt que des valeurs fixes pose problème lorsqu’il s’agit de les combiner entre elles, ce qui sera nécessairement le cas lorsque nous effectuerons les calculs de l’arborescence FAIR. Comme nous pouvons en effet le constater sur le graphe 3 (l’addition de la distribution verte et de la rouge donnant la violette), l’addition de deux lois de distribution ne permet pas d’obtenir une distribution aussi ‘simple’ que les précédentes (elle ne suit plus une loi de probabilité dite log-normale). Cela est également le cas dans le cadre d’une multiplication (dont le résultat est également complexe).</p>
<p>&nbsp;</p>
<figure id="post-14811 media-14811" class="align-none"><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-14811 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-4-286x191.png" alt="" width="286" height="191" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-4-286x191.png 286w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-4-58x39.png 58w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-4.png 550w" sizes="auto, (max-width: 286px) 100vw, 286px" /></figure>
<p style="text-align: center;">Graphe 3 : addition de deux distributions.</p>
<p>&nbsp;</p>
<p>Pour obtenir un résultat mathématiquement cohérent, la théorie des jeux nous donne un moyen simple : les simulations de Monte Carlo. Il s’agit en effet de discrétiser les distributions (la verte et la rouge du graphe 3), en un nombre prédéfini de valeurs aléatoires (appelé nombre de simulations), réparties de façon à correspondre à la distribution concernée. Nous pouvons ensuite combiner les distributions ainsi discrétisées en effectuant les calculs sur des paires de valeurs de chaque distribution. La nouvelle répartition pourra ensuite être approximée, et sera d’autant plus précise que le nombre de simulations sera grand.</p>
<p>&nbsp;</p>
<h2>Les caisses à outils artisanales pour automatiser FAIR…</h2>
<p>Pour effectuer ces calculs permettant d’obtenir une valeur chiffrée du risque, des solutions ont émergé (principalement à partir de la méthode FAIR). Nous aborderons donc ici les avantages et inconvénients de ces outils, qui sont également cités dans l’article précédent1.</p>
<h3>L’OpenFAIR Analysis Tool</h3>
<p>La première que nous pouvons citer est l’OpenFAIR Analysis Tool<a href="#_ftn5" name="_ftnref5">[5]</a>. Si cet outil a simplement un but pédagogique, il permet néanmoins de comprendre le fonctionnement de FAIR. Il est ainsi possible d’avoir une première application concrète de la méthode, et d’obtenir des résultats simplement (uniquement dans le cadre d’une analyse d’un risque isolé). Mis sur pied par l’université de San José (Californie) en collaboration avec l’OpenGroup, cet outil utilise une feuille Excel pour obtenir une évaluation du risque à partir d’un nombre prédéterminé de simulations, en respectant scrupuleusement la taxonomie FAIR.</p>
<p>&nbsp;</p>
<figure id="post-14813 media-14813" class="align-none"><img loading="lazy" decoding="async" class="aligncenter wp-image-14813 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-5.png" alt="" width="1931" height="1091" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-5.png 1931w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-5-338x191.png 338w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-5-69x39.png 69w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-5-768x434.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-5-1536x868.png 1536w" sizes="auto, (max-width: 1931px) 100vw, 1931px" /></figure>
<p style="text-align: center;">OpenFAIR Risk Analysis Tool : un outil avant tout pédagogique</p>
<p>&nbsp;</p>
<p>Très utile pour avoir un premier contact avec la quantification, l’outil reste cependant très limité en termes d’utilisation. Enfin, il faut noter qu’il n’est accessible que sous Excel et avec une licence d’évaluation limitée à 90 jours.</p>
<h3>Riskquant</h3>
<p>Pour une utilisation à plus grande échelle, le département R&amp;D de Netflix a mis sur pied la solution Riskquant<a href="#_ftn6" name="_ftnref6">[6]</a>. Il s’agit d’une bibliothèque de programmation Python, s’appuyant notamment sur tensorflow (un module python spécialisé pour le calcul statistique massif). La particularité de Riskquant est de proposer une quantification du risque inspirée de la taxonomie FAIR, mais ayant gardé une grande liberté dans son implémentation. Développée pour faciliter l’utilisation sur des conteneurs, elle permet par conception des évaluations très rapides à partir de fichiers csv.</p>
<p>&nbsp;</p>
<figure id="post-14815 media-14815" class="align-none"><img loading="lazy" decoding="async" class="aligncenter wp-image-14815 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-6.png" alt="" width="1920" height="1020" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-6.png 1920w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-6-360x191.png 360w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-6-71x39.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-6-768x408.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-6-1536x816.png 1536w" sizes="auto, (max-width: 1920px) 100vw, 1920px" /></figure>
<p style="text-align: center;">Riskquant : une approche originale mais manquant de maturité</p>
<p>&nbsp;</p>
<p>Cependant, le fait de n’avoir gardé de FAIR qu’une valeur unique de perte et une fréquence unique la rend peu exploitable, notamment dans le cadre d’une organisation qui chercherait à cadrer précisément ses risques. De plus, elle ne fournit à ce jour que peu de résultats exploitables et manque clairement de maturité. Enfin, elle semble à ce jour mise en sommeil depuis le 1<sup>er</sup> mai 2020 (date du dernier dépôt sur la page GitHub de la solution).</p>
<h3>PyFAIR</h3>
<p>Pour finir ce paragraphe sur les solutions pouvant servir de base à une implémentation de FAIR, la bibliothèque PyFAIR est disponible sur le dépôt python officiel (téléchargeable via l’outil pip). Désormais mature, l’outil permet une décomposition du risque suivant la taxonomie FAIR. Il permet également d’alimenter l’arborescence à partir de valeurs intermédiaires, ou de regrouper des données pouvant servir à plusieurs risques (permettant par exemple des regroupements par asset ou menaces). Il est capable de calculer des risques globaux, et fournit des distributions facilement exploitables sous python, mais également des graphiques et des rapports HTML préformattés.</p>
<p>&nbsp;</p>
<figure id="post-14817 media-14817" class="align-none"><img loading="lazy" decoding="async" class="aligncenter wp-image-14817 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-7.png" alt="" width="532" height="274" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-7.png 532w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-7-371x191.png 371w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-7-71x37.png 71w" sizes="auto, (max-width: 532px) 100vw, 532px" /></figure>
<p style="text-align: center;">PyFAIR, une bibliothèque complète et efficace en Python</p>
<p>&nbsp;</p>
<p>Bien qu’elle reste une boite à outil de programmation, demandant de fait une appétence et du temps pour développer et entretenir une solution en Python, PyFAIR est bien conçue. Elle facilite l’implémentation de FAIR en restant très proche de la taxonomie, et fournit des fonctions facilitant la mise en œuvre comme l’exploitation des résultats. Apte à être exploitée à plusieurs niveaux (i.e. en l’utilisant uniquement pour calculer des résultats à partir d’un paramétrage fin de FAIR et de Monte Carlo, ou bien en exploitant des fonctions de génération de rapports de haut niveau), elle permet d’envisager une utilisation de la quantification techniquement facilitée et à grande échelle.</p>
<p>&nbsp;</p>
<h2>Des plateformes ‘clé en main’ pour faciliter l’acquisition des données :</h2>
<p>Néanmoins, la difficulté principale de FAIR reste, comme nous l’avons vu précédemment, l’obtention de données et leur fiabilité. Pour y faire face efficacement, la solution la plus efficace est de s’appuyer sur une plateforme intégrant une base de données de CTI.</p>
<p>Ces plateformes fournissent les valeurs de risque liées aux menaces (donc très peu dépendantes de l’entreprise). Elles accompagnent de plus le déploiement et la mise en œuvre de la méthode de quantification, notamment en la guidant pour l’obtention de données de pertes adaptées.</p>
<h3>RiskLens</h3>
<p>La première de ces solutions est la plateforme RiskLens<a href="#_ftn7" name="_ftnref7">[7]</a>. Cette solution, directement issue de la méthodologie FAIR, a été co-fondée par Jack Jones. Elle sert de support technique au développement de la méthode, en lien avec le FAIR Institute. Ayant une approche technique de la méthode, elle porte son effort sur le respect des standards de l’analyse en général et de la définition du périmètre (première étape de FAIR) en particulier.</p>
<p>&nbsp;</p>
<figure id="post-14819 media-14819" class="align-none"><img loading="lazy" decoding="async" class="aligncenter wp-image-14819 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-8.png" alt="" width="776" height="431" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-8.png 776w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-8-344x191.png 344w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-8-71x39.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-8-768x427.png 768w" sizes="auto, (max-width: 776px) 100vw, 776px" /></figure>
<p style="text-align: center;">RiskLens, l’application de FAIR à la lettre</p>
<p>&nbsp;</p>
<p>Néanmoins, il faut noter que d’une part, cette solution demande d’avoir des notions avancées dans la méthode FAIR pour être facilement utilisable. En effet, la plateforme n’apporte pas une véritable aide pour l’obtention des données (qui comme nous l’avons vu, reste la clé de voute de la quantification), partant du principe que la définition du périmètre suffit à définir précisément la donnée, et de ce fait de l’obtenir aisément. D’autre part, il s’agit d’une plateforme américaine, ce qui implique que l’interface (assez peu intuitive) est uniquement disponible dans cette langue, et que les données collectées sont alors assujetties à la réglementation américaine.</p>
<h3>CITALID</h3>
<p>La seconde plateforme dont nous ferons mention ici est la startup française CITALID, qui a adopté une approche fondamentalement différente. En effet, cette dernière, fondée par deux analystes de l’ANSSI, recherche par conception à lier la CTI à la gestion de risque. Ainsi, utilisant FAIR comme l’outil leur permettant de réaliser ce lien, elle fait effort sur la conception et le maintien d’une base de données disposant de chiffres solides et maintenus à jour pour suivre au plus près la situation cyber géopolitique locale et internationale.</p>
<p>&nbsp;</p>
<figure id="post-14821 media-14821" class="align-none"><img loading="lazy" decoding="async" class="aligncenter wp-image-14821 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-9.png" alt="" width="1920" height="1080" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-9.png 1920w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-9-340x191.png 340w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-9-69x39.png 69w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-9-768x432.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-9-1536x864.png 1536w" sizes="auto, (max-width: 1920px) 100vw, 1920px" /></figure>
<p style="text-align: center;">CITALID, une base de données à haute valeur ajoutée</p>
<p>&nbsp;</p>
<p>Cette dernière plateforme apporte un vrai accompagnement dans la définition et la collecte des données, permettant ainsi d’identifier précisément où subsiste la part de subjectivité indéniablement liée au risque. Disponible en français et en anglais, elle facilite la gestion du risque cyber en prenant en compte tous les paramètres de l’organisation (localisation, taille, secteur d’activité, niveau de maturité, conformité aux référentiels, etc.) pour fournir des données de contextes adaptées. En outre, et en plus d’une explicitation de chacun des champs de la plateforme, la startup accompagne ses clients dans l’obtention des données qui sont de leur ressort.</p>
<p>&nbsp;</p>
<h2>FAIR le premier pas…</h2>
<p>Quoi qu’il en soit, la difficulté demeurera toujours de réussir la transition de l’estimation qualitative à l’estimation quantitative. Bien que des solutions puissent faciliter cette bascule, l’abandon d’une méthode maitrisée pour une nouvelle méthode reste un défi, malgré tous les bienfaits que cette dernière promet.</p>
<p>S’il fallait insister sur 3 points pour envisager ce changement, ceux-ci pourraient être :</p>
<ul>
<li>D’une part, de s’assurer d’avoir la maturité requise. La quantification demande d’avoir une bonne maitrise du niveau de sécurité du SI concerné, et de s’adosser à une méthode de gestion du risque préexistante et rodée. Si la quantification apporte des solutions pour chiffrer un risque, le provisionner ou estimer le ROI d’une mesure, il est cependant inutile (voire contre-productif) de s’engager sur cette voie trop tôt (sous peine au mieux de perdre du temps, au pire de dégrader la gestion de risque existante).</li>
<li>Ensuite, d’avoir une approche progressive dans le déploiement de la quantification. Dans un SI mature disposant d’une gestion de risque stable, il est préférable d’adopter progressivement la méthode quantitative. Cela permet notamment de prendre confiance dans les estimations produites (éventuellement en le faisant coexister avec la méthode d’estimation qualitative) et d’assimiler la méthodologie, tout en assurant son intégration dans le processus existant de gestion du risque.</li>
<li>Pour terminer, de s’appuyer sur l’expérience existante dans la collecte des données de risque cyber. La difficulté résidant dans l’obtention de données sûres, il est crucial (pour avoir confiance dans la méthode) de disposer de chiffres sûrs. Il semble alors judicieux de s’appuyer sur une plateforme qui peut fournir des données de qualité, et un appui dans la collecte des données internes. Celle-ci disposera de plus de l’expérience acquise par le déploiement de la méthode sur d’autres clients. La qualité des résultats fournis sera alors l’élément clé dans la confiance que l’organisation aura dans la méthode quantitative.</li>
</ul>
<p>&nbsp;</p>
<p><a href="#_ftnref1" name="_ftn1">[1]</a> <a href="https://www.riskinsight-wavestone.com/2020/11/estimation-quantifiee-du-risque-1-2-lodyssee-de-la-quantification/">https://www.riskinsight-wavestone.com/2020/11/estimation-quantifiee-du-risque-1-2-lodyssee-de-la-quantification/</a></p>
<p><a href="#_ftnref2" name="_ftn2">[2]</a> <a href="https://www.riskinsight-wavestone.com/2020/06/la-quantification-du-risque-cybersecurite/">https://www.riskinsight-wavestone.com/2020/06/la-quantification-du-risque-cybersecurite/</a></p>
<p><a href="#_ftnref3" name="_ftn3">[3]</a> <a href="https://publications.opengroup.org/c13g">https://publications.opengroup.org/c13g</a></p>
<p><a href="#_ftnref4" name="_ftn4">[4]</a> <a href="https://www.sophos.com/fr-fr/medialibrary/Gated-Assets/white-papers/sophos-the-state-of-ransomware-2020-wp.pdf">https://www.sophos.com/fr-fr/medialibrary/Gated-Assets/white-papers/sophos-the-state-of-ransomware-2020-wp.pdf</a></p>
<p><a href="#_ftnref5" name="_ftn5">[5]</a> <a href="https://blog.opengroup.org/2018/03/29/introducing-the-open-group-open-fair-risk-analysis-tool/">https://blog.opengroup.org/2018/03/29/introducing-the-open-group-open-fair-risk-analysis-tool/</a></p>
<p><a href="#_ftnref6" name="_ftn6">[6]</a> <a href="https://netflixtechblog.com/open-sourcing-riskquant-a-library-for-quantifying-risk-6720cc1e4968">https://netflixtechblog.com/open-sourcing-riskquant-a-library-for-quantifying-risk-6720cc1e4968</a></p>
<p><a href="#_ftnref7" name="_ftn7">[7]</a> <a href="https://www.risklens.com/">https://www.risklens.com/</a></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2020/12/estimation-quantifiee-du-risque-2-2-quelles-donnees-quels-outils/">Estimation quantifiée du risque (2/2) : Quelles données, quels outils ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Estimation quantifiée du risque (1/2) : L’odyssée de la quantification</title>
		<link>https://www.riskinsight-wavestone.com/2020/11/estimation-quantifiee-du-risque-1-2-lodyssee-de-la-quantification/</link>
		
		<dc:creator><![CDATA[Charles Dubos]]></dc:creator>
		<pubDate>Mon, 30 Nov 2020 14:35:50 +0000</pubDate>
				<category><![CDATA[Cyberrisk Management & Strategy]]></category>
		<category><![CDATA[Cybersecurity & Digital Trust]]></category>
		<category><![CDATA[FAIR]]></category>
		<category><![CDATA[ISO 27k]]></category>
		<category><![CDATA[OpenFAIR]]></category>
		<category><![CDATA[quantification]]></category>
		<category><![CDATA[Risque]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=14441</guid>

					<description><![CDATA[<p>Il y a quelques mois, François LUCQUET et Anaïs ETIENNE nous faisaient part[1] de l’intérêt croissant pour la quantification des risques cyber, mais nous mettaient également en garde contre un trop grand empressement à s’engager sur la voie de la...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2020/11/estimation-quantifiee-du-risque-1-2-lodyssee-de-la-quantification/">Estimation quantifiée du risque (1/2) : L’odyssée de la quantification</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Il y a quelques mois, François LUCQUET et Anaïs ETIENNE nous faisaient part<a href="#_ftn1" name="_ftnref1">[1]</a> de l’intérêt croissant pour la quantification des risques cyber, mais nous mettaient également en garde contre un trop grand empressement à s’engager sur la voie de la quantification sans réflexion préalable. Leur analyse, toujours d’actualité, insistait notamment sur le niveau de maturité requis pour s’engager dans une méthode d’estimation quantitative, ce dernier point réduisant drastiquement le périmètre des organisations susceptibles de s’engager sur cette voie. Pourtant, certaines méthodes de quantification sont à l’origine de solutions qui redonnent espoir dans la possibilité de chiffrer ses risques en termes financiers, et par la même logique de pouvoir évaluer un retour sur investissement.</p>
<p>Aussi est-il utile à ce point de faire un tour d’horizon des méthodes et théories existantes, ou susceptibles d’aboutir sur des résultats concrets. Dans le big-bang de la quantification du risque cyber, quels sont les ancrages théoriques qui pourraient voir naitre une méthode ? Lesquels ont abouti, lesquels semblent matures ? Pouvons-nous espérer à plus ou moins long terme des alternatives aux méthodes d’évaluation quantitatives actuelles ?</p>
<p>&nbsp;</p>
<h2>Feuille de route : Analyse de risque et quantification : qu’en attendre ?</h2>
<p>Pour situer la quantification dans le champ de la gestion du risque, commençons par préciser ce que nous cherchons. Au sein d’un procédé de gestion de risque, l’objectif est avant tout de définir une valeur chiffrée exploitable illustrant un niveau de risque (généralement un coût financier).</p>
<p>Il s’agit donc, en reprenant les termes de l’ISO 27k, uniquement d’une nouvelle évaluation du risque. En effet, les phases précédentes de contextualisation et d’identification des risques n’ont pas à priori de raisons d’être concernées par la quantification. Les phases de traitement, d’acceptation, de supervision ou de communication du risque, si elles bénéficieront des résultats de l’analyse quantitative, n’ont pas plus vocation à être bousculées dans leurs fondements. Il s’agit donc en réalité de trouver des moyens pour estimer chaque risque.</p>
<p>&nbsp;</p>
<figure id="post-14750 media-14750" class="align-none"><img loading="lazy" decoding="async" class="aligncenter wp-image-14750 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image1-2.png" alt="" width="757" height="550" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image1-2.png 757w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image1-2-263x191.png 263w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image1-2-54x39.png 54w" sizes="auto, (max-width: 757px) 100vw, 757px" /></figure>
<p>&nbsp;</p>
<p>Ce point, plutôt trivial mais crucial, nous permet de nous assurer que, bien que fondamentalement différentes des méthodes qualitatives dans leurs résultats, les méthodes quantitatives s’adosseront quoi qu’il en soit à des méthodes préexistantes. Ceci permet de se rassurer sur le fait que, bien qu’il soit nécessaire pour les employer de disposer d’une gestion de risque mature, cette gestion de risque sera également le socle de la quantification (qui exploitera ainsi la phase d’identification préexistante).</p>
<p>Maintenant que nous avons cadré l’apport de la quantification dans l’analyse globale des risques d’une organisation, précisons ce que nous souhaitons en attendre indépendamment de la possibilité de réalisation de ces assertions :</p>
<ul>
<li>D’une part, il est impératif que cette méthode soit plus précise dans son résultat par rapport à la méthode qualitative qui la précède. Ceci signifie surtout que, dès la première occurrence et sans avoir fourni de résultat auparavant, elle doit donner une estimation chiffrée précise (qui peut dans la mesure du possible contenir plusieurs valeurs : risque maximal ou risque probable notamment).</li>
<li>Nous pouvons également vouloir qu’elle soit plus rapide à réaliser, ou du moins qu’elle se réalise dans un temps acceptable, afin de pouvoir remplacer complètement à terme l’estimation qualitative. Il s’agit ici du temps qu’il serait nécessaire pour mettre en œuvre l’analyse, et ce sans avoir à s’inquiéter outre mesure des délais du calcul (ce dernier pouvant aujourd’hui assez efficacement être délégué, en particulier via le cloud). Il s’agit finalement si nous croisons ce souhait avec le précédent d’avoir une meilleure efficience que l’évaluation qualitative.</li>
<li>Par ailleurs, il est souhaitable que l’estimation quantitative s’appuie sur des données concrètes, afin de gagner en crédibilité dans les résultats produits. En effet, le processus d’une méthode quantitative étant fondée sur des théories mathématiques, seule une implémentation incorrecte pourrait introduire de la subjectivité dans les valeurs obtenues. Ce dernier point permettrait de justifier qu’en un temps équivalent à l’analyse qualitative, nous ayons des résultats plus fins.</li>
<li>Enfin, et cela découle du point précédent, il nous est nécessaire de disposer d’une taxonomie précise, afin que les données à collecter soient clairement définies quel que soit le risque envisagé. En effet, si l’estimation quantitative s’appuie sur des théories mathématiques éprouvées, la qualité des données produites ne dépendra alors plus que de la qualité des données utilisées en entrée, et plus particulièrement de la pertinence et de la cohérence de la donnée au vue de sa définition.</li>
</ul>
<p>&nbsp;</p>
<h2>Au centre de la galaxie : passer de la théorie à la pratique</h2>
<p>Ayant précisé quels sont les caractéristiques de la quantification, voyons maintenant quels sont les théories mathématiques qui permettraient de prendre en compte l’aléa lié à un risque.</p>
<p>Considérons par exemple la théorie des <em>Fuzzy sets</em>, ou ensembles flous. Cette théorie mathématique est basée sur le principe qu’un élément, au lieu d’appartenir ou non à un ensemble, puisse ne lui appartenir que partiellement selon un degré variable. Cela pourrait permettre de faire ressortir l’occurrence ou l’impact d’un risque au travers du degré d’appartenance de ce risque à des ensembles. Cette théorie, bien qu’intéressante, n’a cependant pas débouché sur des applications concrètes.</p>
<p>Une autre approche, que l’on pourrait qualifier de corrélative, reposerait sur l’utilisation de réseaux de neurones auto-apprenants pour déterminer à partir de données de CTI, quel serait le niveau du risque d’une entreprise au vu de ses caractéristiques. Cette théorie a bénéficié de l’engouement actuel pour l’intelligence artificielle, au point de déboucher au niveau universitaire sur des études comparant les différents modes d’apprentissage (notamment BP<a href="#_ftn2" name="_ftnref2">[2]</a> ou RBF<a href="#_ftn3" name="_ftnref3">[3]</a>) en vue d’une utilisation dans le cadre d’une analyse de risque cyber. Cependant, elle ne semble pas à ce jour suffisamment mature pour parvenir à obtenir une méthode réaliste.</p>
<p>Finalement, la seule solution mathématique ayant porté des fruits à ce jour a été l’analyse statistique (et la théorie des jeux qui offre le moyen de combiner les distributions statistiques, voir à ce sujet le billet « Quantification du risque et données : conseils et outils »<a href="#_ftn4" name="_ftnref4">[4]</a>). Le principe de l’analyse statistique est de se baser sur des observations statistiques pour estimer le niveau d’un risque. L’aléa du risque est alors, en grande partie, pris en compte par la répartition de la distribution statistique.</p>
<p>A partir de ces statistiques, deux approches sont envisageables :</p>
<ul>
<li>La première est illustrée par une méthode proposée par l’IMF<a href="#_ftn5" name="_ftnref5">[5]</a>. Elle se propose d’évaluer un risque cyber par une analyse statistique fine et détaillée. Elle est cependant très calculatoire et peu accessible pour une utilisation régulière dans le cadre d’une estimation quantifiée du risque. Elle garde cependant un intérêt indubitable dans le cadre d’une analyse d’un niveau de risque cyber sur plusieurs entités dont on disposerait de données, ce qui peut s’avérer utile pour un assureur ou dans le milieu de la banque. Elle reste cependant cloisonnée à cette utilisation. Réduisant d’autant le périmètre déjà limité des entités disposant d’une maturité cyber acceptable, cette méthode ne semble pas pouvoir proposer à court ou moyen terme une solution exploitable à l’échelle du SI d’une organisation.</li>
<li>La seconde consiste à décomposer tout risque cyber en fonction de caractéristiques communes. C’est notamment l’approche de la méthodologie FAIR : elle propose dans sa taxonomie (cf. ‘comment appliquer la méthode FAIR’1) une dissociation du risque en fonction de son occurrence et de l’impact estimé d’un point de vue financier. FAIR propose ensuite une déclinaison de ces deux paramètres qui, du fait de leur caractère universel, peuvent s’appliquer de ce fait à n’importe quel risque cyber. Ce type de méthode a donc l’avantage de proposer un processus identique pour l’analyse de tout risque cyber, favorisant son utilisation dans un contexte organisationnel qui peut ensuite comparer des risques cyber de nature distincte.</li>
</ul>
<p>&nbsp;</p>
<figure id="post-14752 media-14752" class="align-none"><img loading="lazy" decoding="async" class="aligncenter wp-image-14752 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image2-2-e1606746909181.png" alt="" width="1807" height="741" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image2-2-e1606746909181.png 1807w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image2-2-e1606746909181-437x179.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image2-2-e1606746909181-71x29.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image2-2-e1606746909181-768x315.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image2-2-e1606746909181-1536x630.png 1536w" sizes="auto, (max-width: 1807px) 100vw, 1807px" /></figure>
<p style="text-align: center;">La galaxie de la quantification</p>
<p>&nbsp;</p>
<h2>La méthode FAIR : un trou noir supermassif</h2>
<p>Actuellement, seule la méthode FAIR a donné naissance à des solutions de quantification exploitables au sein d’une entreprise. Son monopole dans le domaine est tel, qu’elle est devenue une référence incontournable pour qu’une solution ou une méthodologie subsiste. Tel un trou noir, elle attire à elle toutes les solutions actuelles de quantification. Nous pouvons par exemple pour illustrer ceci citer la bibliothèque Risquant, développée par le département R&amp;D de Netflix<a href="#_ftn6" name="_ftnref6">[6]</a>. Cette dernière annonce clairement s’appuyer sur la méthode FAIR. Elle prend néanmoins une grande liberté dans l’interprétation de la taxonomie et de l’analyse, mais le fait de citer cette filiation lui permet cependant d’être plus facilement acceptée et reconnue.</p>
<p>Cette hégémonie de FAIR s’explique assez facilement :</p>
<ul>
<li>Pour commencer, c’est une méthode pragmatique par conception. Son inventeur, Jack Jones, l’a mise sur pied alors qu’il était RSSI d’un grand groupe américain, et qu’il lui était demandé de justifier du ROI cyber. Elle a donc été initiée dans un but opérationnel, puis s’est affinée et a gagné en crédibilité en s’appuyant sur des outils et des théories mathématiques. Ce concept de développement (i.e. le fait que la méthode soit née d’un besoin puis justifiée ensuite mathématiquement), fait de FAIR une méthode particulièrement appréciée des premiers concernés que sont les RSSI et autres cyber-risk managers.</li>
<li>Ensuite, elle a été particulièrement visionnaire, puisqu’elle a précédé toutes les autres méthodes. Apparue en 2001, elle a fait dès 2006 l’objet d’une publication explicitant en détail son fonctionnement et sa taxonomie. Au fur et à mesure, une communauté s’est constituée autour de Jack Jones et de sa méthode, le FAIR Institute. Ce dernier a eu à cœur de poursuivre la maturation et la diffusion de la méthode. Ceci s’est notamment concrétisé par la mise en place de facilitateurs pour la rendre toujours plus efficiente et exploitable.</li>
<li>La méthode FAIR dispose également d’une base particulièrement solide : outre la publication évoquée ci-dessus et qui a fait l’objet en 2016 d’une réédition enrichie, elle s’appuie sur deux documents de standardisation, édités par l’OpenGroup (consortium à l’origine du standard d’architecture de SI TOGAF). L’OpenGroup propose également une certification à la méthode, basée sur ces deux standards, et qui ajoutent au rayonnement de la méthode.</li>
<li>Enfin, FAIR est fortement soutenue (en particulier outre-Atlantique) : la communauté qui l’anime est particulièrement active et contribue autant à son évolution qu’à sa promotion : les liens entre l’OpenFAIR et le FAIR Institute, tous deux cités ci-dessus, sont sensiblement étroits. La solidité de ses liens est assurée par le fait que Jack Jones, père de la méthode, joue un rôle central dans les deux organisations.</li>
</ul>
<p>Ainsi, dans le monde de la quantification du risque cyber, les seules solutions opérationnelles à ce jour s’appuient toutes, avec une filiation plus ou moins grande mais toujours affichée, sur la méthodologie FAIR.</p>
<p>Si la maturité de celle-ci semble désormais acquise, son monopole dans le domaine permet avec peu de doute d’envisager, au moins pour les années à venir, qu’elle restera la seule méthode de quantification. Pour qu’une autre méthode puisse un jour faire jeu égal, et outre le fait qu’il lui faudra asseoir sa crédibilité conceptuelle, il lui faudra surtout se faire une place à côté de l’hégémonie de FAIR, tout en prouvant qu’elle est plus efficiente que cette dernière, qui a désormais acquis ses lettres de noblesse.</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p><a href="#_ftnref1" name="_ftn1">[1]</a> <a href="https://www.riskinsight-wavestone.com/2020/06/la-quantification-du-risque-cybersecurite/">https://www.riskinsight-wavestone.com/2020/06/la-quantification-du-risque-cybersecurite/</a></p>
<p><a href="#_ftnref2" name="_ftn2">[2]</a> Back-propagation : propagation inverse</p>
<p><a href="#_ftnref3" name="_ftn3">[3]</a> Radial basis functions : fonctions de base radiale</p>
<p><a href="#_ftnref4" name="_ftn4">[4]</a> Article 2 disponible sur Risk Insight</p>
<p><a href="#_ftnref5" name="_ftn5">[5]</a> <a href="https://www.imf.org/en/Publications/WP/Issues/2018/06/22/Cyber-Risk-for-the-Financial-Sector-A-Framework-for-Quantitative-Assessment-45924">https://www.imf.org/en/Publications/WP/Issues/2018/06/22/Cyber-Risk-for-the-Financial-Sector-A-Framework-for-Quantitative-Assessment-45924</a></p>
<p><a href="#_ftnref6" name="_ftn6">[6]</a> <a href="https://netflixtechblog.com/open-sourcing-riskquant-a-library-for-quantifying-risk-6720cc1e4968">https://netflixtechblog.com/open-sourcing-riskquant-a-library-for-quantifying-risk-6720cc1e4968</a></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2020/11/estimation-quantifiee-du-risque-1-2-lodyssee-de-la-quantification/">Estimation quantifiée du risque (1/2) : L’odyssée de la quantification</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
