<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>quantification - RiskInsight</title>
	<atom:link href="https://www.riskinsight-wavestone.com/tag/quantification/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.riskinsight-wavestone.com/tag/quantification/</link>
	<description>Le blog cybersécurité des consultants Wavestone</description>
	<lastBuildDate>Mon, 12 Jul 2021 08:54:36 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.riskinsight-wavestone.com/wp-content/uploads/2024/02/Blogs-2024_RI-39x39.png</url>
	<title>quantification - RiskInsight</title>
	<link>https://www.riskinsight-wavestone.com/tag/quantification/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Estimation quantifiée du risque (2/2) : Quelles données, quels outils ?</title>
		<link>https://www.riskinsight-wavestone.com/2020/12/estimation-quantifiee-du-risque-2-2-quelles-donnees-quels-outils/</link>
		
		<dc:creator><![CDATA[Charles Dubos]]></dc:creator>
		<pubDate>Mon, 14 Dec 2020 14:34:05 +0000</pubDate>
				<category><![CDATA[Cyberrisk Management & Strategy]]></category>
		<category><![CDATA[Cybersecurity & Digital Trust]]></category>
		<category><![CDATA[données]]></category>
		<category><![CDATA[estimation]]></category>
		<category><![CDATA[FAIR]]></category>
		<category><![CDATA[management]]></category>
		<category><![CDATA[Outils]]></category>
		<category><![CDATA[quantification]]></category>
		<category><![CDATA[Risque]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=14804</guid>

					<description><![CDATA[<p>Si nous avons vu dans un article précédent la prédominance de FAIR dans le monde de la quantification[1], un autre article publié ici début juin[2] (détaillant la méthode FAIR dans sa seconde partie) insiste sur le soin à apporter dans...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2020/12/estimation-quantifiee-du-risque-2-2-quelles-donnees-quels-outils/">Estimation quantifiée du risque (2/2) : Quelles données, quels outils ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Si nous avons vu dans un article précédent la prédominance de FAIR dans le monde de la quantification<a href="#_ftn1" name="_ftnref1">[1]</a>, un autre article publié ici début juin<a href="#_ftn2" name="_ftnref2">[2]</a> (détaillant la méthode FAIR dans sa seconde partie) insiste sur le soin à apporter dans le déroulement de la méthode, dont les résultats des calculs (éventuellement automatisables) permettent d’obtenir des valeurs précises.</p>
<p>Cependant, comment modéliser ces différentes données d’entrée de FAIR ? Comment se font les calculs sur les données ? Existe-t-il des outils pour faciliter leur obtention ou évaluer leur qualité, et quels efforts demandent-ils pour être mis en œuvre ?</p>
<p>Ayants vu précédemment dans quelle mesure la méthode de quantification du risque était digne de confiance dans son déroulement, voyons à présent comment la part inévitable de subjectivité peut être confinée, et quels facilitateurs peuvent aider à obtenir des résultats sûrs.</p>
<p>&nbsp;</p>
<h2>Le carburant de FAIR : les données</h2>
<p>L’analyse du risque proposée par FAIR (selon le document de normalisation édité par l’OpenGroup<a href="#_ftn3" name="_ftnref3">[3]</a>) est réalisée en quatre temps :</p>
<ul>
<li>Dans un premier temps, de façon assez classique, il s’agit de préciser le périmètre du risque en question (<em>Scope the analysis</em>) : l’asset (le bien sujet au risque), le contexte de la menace (agent et scénario), et l’évènement de perte (ou évènement redouté considéré sous l’angle des pertes) ;</li>
<li>La deuxième étape (<em>Evaluate Loss Event Frequency</em>) consiste à collecter l’ensemble des données fréquentielles liées à l’évènement de perte (et donc intimement lié à l’agent de menace). Ceci consiste à collecter les valeurs de la branche de gauche dans l’arborescence ci-dessous.</li>
<li>La troisième (<em>Evaluate Loss Magnitude</em>), en évaluant les couts, focalise sur l’asset. Il s’agit alors de chiffrer les différentes pertes primaires (c’est-à-dire les pertes inévitables en cas d’occurrence du risque) et secondaires (ou pertes éventuelles, ne se produisant pas systématiquement en cas d’avènement du risque). Ceci consiste à collecter les valeurs de la branche de droite dans l’arborescence ci-dessous.</li>
<li>Enfin, la dernière étape (<em>Derive and Articulate Risk</em>) est le fusionnement des données obtenues conformément à l’arborescence FAIR par différents calculs, pour obtenir le résultat sous forme d’outputs exploitables.</li>
</ul>
<p>&nbsp;</p>
<figure id="post-14805 media-14805" class="align-none"><img fetchpriority="high" decoding="async" class="aligncenter wp-image-14805 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-1.png" alt="" width="1904" height="468" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-1.png 1904w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-1-437x107.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-1-71x17.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-1-768x189.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-1-1536x378.png 1536w" sizes="(max-width: 1904px) 100vw, 1904px" /></figure>
<p style="text-align: center;">Lien entre l’analyse et la taxonomie de FAIR</p>
<p>&nbsp;</p>
<p>Sans aller plus dans le détail de la taxonomie, déjà abordé dans l’article présenté précédemment2, nous constatons que l’analyse standard d’un seul risque demande déjà sept données (correspondant aux éléments de la base de l’arborescence) :</p>
<ol>
<li><em>Contact frequency;</em></li>
<li><em>Possibility of action;</em></li>
<li><em>Threat capability;</em></li>
<li><em>Resistance strength;</em></li>
<li><em>Primary loss magnitude;</em></li>
<li><em>Secondary loss magnitude;</em></li>
<li><em>Secondary loss event frequency.</em></li>
</ol>
<p>Il faut ajouter à cela que FAIR invite à décliner les pertes (primaires et secondaires) en six catégories (facilitant ainsi l’estimation précise de ces données de pertes) :</p>
<ul>
<li>En pertes de production : liées à l’interruption du service produit par l’asset ;</li>
<li>En cout de réponse : liées à la réponse à incident ;</li>
<li>En frais de remplacement : liées au remplacement des constituants endommagés de l’asset ;</li>
<li>En frais de justice : liées aux amendes et poursuites juridiques ;</li>
<li>En perte d’avantage compétitif : liées à l’impact sur l’organisation dans son secteur d’activité ;</li>
<li>En pertes de réputation : liées aux retombées sur l’image publique de l’organisation.</li>
</ul>
<p>&nbsp;</p>
<h2>Comment modéliser correctement l’incertitude du risque ?</h2>
<p>De plus, il est bon de se poser la question de ce qu’est concrètement une donnée FAIR.</p>
<p>En effet, il est trop réducteur de définir une donnée par une unique valeur chiffrée. Par exemple, si nous considérons l’attaque par rançongiciel : il serait incorrect d’affirmer qu’une occurrence de ce risque couterait exactement 475 k€<a href="#_ftn4" name="_ftnref4">[4]</a> (illustrée par la courbe bleue sur le graphe 1).</p>
<p>&nbsp;</p>
<figure id="post-14807 media-14807" class="align-none"><img decoding="async" class="alignnone size-medium wp-image-14807 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-2-286x191.png" alt="" width="286" height="191" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-2-286x191.png 286w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-2-58x39.png 58w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-2.png 352w" sizes="(max-width: 286px) 100vw, 286px" /></figure>
<p style="text-align: center;">Graphe 1 : Une distribution, un modèle plus réaliste qu’une valeur isolée</p>
<p>&nbsp;</p>
<p>En revanche, ajouter de l’incertitude à cette donnée en l’accompagnant d’une borne minimale (qui pourrait être de 1 € dans notre exemple) et d’une borne maximale (de 300 M€ dans l’exemple), tout en gardant la valeur la plus probable énoncée précédemment, permettrait de modéliser beaucoup plus fidèlement la réalité (courbe violette du graphe 1).</p>
<p>Une donnée est alors définie par un minimum, un maximum et une valeur la plus probable (correspondant au pic de la distribution). Nous pouvons de plus noter qu’une telle distribution de probabilité est indépendante du type de valeurs considérées : il peut aussi bien s’agir d’une perte dans une devise quelconque (cf. l’exemple précédent), que d’une occurrence (par exemple, entre 1 fois par an et 1 fois tous les 10 ans, et une valeur plus probable autour d’une fois tous les deux ans), ou bien même d’un ratio (entre 30% et 70 %, plus probablement autour de 45%). Nous pouvons ainsi utiliser ces distributions pour modéliser toutes les données de la taxonomie FAIR.</p>
<p>Un autre avantage de la modélisation de l’incertitude par une distribution est de pouvoir régler finement le degré de confiance dans la valeur la plus probable, via le coefficient d’aplatissement de la courbe. Plus ce dernier sera élevé, plus la confiance dans la donnée sera grande (correspondant à un pic très marqué, cf. la courbe verte sur le graphe 2). En revanche, une donnée peu fiable sera modélisée par une distribution beaucoup plus homogène (cf. la courbe rouge sur le graphe 2).</p>
<p>&nbsp;</p>
<figure id="post-14809 media-14809" class="align-none"><img decoding="async" class="alignnone size-medium wp-image-14809 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-3-286x191.png" alt="" width="286" height="191" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-3-286x191.png 286w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-3-58x39.png 58w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-3.png 352w" sizes="(max-width: 286px) 100vw, 286px" /></figure>
<p style="text-align: center;">Graphe 2 : Refléter le niveau de confiance à travers les distributions</p>
<p>&nbsp;</p>
<p>Cependant, le fait d’utiliser des distributions plutôt que des valeurs fixes pose problème lorsqu’il s’agit de les combiner entre elles, ce qui sera nécessairement le cas lorsque nous effectuerons les calculs de l’arborescence FAIR. Comme nous pouvons en effet le constater sur le graphe 3 (l’addition de la distribution verte et de la rouge donnant la violette), l’addition de deux lois de distribution ne permet pas d’obtenir une distribution aussi ‘simple’ que les précédentes (elle ne suit plus une loi de probabilité dite log-normale). Cela est également le cas dans le cadre d’une multiplication (dont le résultat est également complexe).</p>
<p>&nbsp;</p>
<figure id="post-14811 media-14811" class="align-none"><img loading="lazy" decoding="async" class="alignnone size-medium wp-image-14811 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-4-286x191.png" alt="" width="286" height="191" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-4-286x191.png 286w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-4-58x39.png 58w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-4.png 550w" sizes="auto, (max-width: 286px) 100vw, 286px" /></figure>
<p style="text-align: center;">Graphe 3 : addition de deux distributions.</p>
<p>&nbsp;</p>
<p>Pour obtenir un résultat mathématiquement cohérent, la théorie des jeux nous donne un moyen simple : les simulations de Monte Carlo. Il s’agit en effet de discrétiser les distributions (la verte et la rouge du graphe 3), en un nombre prédéfini de valeurs aléatoires (appelé nombre de simulations), réparties de façon à correspondre à la distribution concernée. Nous pouvons ensuite combiner les distributions ainsi discrétisées en effectuant les calculs sur des paires de valeurs de chaque distribution. La nouvelle répartition pourra ensuite être approximée, et sera d’autant plus précise que le nombre de simulations sera grand.</p>
<p>&nbsp;</p>
<h2>Les caisses à outils artisanales pour automatiser FAIR…</h2>
<p>Pour effectuer ces calculs permettant d’obtenir une valeur chiffrée du risque, des solutions ont émergé (principalement à partir de la méthode FAIR). Nous aborderons donc ici les avantages et inconvénients de ces outils, qui sont également cités dans l’article précédent1.</p>
<h3>L’OpenFAIR Analysis Tool</h3>
<p>La première que nous pouvons citer est l’OpenFAIR Analysis Tool<a href="#_ftn5" name="_ftnref5">[5]</a>. Si cet outil a simplement un but pédagogique, il permet néanmoins de comprendre le fonctionnement de FAIR. Il est ainsi possible d’avoir une première application concrète de la méthode, et d’obtenir des résultats simplement (uniquement dans le cadre d’une analyse d’un risque isolé). Mis sur pied par l’université de San José (Californie) en collaboration avec l’OpenGroup, cet outil utilise une feuille Excel pour obtenir une évaluation du risque à partir d’un nombre prédéterminé de simulations, en respectant scrupuleusement la taxonomie FAIR.</p>
<p>&nbsp;</p>
<figure id="post-14813 media-14813" class="align-none"><img loading="lazy" decoding="async" class="aligncenter wp-image-14813 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-5.png" alt="" width="1931" height="1091" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-5.png 1931w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-5-338x191.png 338w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-5-69x39.png 69w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-5-768x434.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-5-1536x868.png 1536w" sizes="auto, (max-width: 1931px) 100vw, 1931px" /></figure>
<p style="text-align: center;">OpenFAIR Risk Analysis Tool : un outil avant tout pédagogique</p>
<p>&nbsp;</p>
<p>Très utile pour avoir un premier contact avec la quantification, l’outil reste cependant très limité en termes d’utilisation. Enfin, il faut noter qu’il n’est accessible que sous Excel et avec une licence d’évaluation limitée à 90 jours.</p>
<h3>Riskquant</h3>
<p>Pour une utilisation à plus grande échelle, le département R&amp;D de Netflix a mis sur pied la solution Riskquant<a href="#_ftn6" name="_ftnref6">[6]</a>. Il s’agit d’une bibliothèque de programmation Python, s’appuyant notamment sur tensorflow (un module python spécialisé pour le calcul statistique massif). La particularité de Riskquant est de proposer une quantification du risque inspirée de la taxonomie FAIR, mais ayant gardé une grande liberté dans son implémentation. Développée pour faciliter l’utilisation sur des conteneurs, elle permet par conception des évaluations très rapides à partir de fichiers csv.</p>
<p>&nbsp;</p>
<figure id="post-14815 media-14815" class="align-none"><img loading="lazy" decoding="async" class="aligncenter wp-image-14815 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-6.png" alt="" width="1920" height="1020" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-6.png 1920w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-6-360x191.png 360w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-6-71x39.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-6-768x408.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-6-1536x816.png 1536w" sizes="auto, (max-width: 1920px) 100vw, 1920px" /></figure>
<p style="text-align: center;">Riskquant : une approche originale mais manquant de maturité</p>
<p>&nbsp;</p>
<p>Cependant, le fait de n’avoir gardé de FAIR qu’une valeur unique de perte et une fréquence unique la rend peu exploitable, notamment dans le cadre d’une organisation qui chercherait à cadrer précisément ses risques. De plus, elle ne fournit à ce jour que peu de résultats exploitables et manque clairement de maturité. Enfin, elle semble à ce jour mise en sommeil depuis le 1<sup>er</sup> mai 2020 (date du dernier dépôt sur la page GitHub de la solution).</p>
<h3>PyFAIR</h3>
<p>Pour finir ce paragraphe sur les solutions pouvant servir de base à une implémentation de FAIR, la bibliothèque PyFAIR est disponible sur le dépôt python officiel (téléchargeable via l’outil pip). Désormais mature, l’outil permet une décomposition du risque suivant la taxonomie FAIR. Il permet également d’alimenter l’arborescence à partir de valeurs intermédiaires, ou de regrouper des données pouvant servir à plusieurs risques (permettant par exemple des regroupements par asset ou menaces). Il est capable de calculer des risques globaux, et fournit des distributions facilement exploitables sous python, mais également des graphiques et des rapports HTML préformattés.</p>
<p>&nbsp;</p>
<figure id="post-14817 media-14817" class="align-none"><img loading="lazy" decoding="async" class="aligncenter wp-image-14817 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-7.png" alt="" width="532" height="274" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-7.png 532w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-7-371x191.png 371w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-7-71x37.png 71w" sizes="auto, (max-width: 532px) 100vw, 532px" /></figure>
<p style="text-align: center;">PyFAIR, une bibliothèque complète et efficace en Python</p>
<p>&nbsp;</p>
<p>Bien qu’elle reste une boite à outil de programmation, demandant de fait une appétence et du temps pour développer et entretenir une solution en Python, PyFAIR est bien conçue. Elle facilite l’implémentation de FAIR en restant très proche de la taxonomie, et fournit des fonctions facilitant la mise en œuvre comme l’exploitation des résultats. Apte à être exploitée à plusieurs niveaux (i.e. en l’utilisant uniquement pour calculer des résultats à partir d’un paramétrage fin de FAIR et de Monte Carlo, ou bien en exploitant des fonctions de génération de rapports de haut niveau), elle permet d’envisager une utilisation de la quantification techniquement facilitée et à grande échelle.</p>
<p>&nbsp;</p>
<h2>Des plateformes ‘clé en main’ pour faciliter l’acquisition des données :</h2>
<p>Néanmoins, la difficulté principale de FAIR reste, comme nous l’avons vu précédemment, l’obtention de données et leur fiabilité. Pour y faire face efficacement, la solution la plus efficace est de s’appuyer sur une plateforme intégrant une base de données de CTI.</p>
<p>Ces plateformes fournissent les valeurs de risque liées aux menaces (donc très peu dépendantes de l’entreprise). Elles accompagnent de plus le déploiement et la mise en œuvre de la méthode de quantification, notamment en la guidant pour l’obtention de données de pertes adaptées.</p>
<h3>RiskLens</h3>
<p>La première de ces solutions est la plateforme RiskLens<a href="#_ftn7" name="_ftnref7">[7]</a>. Cette solution, directement issue de la méthodologie FAIR, a été co-fondée par Jack Jones. Elle sert de support technique au développement de la méthode, en lien avec le FAIR Institute. Ayant une approche technique de la méthode, elle porte son effort sur le respect des standards de l’analyse en général et de la définition du périmètre (première étape de FAIR) en particulier.</p>
<p>&nbsp;</p>
<figure id="post-14819 media-14819" class="align-none"><img loading="lazy" decoding="async" class="aligncenter wp-image-14819 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-8.png" alt="" width="776" height="431" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-8.png 776w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-8-344x191.png 344w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-8-71x39.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-8-768x427.png 768w" sizes="auto, (max-width: 776px) 100vw, 776px" /></figure>
<p style="text-align: center;">RiskLens, l’application de FAIR à la lettre</p>
<p>&nbsp;</p>
<p>Néanmoins, il faut noter que d’une part, cette solution demande d’avoir des notions avancées dans la méthode FAIR pour être facilement utilisable. En effet, la plateforme n’apporte pas une véritable aide pour l’obtention des données (qui comme nous l’avons vu, reste la clé de voute de la quantification), partant du principe que la définition du périmètre suffit à définir précisément la donnée, et de ce fait de l’obtenir aisément. D’autre part, il s’agit d’une plateforme américaine, ce qui implique que l’interface (assez peu intuitive) est uniquement disponible dans cette langue, et que les données collectées sont alors assujetties à la réglementation américaine.</p>
<h3>CITALID</h3>
<p>La seconde plateforme dont nous ferons mention ici est la startup française CITALID, qui a adopté une approche fondamentalement différente. En effet, cette dernière, fondée par deux analystes de l’ANSSI, recherche par conception à lier la CTI à la gestion de risque. Ainsi, utilisant FAIR comme l’outil leur permettant de réaliser ce lien, elle fait effort sur la conception et le maintien d’une base de données disposant de chiffres solides et maintenus à jour pour suivre au plus près la situation cyber géopolitique locale et internationale.</p>
<p>&nbsp;</p>
<figure id="post-14821 media-14821" class="align-none"><img loading="lazy" decoding="async" class="aligncenter wp-image-14821 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-9.png" alt="" width="1920" height="1080" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-9.png 1920w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-9-340x191.png 340w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-9-69x39.png 69w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-9-768x432.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/12/image-9-1536x864.png 1536w" sizes="auto, (max-width: 1920px) 100vw, 1920px" /></figure>
<p style="text-align: center;">CITALID, une base de données à haute valeur ajoutée</p>
<p>&nbsp;</p>
<p>Cette dernière plateforme apporte un vrai accompagnement dans la définition et la collecte des données, permettant ainsi d’identifier précisément où subsiste la part de subjectivité indéniablement liée au risque. Disponible en français et en anglais, elle facilite la gestion du risque cyber en prenant en compte tous les paramètres de l’organisation (localisation, taille, secteur d’activité, niveau de maturité, conformité aux référentiels, etc.) pour fournir des données de contextes adaptées. En outre, et en plus d’une explicitation de chacun des champs de la plateforme, la startup accompagne ses clients dans l’obtention des données qui sont de leur ressort.</p>
<p>&nbsp;</p>
<h2>FAIR le premier pas…</h2>
<p>Quoi qu’il en soit, la difficulté demeurera toujours de réussir la transition de l’estimation qualitative à l’estimation quantitative. Bien que des solutions puissent faciliter cette bascule, l’abandon d’une méthode maitrisée pour une nouvelle méthode reste un défi, malgré tous les bienfaits que cette dernière promet.</p>
<p>S’il fallait insister sur 3 points pour envisager ce changement, ceux-ci pourraient être :</p>
<ul>
<li>D’une part, de s’assurer d’avoir la maturité requise. La quantification demande d’avoir une bonne maitrise du niveau de sécurité du SI concerné, et de s’adosser à une méthode de gestion du risque préexistante et rodée. Si la quantification apporte des solutions pour chiffrer un risque, le provisionner ou estimer le ROI d’une mesure, il est cependant inutile (voire contre-productif) de s’engager sur cette voie trop tôt (sous peine au mieux de perdre du temps, au pire de dégrader la gestion de risque existante).</li>
<li>Ensuite, d’avoir une approche progressive dans le déploiement de la quantification. Dans un SI mature disposant d’une gestion de risque stable, il est préférable d’adopter progressivement la méthode quantitative. Cela permet notamment de prendre confiance dans les estimations produites (éventuellement en le faisant coexister avec la méthode d’estimation qualitative) et d’assimiler la méthodologie, tout en assurant son intégration dans le processus existant de gestion du risque.</li>
<li>Pour terminer, de s’appuyer sur l’expérience existante dans la collecte des données de risque cyber. La difficulté résidant dans l’obtention de données sûres, il est crucial (pour avoir confiance dans la méthode) de disposer de chiffres sûrs. Il semble alors judicieux de s’appuyer sur une plateforme qui peut fournir des données de qualité, et un appui dans la collecte des données internes. Celle-ci disposera de plus de l’expérience acquise par le déploiement de la méthode sur d’autres clients. La qualité des résultats fournis sera alors l’élément clé dans la confiance que l’organisation aura dans la méthode quantitative.</li>
</ul>
<p>&nbsp;</p>
<p><a href="#_ftnref1" name="_ftn1">[1]</a> <a href="https://www.riskinsight-wavestone.com/2020/11/estimation-quantifiee-du-risque-1-2-lodyssee-de-la-quantification/">https://www.riskinsight-wavestone.com/2020/11/estimation-quantifiee-du-risque-1-2-lodyssee-de-la-quantification/</a></p>
<p><a href="#_ftnref2" name="_ftn2">[2]</a> <a href="https://www.riskinsight-wavestone.com/2020/06/la-quantification-du-risque-cybersecurite/">https://www.riskinsight-wavestone.com/2020/06/la-quantification-du-risque-cybersecurite/</a></p>
<p><a href="#_ftnref3" name="_ftn3">[3]</a> <a href="https://publications.opengroup.org/c13g">https://publications.opengroup.org/c13g</a></p>
<p><a href="#_ftnref4" name="_ftn4">[4]</a> <a href="https://www.sophos.com/fr-fr/medialibrary/Gated-Assets/white-papers/sophos-the-state-of-ransomware-2020-wp.pdf">https://www.sophos.com/fr-fr/medialibrary/Gated-Assets/white-papers/sophos-the-state-of-ransomware-2020-wp.pdf</a></p>
<p><a href="#_ftnref5" name="_ftn5">[5]</a> <a href="https://blog.opengroup.org/2018/03/29/introducing-the-open-group-open-fair-risk-analysis-tool/">https://blog.opengroup.org/2018/03/29/introducing-the-open-group-open-fair-risk-analysis-tool/</a></p>
<p><a href="#_ftnref6" name="_ftn6">[6]</a> <a href="https://netflixtechblog.com/open-sourcing-riskquant-a-library-for-quantifying-risk-6720cc1e4968">https://netflixtechblog.com/open-sourcing-riskquant-a-library-for-quantifying-risk-6720cc1e4968</a></p>
<p><a href="#_ftnref7" name="_ftn7">[7]</a> <a href="https://www.risklens.com/">https://www.risklens.com/</a></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2020/12/estimation-quantifiee-du-risque-2-2-quelles-donnees-quels-outils/">Estimation quantifiée du risque (2/2) : Quelles données, quels outils ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Estimation quantifiée du risque (1/2) : L’odyssée de la quantification</title>
		<link>https://www.riskinsight-wavestone.com/2020/11/estimation-quantifiee-du-risque-1-2-lodyssee-de-la-quantification/</link>
		
		<dc:creator><![CDATA[Charles Dubos]]></dc:creator>
		<pubDate>Mon, 30 Nov 2020 14:35:50 +0000</pubDate>
				<category><![CDATA[Cyberrisk Management & Strategy]]></category>
		<category><![CDATA[Cybersecurity & Digital Trust]]></category>
		<category><![CDATA[FAIR]]></category>
		<category><![CDATA[ISO 27k]]></category>
		<category><![CDATA[OpenFAIR]]></category>
		<category><![CDATA[quantification]]></category>
		<category><![CDATA[Risque]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=14441</guid>

					<description><![CDATA[<p>Il y a quelques mois, François LUCQUET et Anaïs ETIENNE nous faisaient part[1] de l’intérêt croissant pour la quantification des risques cyber, mais nous mettaient également en garde contre un trop grand empressement à s’engager sur la voie de la...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2020/11/estimation-quantifiee-du-risque-1-2-lodyssee-de-la-quantification/">Estimation quantifiée du risque (1/2) : L’odyssée de la quantification</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Il y a quelques mois, François LUCQUET et Anaïs ETIENNE nous faisaient part<a href="#_ftn1" name="_ftnref1">[1]</a> de l’intérêt croissant pour la quantification des risques cyber, mais nous mettaient également en garde contre un trop grand empressement à s’engager sur la voie de la quantification sans réflexion préalable. Leur analyse, toujours d’actualité, insistait notamment sur le niveau de maturité requis pour s’engager dans une méthode d’estimation quantitative, ce dernier point réduisant drastiquement le périmètre des organisations susceptibles de s’engager sur cette voie. Pourtant, certaines méthodes de quantification sont à l’origine de solutions qui redonnent espoir dans la possibilité de chiffrer ses risques en termes financiers, et par la même logique de pouvoir évaluer un retour sur investissement.</p>
<p>Aussi est-il utile à ce point de faire un tour d’horizon des méthodes et théories existantes, ou susceptibles d’aboutir sur des résultats concrets. Dans le big-bang de la quantification du risque cyber, quels sont les ancrages théoriques qui pourraient voir naitre une méthode ? Lesquels ont abouti, lesquels semblent matures ? Pouvons-nous espérer à plus ou moins long terme des alternatives aux méthodes d’évaluation quantitatives actuelles ?</p>
<p>&nbsp;</p>
<h2>Feuille de route : Analyse de risque et quantification : qu’en attendre ?</h2>
<p>Pour situer la quantification dans le champ de la gestion du risque, commençons par préciser ce que nous cherchons. Au sein d’un procédé de gestion de risque, l’objectif est avant tout de définir une valeur chiffrée exploitable illustrant un niveau de risque (généralement un coût financier).</p>
<p>Il s’agit donc, en reprenant les termes de l’ISO 27k, uniquement d’une nouvelle évaluation du risque. En effet, les phases précédentes de contextualisation et d’identification des risques n’ont pas à priori de raisons d’être concernées par la quantification. Les phases de traitement, d’acceptation, de supervision ou de communication du risque, si elles bénéficieront des résultats de l’analyse quantitative, n’ont pas plus vocation à être bousculées dans leurs fondements. Il s’agit donc en réalité de trouver des moyens pour estimer chaque risque.</p>
<p>&nbsp;</p>
<figure id="post-14750 media-14750" class="align-none"><img loading="lazy" decoding="async" class="aligncenter wp-image-14750 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image1-2.png" alt="" width="757" height="550" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image1-2.png 757w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image1-2-263x191.png 263w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image1-2-54x39.png 54w" sizes="auto, (max-width: 757px) 100vw, 757px" /></figure>
<p>&nbsp;</p>
<p>Ce point, plutôt trivial mais crucial, nous permet de nous assurer que, bien que fondamentalement différentes des méthodes qualitatives dans leurs résultats, les méthodes quantitatives s’adosseront quoi qu’il en soit à des méthodes préexistantes. Ceci permet de se rassurer sur le fait que, bien qu’il soit nécessaire pour les employer de disposer d’une gestion de risque mature, cette gestion de risque sera également le socle de la quantification (qui exploitera ainsi la phase d’identification préexistante).</p>
<p>Maintenant que nous avons cadré l’apport de la quantification dans l’analyse globale des risques d’une organisation, précisons ce que nous souhaitons en attendre indépendamment de la possibilité de réalisation de ces assertions :</p>
<ul>
<li>D’une part, il est impératif que cette méthode soit plus précise dans son résultat par rapport à la méthode qualitative qui la précède. Ceci signifie surtout que, dès la première occurrence et sans avoir fourni de résultat auparavant, elle doit donner une estimation chiffrée précise (qui peut dans la mesure du possible contenir plusieurs valeurs : risque maximal ou risque probable notamment).</li>
<li>Nous pouvons également vouloir qu’elle soit plus rapide à réaliser, ou du moins qu’elle se réalise dans un temps acceptable, afin de pouvoir remplacer complètement à terme l’estimation qualitative. Il s’agit ici du temps qu’il serait nécessaire pour mettre en œuvre l’analyse, et ce sans avoir à s’inquiéter outre mesure des délais du calcul (ce dernier pouvant aujourd’hui assez efficacement être délégué, en particulier via le cloud). Il s’agit finalement si nous croisons ce souhait avec le précédent d’avoir une meilleure efficience que l’évaluation qualitative.</li>
<li>Par ailleurs, il est souhaitable que l’estimation quantitative s’appuie sur des données concrètes, afin de gagner en crédibilité dans les résultats produits. En effet, le processus d’une méthode quantitative étant fondée sur des théories mathématiques, seule une implémentation incorrecte pourrait introduire de la subjectivité dans les valeurs obtenues. Ce dernier point permettrait de justifier qu’en un temps équivalent à l’analyse qualitative, nous ayons des résultats plus fins.</li>
<li>Enfin, et cela découle du point précédent, il nous est nécessaire de disposer d’une taxonomie précise, afin que les données à collecter soient clairement définies quel que soit le risque envisagé. En effet, si l’estimation quantitative s’appuie sur des théories mathématiques éprouvées, la qualité des données produites ne dépendra alors plus que de la qualité des données utilisées en entrée, et plus particulièrement de la pertinence et de la cohérence de la donnée au vue de sa définition.</li>
</ul>
<p>&nbsp;</p>
<h2>Au centre de la galaxie : passer de la théorie à la pratique</h2>
<p>Ayant précisé quels sont les caractéristiques de la quantification, voyons maintenant quels sont les théories mathématiques qui permettraient de prendre en compte l’aléa lié à un risque.</p>
<p>Considérons par exemple la théorie des <em>Fuzzy sets</em>, ou ensembles flous. Cette théorie mathématique est basée sur le principe qu’un élément, au lieu d’appartenir ou non à un ensemble, puisse ne lui appartenir que partiellement selon un degré variable. Cela pourrait permettre de faire ressortir l’occurrence ou l’impact d’un risque au travers du degré d’appartenance de ce risque à des ensembles. Cette théorie, bien qu’intéressante, n’a cependant pas débouché sur des applications concrètes.</p>
<p>Une autre approche, que l’on pourrait qualifier de corrélative, reposerait sur l’utilisation de réseaux de neurones auto-apprenants pour déterminer à partir de données de CTI, quel serait le niveau du risque d’une entreprise au vu de ses caractéristiques. Cette théorie a bénéficié de l’engouement actuel pour l’intelligence artificielle, au point de déboucher au niveau universitaire sur des études comparant les différents modes d’apprentissage (notamment BP<a href="#_ftn2" name="_ftnref2">[2]</a> ou RBF<a href="#_ftn3" name="_ftnref3">[3]</a>) en vue d’une utilisation dans le cadre d’une analyse de risque cyber. Cependant, elle ne semble pas à ce jour suffisamment mature pour parvenir à obtenir une méthode réaliste.</p>
<p>Finalement, la seule solution mathématique ayant porté des fruits à ce jour a été l’analyse statistique (et la théorie des jeux qui offre le moyen de combiner les distributions statistiques, voir à ce sujet le billet « Quantification du risque et données : conseils et outils »<a href="#_ftn4" name="_ftnref4">[4]</a>). Le principe de l’analyse statistique est de se baser sur des observations statistiques pour estimer le niveau d’un risque. L’aléa du risque est alors, en grande partie, pris en compte par la répartition de la distribution statistique.</p>
<p>A partir de ces statistiques, deux approches sont envisageables :</p>
<ul>
<li>La première est illustrée par une méthode proposée par l’IMF<a href="#_ftn5" name="_ftnref5">[5]</a>. Elle se propose d’évaluer un risque cyber par une analyse statistique fine et détaillée. Elle est cependant très calculatoire et peu accessible pour une utilisation régulière dans le cadre d’une estimation quantifiée du risque. Elle garde cependant un intérêt indubitable dans le cadre d’une analyse d’un niveau de risque cyber sur plusieurs entités dont on disposerait de données, ce qui peut s’avérer utile pour un assureur ou dans le milieu de la banque. Elle reste cependant cloisonnée à cette utilisation. Réduisant d’autant le périmètre déjà limité des entités disposant d’une maturité cyber acceptable, cette méthode ne semble pas pouvoir proposer à court ou moyen terme une solution exploitable à l’échelle du SI d’une organisation.</li>
<li>La seconde consiste à décomposer tout risque cyber en fonction de caractéristiques communes. C’est notamment l’approche de la méthodologie FAIR : elle propose dans sa taxonomie (cf. ‘comment appliquer la méthode FAIR’1) une dissociation du risque en fonction de son occurrence et de l’impact estimé d’un point de vue financier. FAIR propose ensuite une déclinaison de ces deux paramètres qui, du fait de leur caractère universel, peuvent s’appliquer de ce fait à n’importe quel risque cyber. Ce type de méthode a donc l’avantage de proposer un processus identique pour l’analyse de tout risque cyber, favorisant son utilisation dans un contexte organisationnel qui peut ensuite comparer des risques cyber de nature distincte.</li>
</ul>
<p>&nbsp;</p>
<figure id="post-14752 media-14752" class="align-none"><img loading="lazy" decoding="async" class="aligncenter wp-image-14752 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image2-2-e1606746909181.png" alt="" width="1807" height="741" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image2-2-e1606746909181.png 1807w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image2-2-e1606746909181-437x179.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image2-2-e1606746909181-71x29.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image2-2-e1606746909181-768x315.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/10/Image2-2-e1606746909181-1536x630.png 1536w" sizes="auto, (max-width: 1807px) 100vw, 1807px" /></figure>
<p style="text-align: center;">La galaxie de la quantification</p>
<p>&nbsp;</p>
<h2>La méthode FAIR : un trou noir supermassif</h2>
<p>Actuellement, seule la méthode FAIR a donné naissance à des solutions de quantification exploitables au sein d’une entreprise. Son monopole dans le domaine est tel, qu’elle est devenue une référence incontournable pour qu’une solution ou une méthodologie subsiste. Tel un trou noir, elle attire à elle toutes les solutions actuelles de quantification. Nous pouvons par exemple pour illustrer ceci citer la bibliothèque Risquant, développée par le département R&amp;D de Netflix<a href="#_ftn6" name="_ftnref6">[6]</a>. Cette dernière annonce clairement s’appuyer sur la méthode FAIR. Elle prend néanmoins une grande liberté dans l’interprétation de la taxonomie et de l’analyse, mais le fait de citer cette filiation lui permet cependant d’être plus facilement acceptée et reconnue.</p>
<p>Cette hégémonie de FAIR s’explique assez facilement :</p>
<ul>
<li>Pour commencer, c’est une méthode pragmatique par conception. Son inventeur, Jack Jones, l’a mise sur pied alors qu’il était RSSI d’un grand groupe américain, et qu’il lui était demandé de justifier du ROI cyber. Elle a donc été initiée dans un but opérationnel, puis s’est affinée et a gagné en crédibilité en s’appuyant sur des outils et des théories mathématiques. Ce concept de développement (i.e. le fait que la méthode soit née d’un besoin puis justifiée ensuite mathématiquement), fait de FAIR une méthode particulièrement appréciée des premiers concernés que sont les RSSI et autres cyber-risk managers.</li>
<li>Ensuite, elle a été particulièrement visionnaire, puisqu’elle a précédé toutes les autres méthodes. Apparue en 2001, elle a fait dès 2006 l’objet d’une publication explicitant en détail son fonctionnement et sa taxonomie. Au fur et à mesure, une communauté s’est constituée autour de Jack Jones et de sa méthode, le FAIR Institute. Ce dernier a eu à cœur de poursuivre la maturation et la diffusion de la méthode. Ceci s’est notamment concrétisé par la mise en place de facilitateurs pour la rendre toujours plus efficiente et exploitable.</li>
<li>La méthode FAIR dispose également d’une base particulièrement solide : outre la publication évoquée ci-dessus et qui a fait l’objet en 2016 d’une réédition enrichie, elle s’appuie sur deux documents de standardisation, édités par l’OpenGroup (consortium à l’origine du standard d’architecture de SI TOGAF). L’OpenGroup propose également une certification à la méthode, basée sur ces deux standards, et qui ajoutent au rayonnement de la méthode.</li>
<li>Enfin, FAIR est fortement soutenue (en particulier outre-Atlantique) : la communauté qui l’anime est particulièrement active et contribue autant à son évolution qu’à sa promotion : les liens entre l’OpenFAIR et le FAIR Institute, tous deux cités ci-dessus, sont sensiblement étroits. La solidité de ses liens est assurée par le fait que Jack Jones, père de la méthode, joue un rôle central dans les deux organisations.</li>
</ul>
<p>Ainsi, dans le monde de la quantification du risque cyber, les seules solutions opérationnelles à ce jour s’appuient toutes, avec une filiation plus ou moins grande mais toujours affichée, sur la méthodologie FAIR.</p>
<p>Si la maturité de celle-ci semble désormais acquise, son monopole dans le domaine permet avec peu de doute d’envisager, au moins pour les années à venir, qu’elle restera la seule méthode de quantification. Pour qu’une autre méthode puisse un jour faire jeu égal, et outre le fait qu’il lui faudra asseoir sa crédibilité conceptuelle, il lui faudra surtout se faire une place à côté de l’hégémonie de FAIR, tout en prouvant qu’elle est plus efficiente que cette dernière, qui a désormais acquis ses lettres de noblesse.</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p><a href="#_ftnref1" name="_ftn1">[1]</a> <a href="https://www.riskinsight-wavestone.com/2020/06/la-quantification-du-risque-cybersecurite/">https://www.riskinsight-wavestone.com/2020/06/la-quantification-du-risque-cybersecurite/</a></p>
<p><a href="#_ftnref2" name="_ftn2">[2]</a> Back-propagation : propagation inverse</p>
<p><a href="#_ftnref3" name="_ftn3">[3]</a> Radial basis functions : fonctions de base radiale</p>
<p><a href="#_ftnref4" name="_ftn4">[4]</a> Article 2 disponible sur Risk Insight</p>
<p><a href="#_ftnref5" name="_ftn5">[5]</a> <a href="https://www.imf.org/en/Publications/WP/Issues/2018/06/22/Cyber-Risk-for-the-Financial-Sector-A-Framework-for-Quantitative-Assessment-45924">https://www.imf.org/en/Publications/WP/Issues/2018/06/22/Cyber-Risk-for-the-Financial-Sector-A-Framework-for-Quantitative-Assessment-45924</a></p>
<p><a href="#_ftnref6" name="_ftn6">[6]</a> <a href="https://netflixtechblog.com/open-sourcing-riskquant-a-library-for-quantifying-risk-6720cc1e4968">https://netflixtechblog.com/open-sourcing-riskquant-a-library-for-quantifying-risk-6720cc1e4968</a></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2020/11/estimation-quantifiee-du-risque-1-2-lodyssee-de-la-quantification/">Estimation quantifiée du risque (1/2) : L’odyssée de la quantification</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Citalid &#124; Shake Up &#8211; La Cyber Threat Intelligence au service de l&#8217;optimisation des budgets cyber</title>
		<link>https://www.riskinsight-wavestone.com/2020/11/la-cyber-threat-intelligence-au-service-de-l-optimisation-des-budgets-cyber/</link>
		
		<dc:creator><![CDATA[Maxime Cartan]]></dc:creator>
		<pubDate>Tue, 03 Nov 2020 08:00:17 +0000</pubDate>
				<category><![CDATA[Cyberrisk Management & Strategy]]></category>
		<category><![CDATA[Cybersecurity & Digital Trust]]></category>
		<category><![CDATA[budgets]]></category>
		<category><![CDATA[citalid]]></category>
		<category><![CDATA[CTI]]></category>
		<category><![CDATA[FAIR]]></category>
		<category><![CDATA[finance]]></category>
		<category><![CDATA[investissement]]></category>
		<category><![CDATA[optimisation]]></category>
		<category><![CDATA[quantification]]></category>
		<category><![CDATA[shake'up]]></category>
		<category><![CDATA[startups]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=14451</guid>

					<description><![CDATA[<p>Citalid est une startup tech française fondée en 2017 qui met à disposition des RSSI et Risk Managers un logiciel de quantification et de management du risque cyber. La technologie fortement innovante de Citalid permet à ses clients de bénéficier de...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2020/11/la-cyber-threat-intelligence-au-service-de-l-optimisation-des-budgets-cyber/">Citalid | Shake Up &#8211; La Cyber Threat Intelligence au service de l&rsquo;optimisation des budgets cyber</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong><em>Citalid</em></strong><em> est une startup tech française fondée en 2017</em><em> qui met à disposition des RSSI et Risk Managers un logiciel de quantification et de management du risque cyber. La technologie fortement innovante de <strong>Citalid</strong> permet à ses clients de bénéficier de simulations, métriques et recommandations directement opérationnelles pour optimiser leur ROSI (Return On Security Investments) grâce à sa capacité unique à croiser des données techniques, contextuelles et financières. <strong>Citalid</strong> fait partie du programme d’accélération des startups de Wavestone, Shake’Up.</em></p>
<p>&nbsp;</p>
<figure id="post-14516 media-14516" class="align-none"><img loading="lazy" decoding="async" class="size-full wp-image-14516 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/citalid-2.png" alt="" width="1082" height="378" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/citalid-2.png 1082w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/citalid-2-437x153.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/citalid-2-71x25.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/citalid-2-768x268.png 768w" sizes="auto, (max-width: 1082px) 100vw, 1082px" /></figure>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>Pour l’instant moins connue et moins répandue en Europe que ses consœurs <strong>EBIOS RM</strong> &amp; <strong>Mehari</strong> (entre autres), la méthode d’analyse de risques <strong>FAIR</strong> comble néanmoins des vides laissés par les autres approches. Déjà mise en avant par <strong>Wavestone</strong> dans un <a href="https://www.riskinsight-wavestone.com/2020/06/la-quantification-du-risque-cybersecurite/">article précédent</a>, ses principaux atouts résident dans la mise en perspective de données habituellement boudées par l’analyse de risque traditionnelle d’une part, et d’autre part dans sa capacité à générer des métriques dédiées à l’aide à la décision stratégique et adaptées au langage des décideurs, comme la <em>Value at Risk</em>.</p>
<p>Néanmoins, comme le souligne ce même article, cette approche est a priori desservie par le temps, les ressources humaines et la multiplicité des connaissances nécessaires pour la mener à bien. Dès lors, bien que le concept soit séduisant, est-il réaliste de déployer la méthode <strong>FAIR</strong> ? Comment traduire opérationnellement sa nomenclature ? Quid de son automatisation ? Plus largement, apporte-t-elle une plus-value suffisante pour justifier son utilisation ?</p>
<p>Nonobstant son efficacité indéniable en matière de quantification des risques, une telle approche nécessite d’être encadrée à la fois par un dispositif technique adapté et par un accompagnement fonctionnel, essentiel dans la collecte des données. C’est d’autant plus vrai que quantifier financièrement ses potentielles pertes financières en cas d’incident cyber n’est pas suffisant : encore faut-il avoir la capacité de les mettre en perspective dans un écosystème de menaces polymorphes et évolutives. C’est toute l’innovation de <strong>Citalid</strong> : être capable de réaliser une quantification dynamique du risque cyber à destination des décideurs, en croisant automatiquement la réalité de la menace qui pèse sur une entreprise, son contexte métier et sa maturité défensive. Et, surtout, ne pas s’arrêter à la seule analyse : générer un plan d’action qui reflète l’équilibre optimal entre efficacité et rentabilité.</p>
<p>&nbsp;</p>
<h2>L’empirisme comme cadre d’automatisation de FAIR</h2>
<h3>Contextualiser l’environnement externe</h3>
<p>Comme dans toute analyse, l’objectivité de l’observation croît avec le nombre de paramètres pris en compte. S’il est fréquent, voire habituel, que le contexte interne d’un système d’information soit étudié, il est plus rare que l’analyste s’intéresse à l’ensemble des dynamiques externes pouvant influencer l’analyse. Ces dynamiques, qui peuvent revêtir des réalités variées comme nous allons le voir, peuvent pourtant fortement influencer la fréquence et l’intensité des menaces cyber. Il est toutefois difficile de dresser une typologie exhaustive de ces données, et leur prise en compte relève quasi-systématiquement du mélange de deux ingrédients :</p>
<ul>
<li>La curiosité et l’esprit logique de l’analyste (<em>in fine</em>, sa capacité à se projeter dans / s’adapter à un contexte) ;</li>
<li>La bonne visibilité du ou des responsable(s) du système et des activités sur leurs périmètres ;</li>
</ul>
<p>Parmi les critères exogènes pouvant infléchir l’analyse de risque figurent : l’environnement concurrentiel, la position de l’entreprise sur son marché, ses implantations géographiques, les dynamiques géopolitiques, les politiques internes, le cadre normatif, le climat socio-économique, la diversité de ses activités, etc.</p>
<p>Pour autant, il serait aisé de se perdre dans ce labyrinthe de critères. Il est donc nécessaire d’accompagner le décideur dans la constitution d’une cartographie de son environnement au sens le plus englobant du terme. C’est donc par l’échange et l’intelligence collective qu’un premier niveau de filtre se crée, en dressant un périmètre d’analyse à la fois structuré et flexible.</p>
<p>Si définir le périmètre de l’analyse permet de fixer un cadre cohérent, une multitude de risques peuvent toutefois s’y insérer. Il est d’ailleurs à noter que le périmètre défini peut lui-même être une composante d’un périmètre d’analyse plus large. En ce sens, les différents périmètres déterminés peuvent s’articuler sous forme d’arbre hiérarchique, calquant souvent l’organisation interne de l’entreprise (cf. schéma ci-dessous).</p>
<p>&nbsp;</p>
<figure id="post-14452 media-14452" class="align-none"><img loading="lazy" decoding="async" class="size-full wp-image-14452 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-1.png" alt="" width="601" height="433" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-1.png 601w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-1-265x191.png 265w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-1-54x39.png 54w" sizes="auto, (max-width: 601px) 100vw, 601px" /></figure>
<p>&nbsp;</p>
<p>Ainsi, dans l’exemple ci-contre, le niveau groupe est représenté par le périmètre « <em>Energy Company</em> », qui agrège le risque de l’ensemble de ses périmètres « enfants » (ici ses « <em>business units</em> »). Chaque périmètre présente pourtant un contexte et des risques qui lui sont propres. Cette arborescence joue un rôle prédominant dans la construction d’une bibliothèque pertinente de scénarios de risques afférents. On pourrait aisément être tenté de remonter à l’échelon groupe pour globaliser ses scénarios, mais cela détériore souvent <em>de facto </em>la granularité, et donc la qualité, de l’analyse en raison des particularismes de chaque périmètre.</p>
<p>&nbsp;</p>
<h3>Construire une bibliothèque pertinente de scénarios</h3>
<p>Ce travail de cadrage conditionne donc le choix et le paramétrage des scénarios de risque. Ce paramétrage et le calcul en résultant est rendu complexe par le nombre de critères à prendre en compte et l’incertitude inhérente au risque cyber. Sans revenir sur la méthodologie propre à FAIR déjà abordée sur ce blog, il peut donc être long et fastidieux de construire un grand nombre de scénarios de risque tout en tenant compte des spécificités de chaque périmètre. Une solution à ce problème réside donc dans la construction d’une bibliothèque de scénarios pouvant s’adapter à chaque contexte métier et englobant plusieurs typologies de menaces. En se fondant sur l’expérience des opérateurs et les données accumulées, Citalid dispose aujourd’hui de plusieurs bibliothèques de scénarios et de pertes, répertoriées dans des répertoires ‘Métiers’. Ceux-ci sont facilement exportables sur la plateforme, tout en conservant une part de flexibilité permettant aux scénarios indiqués de s’adapter très précisément au contexte business. Dans la continuité du use-case utilisé plus haut, l’image ci-dessous illustre une bibliothèque ‘fictive’ de scénarios reliée au secteur ‘Energie’. S’agissant d’une version ‘Démo’, ce panel est toutefois non exhaustif.</p>
<p>&nbsp;</p>
<figure id="post-14454 media-14454" class="align-none"><img loading="lazy" decoding="async" class="size-full wp-image-14454 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-2.png" alt="" width="1862" height="629" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-2.png 1862w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-2-437x148.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-2-71x24.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-2-768x259.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-2-1536x519.png 1536w" sizes="auto, (max-width: 1862px) 100vw, 1862px" /></figure>
<p>&nbsp;</p>
<p>C’est ainsi que la bibliothèque de scénarios de <strong>Citalid</strong> s’inscrit dans une double-dynamique à première vue contradictoire : capables de répondre aux exigences d’efficacité et d’automatisation de l’analyse, elle reste suffisamment flexible pour s’implémenter avec précision et pertinence dans n’importe quel contexte. Chaque typologie de menace, combinée aux caractéristiques du périmètre analysé, détermine la fréquence d’occurrence et les pertes financières, qu’elles soient primaires ou secondaires, inhérentes au scénario choisi. Dans le cas d’un scénario d’espionnage économique par exemple, on peut affirmer sans trop s’avancer qu’il y aura systématiquement une perte liée à la remédiation de l’incident, une perte liée à l’exfiltration des données et une perte résultant de l’atteinte à la réputation de l’entité si l’attaque venait à devenir publique.</p>
<p>En complément, pour que les paramètres quantitatifs (fréquence de la menace, résistance du SI à l’attaque, fréquence et magnitude des pertes, actifs ciblés, etc.) du scénario restent pertinents, ils doivent être profilés sur les caractéristiques du périmètre cible. C’est pourquoi l’expertise de Citalid réside en partie dans la définition et le maintien à jour – les menaces cyber et les abaques disponibles évoluant vite – d’une bibliothèque de <em>templates</em> au sein de laquelle l’analyste doit pouvoir piocher pour amorcer facilement et automatiquement son évaluation du risque.</p>
<p>Accumuler des données sur les menaces cyber et leurs impacts permet donc de calibrer des « templates » de scénarios, et d’automatiser ainsi progressivement l’analyse <strong>FAIR</strong>. En combinant renseignement sur la menace, modèles techniques et abaques issues d’analyses en source ouverte et de retours clients pour aider les analystes, la plateforme <strong>Citalid</strong> – plusieurs fois primée pour son innovation<a href="#_ftn1" name="_ftnref1">[1]</a> – prend le parti de l&rsquo;intelligence collective pour assurer une rigueur scientifique et une précision inégalée dans la quantification des pertes financières.</p>
<p>&nbsp;</p>
<h2>Remettre les risques en perspective avec l’écosystème de défense</h2>
<h3>Le RSSI comme pilote de son SI</h3>
<p>En matière de management de la cybersécurité, le RSSI constitue, sans surprise, le point central du dispositif. Pour cela, il doit avoir la capacité de visualiser rapidement l’ensemble du panorama des risques cyber pesant sur son SI – une vision « cockpit », pour ensuite infléchir des orientations à plus grande échelle. Il a donc besoin d’un GPS pour le guider dans ses décisions : comment mener son SI d’un point A (état des lieux du risque actuel) à un point B (exposition au risque souhaitée), en prenant soin d’optimiser sa trajectoire (investissements cyber) tout en évitant les obstacles (menaces) qui apparaissent dynamiquement sur sa route.</p>
<p>&nbsp;</p>
<figure id="post-14456 media-14456" class="align-none"><img loading="lazy" decoding="async" class="size-full wp-image-14456 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-3.png" alt="" width="1877" height="818" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-3.png 1877w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-3-437x191.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-3-71x31.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-3-768x335.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-3-1536x669.png 1536w" sizes="auto, (max-width: 1877px) 100vw, 1877px" /></figure>
<p style="text-align: center;">Exemple de <em>dashboard</em> de risque, illustrant la vision ‘cockpit’ du RSSI.</p>
<p>&nbsp;</p>
<p>Une fois les différents scénarios établis et la quantification réalisée, la difficulté réside dans la possibilité de traduire ces risques qualifiés de « bruts » en une roadmap stratégique. La première étape consiste ainsi à mettre en perspective ces risques en les confrontant à l’infrastructure défensive actuelle du SI. La connaissance de son environnement constitue un prérequis à l’analyse pour le RSSI. D’autant plus qu’en matière d’infrastructure défensive, deux options majeures existent et se complètent parfois : opter pour une logique de maturité défensive fondée sur le respect d’un ou plusieurs référentiel(s) (ISO 27k, NIST, CIS, etc.) ou réaliser – puis comparer avec ses pairs – un inventaire et une évaluation de l’ensemble des solutions de sécurité déployées sur le périmètre.</p>
<p>« Une confrontation permanente entre théorie et expérience est une condition nécessaire à l’expression de la créativité » <sup>[1]</sup>. On ne saurait trouver aphorisme plus révélateur de la méthode énoncée ici : celle de la confrontation entre théorie (risques bruts) et expérience (évaluation de la maturité défensive fondée sur une multitude de retours et d’incidents) comme condition nécessaire de la création d’une roadmap. La confrontation permet d’obtenir le risque « net » auquel est réellement confrontée l’entreprise, inférieur au risque brut puisqu’il considère les défenses du SI.</p>
<p>Alimenté par des métriques « actionnables », le décideur pourra désormais avoir une visibilité sur son risque réel dans son langage, et par conséquent pouvoir arbitrer et déterminer sa destination – son point B – en fonction de son appétit au risque et de la politique de l’entreprise. Quels scénarios traiter en investissant pour réduire le risque associé ? Lesquels maintenir, au regard de leur faible impact économique ? Lesquels partager à un assureur cyber ? Toutefois, comme nous allons le voir, la modélisation du risque net décrite dans le paragraphe précédent requiert une connaissance conséquence de l’écosystème de menaces dans lequel il s’inscrit.</p>
<p>&nbsp;</p>
<h3>La Cyber Threat Intelligence, catalyseur d’une gestion des risques optimale</h3>
<p>L’une des principales lacunes du management des risques en matière de cybersécurité se cristallise autour de la difficulté à déployer une approche qui reflète la réalité du risque « terrain ». Le RSSI ou le Risk Manager doit donc également avoir un radar pour détecter dynamiquement les obstacles sur son chemin (menaces) et, dans la mesure du possible, anticiper et prévenir les impédimentas.</p>
<p>Ainsi, de la même façon qu’un éboulement de pierre sur une route est le résultat d’une conjonction de multiples facteurs (conditions météorologiques, caractéristiques géologiques, activité humaine, etc.), le passage à l’acte d’un attaquant dépend de nombreux éléments. Ces éléments doivent, dans la mesure du possible, être observés et inclus dans l’analyse de risque. Dès lors, la Cyber Threat Intelligence (CTI), discipline dédiée à l’étude et la contextualisation des modes opératoires des attaquants, enrichit et dynamise les analyses de risque traditionnelles. La maîtrise et l’inclusion de cette discipline dans la gestion du risque cyber est l’un des différenciateurs majeurs de Citalid et irrigue toute sa culture d’entreprise.</p>
<p>Comment marier opérationnellement et durablement les données de CTI aux calculs de risque annoncés dans le paragraphe précédent ? On peut en avoir l’intuition en constatant les trois faits suivants :</p>
<ul>
<li>Le segment de marché de l’entreprise aide à déterminer les modes opératoires les plus susceptibles de s’intéresser à elle ;</li>
<li>Les techniques d’attaques utilisées par ces modes opératoires et leurs centres d’intérêt au sein des SI ciblés permettent d’identifier les actifs les plus critiques et de savoir comment améliorer leur protection ;</li>
<li>En confrontant à nouveau les données de CTI définies dans les deux points précédents avec son infrastructure défensive, l’entité peut identifier quel champ d’application (au sens entendu par un référentiel de sécurité) ou quelle solution de défense n’est pas assez rentable (réduction du risque par rapport au coût).</li>
</ul>
<p>&nbsp;</p>
<figure id="post-14458 media-14458" class="align-none"><img loading="lazy" decoding="async" class="size-full wp-image-14458 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-4.png" alt="" width="1190" height="519" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-4.png 1190w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-4-437x191.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-4-71x31.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-4-768x335.png 768w" sizes="auto, (max-width: 1190px) 100vw, 1190px" /></figure>
<p>&nbsp;</p>
<p>Le schéma ci-dessus représente un exemple concret d’application de la CTI à l’analyse de risque, agissant comme un véritable catalyseur pour dresser des orientations. Un mode opératoire s’exprime techniquement à travers sa « Kill Chain », soit l’enchaînement des techniques d’attaque qu’il met en œuvre pour arriver à son objectif. Citalid a cartographié les liens entre ces TTPs (Tactics-Techniques-Procedures) et des points précis de différents référentiels de sécurité (ici le CIS20), ces derniers étant les mesures défensives les plus adaptées aux TTPs définis dans le schéma. Sur la première ligne, on observe par exemple que la mesure CIS 16.3 (entre autres) est suffisamment déployée chez l’entité cible pour limiter l’impact des TTPs indiquées à cette étape de la Kill Chain. Sur la seconde ligne, en revanche, l’inverse se produit : la mesure CIS 11.1 n’est pas suffisamment mature pour opérer une protection efficace contre la sophistication de l’attaquant.  C’est donc sur cette ligne que le défenseur doit potentiellement se concentrer.</p>
<p>La dernière ligne cristallise les intérêts de l’enrichissement de l’analyse par la CTI. Le carré jaune détermine la progression de maturité due à la mise en place de solutions de sécurité pertinentes pour la mesure CIS 11.1 (par exemple un système de gestion des périphériques réseau), solutions qui sont automatiquement déterminées et recommandées à l’utilisateur dans le cas du moteur de calcul Citalid. Autrement dit, ce différentiel exprime indirectement une voie à suivre vers une maturité et résilience optimales pour ce scénario spécifique, point de départ de la définition d’une stratégie d’investissement cyber sur-mesure.</p>
<p>&nbsp;</p>
<h2>Transformer l’analyse en stratégie</h2>
<h3>Formuler une stratégie cyber alignée sur des objectifs groupe</h3>
<p>Une analyse de risque réussie et pertinente se caractérise par la facilité qu’aura l’observateur à visualiser immédiatement comment transmuter les données en actions. Elle se doit donc d’être intelligible et cohérente pour le récipiendaire, quels que soient son niveau de technicité et sa position dans l’organigramme. Autrement dit, l’analyse de risque seule est insuffisante : elle ne peut véritablement servir que si elle donne naissance à une stratégie de long-terme.</p>
<p>Cette vision, fortement orientée vers les niveaux les plus stratégiques, marque l’ADN même de Citalid. Derrière le calcul des risques (brut et réel) et des recommandations les plus efficaces (référentiels comme solutions) grâce à la CTI, l’objectif est de pouvoir proposer un indicateur de retour sur investissement (ROI) des solutions de sécurité. En visualisant sa position initiale (A), sa position souhaitée (B) et les différents chemins possibles (investissements de défense), le décideur final doit pouvoir comparer le ROI des différentes options et dresser une stratégie d’investissement cyber en accord avec son budget et ses objectifs réels.</p>
<p>De plus, l’objectif derrière cette approche singulière est double. Dans un premier temps, il s’agit d’accompagner nos clients dans la définition de leurs stratégies de cybersécurité et dans l’application d’un plan d’action co-construit, visant de fait à pallier les failles rendues visibles par l’analyse. Toutefois, pour que cette stratégie reste réaliste, il est primordial de s’assurer qu’elle puisse s’inscrire dans une dynamique globale et donc qu’elle soit rapidement assimilable par une instance hiérarchique supérieure (COMEX). Pour répondre à ce besoin, nous avons, chez Citalid, affiné notre prestation afin que celle-ci soit en phase avec les réalités du RSSI :</p>
<ul>
<li>Par l’adaptation de la plateforme en matière d’ergonomie, de niveau de technicité et de langage, pour que les tableaux de bord soient transparents et facilement interprétables ;</li>
<li>Par l’assistance auprès de notre clientèle dans la définition des budgets et dans leur légitimation et justification (plaidoyer) au regard de la réalité de la menace.</li>
</ul>
<p>En alignant les stratégies de cybersécurité sur des stratégies d’investissement plus large, en phase avec les objectifs fixés par le groupe, Citalid entend garantir et renforcer le rôle prédominant du RSSI dans le pilotage de la résilience cyber.</p>
<p>&nbsp;</p>
<h3>Capitaliser sur l’approche par le déploiement d’un indice de risque</h3>
<p>L’avantage majeur quant au choix d’opérer une approche globalisante en matière de sécurité repose sur son potentiel d’agrégation du risque à n’importe quel niveau (groupe, business unit, application, projet, etc.) et de normalisation (comparaison entre périmètres et pairs). À la manière des agences de notation, ce « scoring » de l’entité, qui ne prend pas seulement en compte son niveau de maturité sur ses actifs exposés mais également sa stratégie de gestion du risque, son organisation interne, la réalité de la menace, son contexte business propre, etc. peut se transformer en un indice global de risque, symbole de la résilience de l’entité et suivi par sa direction. Ceci est d’autant plus vrai qu’une approche scientifique fondée sur de nombreux paramètres hétérogènes présente un caractère d’objectivité souhaitable, pour l’entité comme pour ses partenaires et collaborateurs.</p>
<p>Cette fois, il ne s’agit plus seulement de se positionner dans son environnement, mais bien de se positionner par rapport à d’éventuels pairs (comparaison) et partenaires (garanties). Un indice de risque traduisant une résilience élevée et une gestion des risques saine aura pour effet d’assurer à ses fournisseurs ou clients finaux une sécurité optimale et un respect de leurs données, tout en rassurant les investisseurs sur la bonne utilisation de leurs fonds.</p>
<p>&nbsp;</p>
<figure id="post-14460 media-14460" class="align-none"><img loading="lazy" decoding="async" class="size-full wp-image-14460 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-5.png" alt="" width="1387" height="606" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-5.png 1387w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-5-437x191.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-5-71x31.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/11/Image-5-768x336.png 768w" sizes="auto, (max-width: 1387px) 100vw, 1387px" /></figure>
<p style="text-align: center;">Exemples d’indices de risque réalisés par <strong>Citalid</strong> : il s’agit, en l’occurrence, d’une ‘Météo cyber’ permettant d’identifier les variations de l’exposition médiatique d’un client.</p>
<p>&nbsp;</p>
<p>D’autres acteurs pourraient également tirer profit d’un tel index : le milieu assurantiel, et en particulier les cyber-assureurs. La quantification du risque cyber reste un obstacle pour eux, les approches actuarielles classiques étant limitées par le manque de données historiques en cybersécurité. Le modèle de Citalid, présenté ici, combine expertise de la menace, modèles probabilistes avancés et simulations attaque-défense innovantes afin de pallier ce manque de données. Notre « scoring » et nos métriques, fondés sur les risques plutôt que sur un simple niveau de défense, permettent donc d’affiner le modèle assurantiel pour être au plus proche des besoins réels de leurs clients.</p>
<p>Ainsi, la quantification du risque cyber et du retour sur investissement des solutions de sécurité constitue aujourd’hui l’un des plus grands défis auxquels font face les RSSI, Risk Managers et assureurs. À travers son approche innovante, Citalid répond à ce besoin de repositionner la cybersécurité au cœur des stratégies d’entreprises et d’optimiser ses plans d’actions et investissements.</p>
<p><sup>[1]</sup> Attribuée à Pierre Joliot-Curie</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2020/11/la-cyber-threat-intelligence-au-service-de-l-optimisation-des-budgets-cyber/">Citalid | Shake Up &#8211; La Cyber Threat Intelligence au service de l&rsquo;optimisation des budgets cyber</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>La quantification du risque cybersécurité</title>
		<link>https://www.riskinsight-wavestone.com/2020/06/la-quantification-du-risque-cybersecurite/</link>
		
		<dc:creator><![CDATA[Fr@Nc0isLuqu3t]]></dc:creator>
		<pubDate>Wed, 03 Jun 2020 12:49:19 +0000</pubDate>
				<category><![CDATA[Cyberrisk Management & Strategy]]></category>
		<category><![CDATA[Cybersecurity & Digital Trust]]></category>
		<category><![CDATA[Board]]></category>
		<category><![CDATA[c-level]]></category>
		<category><![CDATA[FAIR]]></category>
		<category><![CDATA[quantification]]></category>
		<category><![CDATA[risk]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=13146</guid>

					<description><![CDATA[<p>A date, il est intéressant de noter que ce sont les attaques réelles elles-mêmes qui nous permettent le plus aisément de quantifier les risques cyber, et ce par l’estimation des coûts engendrés. On estime ainsi que NotPetya, le fameux malware...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2020/06/la-quantification-du-risque-cybersecurite/">La quantification du risque cybersécurité</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>A date, il est intéressant de noter que ce sont les attaques réelles elles-mêmes qui nous permettent le plus aisément de quantifier les risques cyber, et ce par l’estimation des coûts engendrés. On estime ainsi que NotPetya, le fameux malware à 1 milliard, aurait couté plus de 300 millions à des grandes entreprises, de type Fedex, Saint Gobain, et bien d’autres… Ces estimations restent cependant très approximatives et ne sont généralement faisables que plusieurs mois après une attaque. Dès lors, comment anticiper les risques liés aux attaques cyber ? Comment quantifier ce risque avec plus ou moins de fiabilité ?</p>
<p>Aujourd’hui, une attention forte est portée à la quantification du risque, et à juste titre. Il reste pour autant un sujet très complexe. Deux raisons évidentes à cela : nous manquons cruellement d’informations et de retours d’expérience précis sur le sujet ; mais aussi parce que les attaques cyber engendrent de nombreux impacts intangibles (réputation, désorganisation interne, préjudice stratégique, arrêt des opérations) ; ou à couts indirects (chute des ventes, pénalités contractuelles, baisse de valorisation de l’entreprise sur les marchés, etc.).</p>
<p>Nous distinguons aujourd’hui des pistes prometteuses pour quantifier le risque, et des premières solutions permettant d’automatiser cette quantification.</p>
<h2>Pourquoi chercher à quantifier le risque cybersécurité ?</h2>
<p>Que ce soit pour échanger avec les directions générales, les métiers, voire même les assureurs, il y a un véritable besoin de parvenir à évaluer les risques cyber de la manière la plus objective possible. L’enjeu est double : gagner en pertinence et en légitimité. L’une des pistes possibles est donc de traiter le risque cyber sous le prisme financier, comme tous les autres risques de l’entreprise pour les rendre significatifs pour les décideurs.</p>
<h4>Convaincre et démontrer l’efficacité des investissements auprès des comités exécutifs</h4>
<p>L’un des véritables enjeux de la quantification des risques cyber réside dans la construction d’une relation de confiance avec les comités exécutifs sur le long-terme. Dans un premier temps, adopter un discours clair<strong> pour les convaincre</strong> et <strong>décrocher des investissements nécessaires au lancement de programmes de sécurité structurants</strong>. Pour ensuite<strong> démontrer l’efficacité des investissements menés </strong>et ainsi pérenniser la relation avec les comités exécutifs dans le temps : démontrer la réduction des risques de manière chiffrée et l’évolution du risque sur plusieurs années. Cela est clé, notamment <strong>à la suite de la crise COVID</strong> va déboucher sur une réduction et une optimisation des budgets cybersécurité au sein des entreprises. Il sera donc primordial de quantifier le risque cyber pour un contrôle plus fort sur le ROI des investissements cybersécurité.</p>
<h4>Sensibiliser et ainsi embarquer les métiers dans la démarche de cybersécurité</h4>
<p>La démarche de sécurisation du système d’information d’une entreprise ne peut se faire sans l’instauration du Security by Design, et en ce sens, ne peut se faire sans embarquer les métiers. <strong>Parler le même langage est donc nécessaire.</strong></p>
<h4>Adapter les plans d’assurance sécurité (PAS) pour ne pas être pris au piège</h4>
<p>Enfin, afin de ne pas se retrouver au pied du mur en cas d’attaque, il est primordial pour les entreprises d’anticiper les potentiels coûts d’une attaque afin <strong>d’adapter les provisions et les assurances. Cette quantification leur permet de réaliser cela. </strong></p>
<h2>Quelles sont les principales difficultés à date ?</h2>
<h4>Des impacts qui restent pour la plupart intangibles, ou indirects</h4>
<p>Compte tenu de leur <strong>nature intangible</strong>, il parait de prime abord complexe d’évaluer objectivement certains impacts d’attaques cyber. C’est par exemple le cas de l’impact sur l’image de marque, sur la réputation d’une entreprise ou encore le préjudice stratégique, la désorganisation interne. D’autres risques sont bel et bien tangibles mais <strong>indirects,</strong> ce qui complexifie encore la tâche des entreprises souhaitant quantifier leurs risques, c’est par exemple le cas de la perte de parts de marchés, de la baisse de valorisation de l’entreprise sur les marchés, etc</p>
<h4>Une difficulté à estimer avec certitude le degré d’exposition d’une entreprise au risque cyber</h4>
<p>Il n’existe pas de formule universelle pour calculer l’impact d’une attaque sur une entreprise. Cela dépend de nombreux paramètres : taille de l’entreprise, niveau de complexité et d’ouverture du système d’information, maturité cyber, etc. Le niveau d’exposition d’une entreprise dépend essentiellement de son niveau de maturité cyber sécurité. Il existe des référentiels tels que NIST, ISO, CIS, etc. pour estimer le niveau de maturité en cybersécurité, mais encore peu d’entreprises parviennent à les mettre en œuvre ou à les utiliser pleinement.</p>
<h4>Un cruel manque d’informations sur les attaques les plus récentes et leur coût</h4>
<p>Les entreprises souhaitant quantifier leurs risques cyber sont confrontées à une absence de base de données statistiques sur le coût des cyber-attaques. Bien sûr, la plupart des entreprises communiquent peu, voire pas à ce sujet, probablement pour ne pas effrayer leurs clients et leurs partenaires. Et pourtant, la collaboration serait clé face à des attaquants toujours plus astucieux : tant pour augmenter leur cyber-résilience que pour faciliter la quantification du risque. Par exemple, les entreprises Altran et Norsk Hydro ont été touchées par des ransomwares similaires en provenance du même groupe d’attaquants !</p>
<h2>Quelques premières pistes pour quantifier le risque cybersécurité</h2>
<p>Christine Lagarde, présidente du FMI, s’est d’ores et déjà emparée du sujet et a publié un billet et une méthodologie de quantification des risques s’appliquant au secteur bancaire, utilisée au sein du FMI. Alors comment étendre la quantification aux autres secteurs ?</p>
<h3>Les prérequis à une quantification des risques optimale</h3>
<p>La méthodologie FAIR est l’une des plus répandues pour quantifier les risques. Une quantification des risques efficace induit :</p>
<ul>
<li><strong>Une bonne connaissance de ses risques les plus critiques.</strong> En effet, vu la complexité de FAIR, il ne vaut mieux pas s’éparpiller et se concentrer sur les scénarios de risque les plus importants. Encore faut-il les connaître ! Un travail de cartographie des risques est à prévoir dans lequel la mobilisation des métiers sera nécessaire ;</li>
<li><strong>Une bonne compréhension des mesures de sécurité existantes</strong> pour estimer sa capacité à résister à des attaques et les impacts résiduels ;</li>
<li><strong>Une première ébauche d’un référentiel des coûts types</strong> (honoraires d’avocats, de cabinet de communication, etc.), que sera complété dans le temps, ce qui nécessite une expertise métier pour identifier et estimer les coûts.</li>
</ul>
<p>Aussi, l’estimation du coût des risques, du fait de sa nature transverse appelle à la collaboration de nombreux acteurs de l’entreprise (RH, juridique, etc.), ce qui peut être complexe à mettre en place.</p>
<h3>La méthodologie FAIR, une approche qui vient préciser certaines phases de l’analyse et du traitement des risques</h3>
<p><strong>Introduction à la méthodologie FAIR (Factor Analysis of Information Risk)</strong></p>
<p>En 2001, Jack Jones était le RSSI de Nationwide Insurance. Il était lui-même confronté aux interrogations persistantes de sa direction générale lui demandant des données chiffrées sur les risques auxquels était exposée l’entreprise. Face à l’insatisfaction causée par le flou de ses réponses, Jack Jones a mis en place une méthodologie pour estimer, de manière chiffrée, les risques pesant sur son entreprise, c’est la méthodologie FAIR.</p>
<p><strong>Concrètement, comment celle-ci se différencie d’une méthodologie d’analyse des risques, tel que EBIOS ?</strong></p>
<p>La méthodologie FAIR ne vient en aucun cas remplacer l’analyse de risque : FAIR est une méthodologie permettant d’évaluer les impacts et les probabilités d’un risque de manière plus fiable. Les impacts sont toujours traduits en pertes financières afin de rendre tangible l’évaluation réalisée. Les compléments apportés sont illustrés par le schéma ci-dessous.</p>
<figure id="post-13153 media-13153" class="align-center"><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-13153" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/06/Image-1-1.png" alt="" width="1346" height="519" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/06/Image-1-1.png 1346w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/06/Image-1-1-437x169.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/06/Image-1-1-71x27.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/06/Image-1-1-768x296.png 768w" sizes="auto, (max-width: 1346px) 100vw, 1346px" /></figure>
<p style="text-align: center;"><strong><em>Schéma 1 :</em></strong><em> FAIR, une approche qui précise certaines phases de l’analyse et du traitement des risques</em></p>
<p>Habituellement, l’évaluation du risque cyber se traduit par plusieurs types d’impact (impact d’image, financier, opérationnel, juridique, etc). La particularité de la méthodologie FAIR est de transposer chaque impact à un coût financier (coûts direct, indirects, tangibles et intangibles). Par exemple, si un scénario de risque présente un impact sur l’image de l’entreprise, FAIR traduit ce risque sous forme de risque financier en évaluant le coût de l’agence de communication que l’on mobilisera afin de redresser l’image de l’entreprise notamment. Si le directeur général d’une entreprise est mobilisé dans le cadre d’une gestion de crise, alors il faudra estimer le temps passé à gérer cette crise et monétiser celui-ci.</p>
<p><strong> </strong><strong>Comment appliquer la méthodologie FAIR ?</strong></p>
<p>Un risque quantifié en euro est le facteur de la fréquence d’attaque réussie (loss event frequency) et le coût de l’attaque réussie (loss magnitude). Le schéma ci-dessus présente la démarche utilisée par la méthodologie FAIR afin d’estimer ces deux caractéristiques.</p>
<p>&nbsp;</p>
<figure id="post-13155 media-13155" class="align-center"><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-13155" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/06/image-2-1.png" alt="" width="1629" height="821" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2020/06/image-2-1.png 1629w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/06/image-2-1-379x191.png 379w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/06/image-2-1-71x36.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/06/image-2-1-768x387.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2020/06/image-2-1-1536x774.png 1536w" sizes="auto, (max-width: 1629px) 100vw, 1629px" /></figure>
<p style="text-align: center;"><strong><em>Schéma 2 :</em></strong><em> les critères pris en compte par la méthodologie FAIR pour estimer les risques (traduction non disponible à date)</em></p>
<ul>
<li><strong>Calcul de la <em>« Loss Event Frequency</em></strong><strong><em> »</em></strong></li>
</ul>
<p>Le <em>« contact frequency »</em> représente la fréquence à laquelle la menace <em>(« threat agent »)</em> entre en contact avec le bien à protéger. Par exemple, il peut s’agir de la fréquence à laquelle a lieu une catastrophe naturelle à endroit donné.</p>
<p>La <em>« probability of action »</em> est la probabilité que la menace agisse de manière malveillante sur le système une fois le contact effectué. Celui-ci ne s’applique que lorsque le threat agent est un être vivant (ne s’applique pas dans le cas d’une tornade par exemple). Cela se déduit du gain, de l’effort et du coût de l’attaque et des risques.</p>
<p>De ces deux paramètres en découle la <strong><em>« threat event frequency ».</em></strong></p>
<p>La <em>« threat capability »</em> consiste à estimer les capacités du threat agent tant en matière de compétences (expérience et savoir) qu’en matière de ressources (temps et matériel).</p>
<p>La <em>« resistance strength »</em> est la capacité de resistance de l’entreprise face à ce scénario d’attaque. la resistance threat se calcule à partir du niveau de maturité cyber de l’entité par exemple avec une analyse d’écart à NIST.</p>
<p>De ces deux paramètres en découle la<strong> <em>« vulnerability »,</em></strong> puis la <strong><em>« loss event frequency ».</em></strong></p>
<ul>
<li><strong>Calcul de la <em>« Loss Magnitude »</em></strong></li>
</ul>
<p>Les <em>« primary loss »</em> constituent le coût des pertes directes. Cela comprend notamment : l’interruption des opérations, les salaires versés aux employés alors que les opérations sont interrompues, le coût de la mobilisation de prestataires pour pallier l’attaque (restaurer les systèmes, mener les investigations), etc.</p>
<p>Les <em>« secondary loss »</em> constituent les pertes indirectes, provenant des réactions d’autres personnes impactées, et sont plus difficiles à estimer. Par exemple, les <em>« secondary loss »</em> peuvent couvrir la perte de part de marché engendrée par la dégradation de l’image de l’entreprise, les coûts de notification d’une attaque via une agence de communication, le paiement d’une amende auprès d’un régulateur ou encore des honoraires d’avocat pour se défendre en justice, etc. Celle-ci se calcule en multipliant la <em>« secondary loss event frequency »</em> et la <em>« secondary loss magnitude »</em> pour chacun des coûts indirects.</p>
<p><strong>Une solution qui accompagne les entreprises dans la mise en application de cette méthodologie</strong></p>
<p>Au-delà de la description théorique de la méthodologie, des solutions se développent pour permettre aux entreprises d’appliquer la méthodologie de manière concrète. C’est le cas de la start-up Citalid qui, par exemple, propose une plateforme de quantification des risques cyber en s’appuyant sur la méthodologie FAIR. Celle-ci permet au RSSI d’affiner et de rendre cohérente la quantification des risques grâce à de la threat intelligence (pour le suivi des attaquants dans le temps). Pour utiliser la solution, l’entreprise doit renseigner des éléments relatifs à son contexte et, pour chacun des scénarios de risque à quantifier, compléter un questionnaire NIST (50 questions pour le plus basique ou 250 pour un niveau de granularité plus fin) et le reste est calculé automatiquement.</p>
<h3>Quelles sont les avantages et les limites de la méthodologie FAIR ?</h3>
<p>La méthodologie FAIR apporte principalement les éléments suivants :</p>
<ul>
<li>Elle permet à l’entreprise <strong>d’identifier et d’évaluer plus précisément les risques les plus importants. </strong>Pour chacun des scénarios de risque choisis, la méthodologie permet une estimation des pertes financières moyennes et maximales et une fréquence estimée. Par exemple : « la probabilité de perdre 150 millions d’euros en raison de la propagation d’un ransomware destructif de type NotPetya exploitant une faille 0-day Windows est de 20% ».</li>
<li>Elle permet<strong> l</strong><strong>’estimation des coûts-avantages du plan d’actions de réduction des risques.</strong> En jouant avec la <em>« resistence strength »,</em> il est possible d’estimer le retour sur investissement (ROI) des mesures de sécurité à mettre en place.</li>
<li>Elle transpose tous les risques cyber en un risque financier ce qui permet une <strong>meilleure compréhension du risque par les dirigeants de l’entreprise.</strong></li>
</ul>
<p>Cependant, l’application de FAIR n’est pas sans contraintes car elle demande des ressources parfois importantes (tant en nombre de jours hommes que de connaissance du contexte de l’entreprise). La quantification du risque ne couvre par ailleurs qu’un périmètre restreint (1 scénario de risque). Aussi,<strong> la quantification du risque avec la méthodologie FAIR nécessite d’être affinée avec des abaques types de coûts associés à un impact cyber. </strong>Cela peut par exemple se faire en capitalisant sur les analyses post-mortem d’un crise cyber qui permettent souvent de donner une illustration réelle des impacts financiers.</p>
<p>Ainsi, la méthodologie FAIR est une piste prometteuse mais qu’il faudra se l’approprier dans le but d’en tirer des bénéfices concrets.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2020/06/la-quantification-du-risque-cybersecurite/">La quantification du risque cybersécurité</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
